JP6902945B2 - Text summarization system - Google Patents

Text summarization system Download PDF

Info

Publication number
JP6902945B2
JP6902945B2 JP2017133421A JP2017133421A JP6902945B2 JP 6902945 B2 JP6902945 B2 JP 6902945B2 JP 2017133421 A JP2017133421 A JP 2017133421A JP 2017133421 A JP2017133421 A JP 2017133421A JP 6902945 B2 JP6902945 B2 JP 6902945B2
Authority
JP
Japan
Prior art keywords
text
learning
predetermined
processing
summarization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017133421A
Other languages
Japanese (ja)
Other versions
JP2019016181A (en
Inventor
真由美 北原
真由美 北原
康智 外園
康智 外園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2017133421A priority Critical patent/JP6902945B2/en
Publication of JP2019016181A publication Critical patent/JP2019016181A/en
Priority to JP2021103281A priority patent/JP7100747B2/en
Application granted granted Critical
Publication of JP6902945B2 publication Critical patent/JP6902945B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、テキスト文章の要約技術に関し、特に、機械学習により生成された学習モデルに基づいて要約を作成するテキスト要約システムに適用するものである。 The present invention relates to a text sentence summarization technique, and is particularly applied to a text summarization system that creates a summarization based on a learning model generated by machine learning.

機械学習を用いてテキスト文章の要約を自動的に生成する技術が検討されている。要約を生成する手法には、大別して、抽出型と生成型とがある。抽出型では、例えば、要約の対象となる文章に含まれる重要度の高い単語や文等を抽出し、これらを組み合わせることで要約を作成する。一方、生成型では、例えば、文章を所定の中間表現に変換し、これに基づいて自然言語生成の技術を用いて要約を作成する。現在では、一般的には抽出型の手法が広く研究されており、精度を向上させるための各種の手法が提案されている。 A technique for automatically generating a summary of text sentences using machine learning is being studied. The methods for generating summaries are roughly classified into extraction type and generation type. In the extraction type, for example, words and sentences with high importance included in the sentence to be summarized are extracted, and a summary is created by combining these. On the other hand, in the generation type, for example, a sentence is converted into a predetermined intermediate representation, and a summary is created based on this using a technique of natural language generation. At present, in general, extraction-type methods have been widely studied, and various methods for improving accuracy have been proposed.

例えば、特開2016−186772号公報(特許文献1)には、要約(短縮文)を作成する対象の文章に含まれる構成要素間を文法的または概念的関係に基づいて連結したツリー構造で表現するとともに、構成要素間のそれぞれの連結に、短縮文に残存する度合いとして得られた結合度を付加し、結合度に基づいて短縮文に含める構成要素を抽出して短縮文を作成することで、自然な短縮文を生成する旨が記載されている。 For example, Japanese Patent Application Laid-Open No. 2016-186772 (Patent Document 1) expresses a tree structure in which components included in a sentence for which a summary (abbreviated sentence) is created are connected based on a grammatical or conceptual relationship. At the same time, by adding the degree of coupling obtained as the degree of remaining in the abbreviated sentence to each connection between the components, and extracting the components to be included in the abbreviated sentence based on the degree of coupling, the abbreviated sentence is created. , It is stated that a natural abbreviation is generated.

抽出型の手法では、要約に含まれる単語や文は、原則として原文に含まれる単語や文に制約される。したがって、文章を短縮した場合に不自然な表現や文法的に適切でない要約となってしまう場合がある。これに対し、生成型の手法については、自然な表現を用いることが可能であるが、精度の高い自然言語生成の技術が必要となる等の課題を有している。しかし近年では、例えば、非特許文献1に記載されているような研究もなされており、プログラムやライブラリ等も一般に利用可能となっている。 In the extraction type method, the words and sentences contained in the abstract are, in principle, restricted to the words and sentences contained in the original sentence. Therefore, shortening the sentence may result in unnatural expressions or grammatically inappropriate summaries. On the other hand, although it is possible to use natural expressions for the generation-type method, there are problems such as the need for a highly accurate natural language generation technique. However, in recent years, for example, research as described in Non-Patent Document 1 has been conducted, and programs, libraries, and the like have become generally available.

特開2016−186772号公報Japanese Unexamined Patent Publication No. 2016-186772

“Research Blog: Text summarization with TensorFlow(登録商標)”、[online]、2016年8月24日、Google(登録商標、以下同様)、[平成29年6月27日検索]、インターネット<URL:https://research.googleblog.com/2016/08/text-summarization-with-tensorflow.html>"Research Blog: Text summarization with TensorFlow (registered trademark)", [online], August 24, 2016, Google (registered trademark, the same applies hereinafter), [Search on June 27, 2017], Internet <URL: https //research.googleblog.com/2016/08/text-summarization-with-tensorflow.html >

抽出型・生成型に関わらず、従来技術のテキスト文章の自動要約技術では、機械学習により生成された学習モデルを用いることで、ある程度の精度の要約を自動的に生成することができる。しかし、精度として十分ではない場合も多く、例えば、原文に含まれる単語等のうち、要約にも現れてほしい重要なものがあるにも関わらず、要約に現れてこないという場合がある等、精度についての改善の余地は多く存在する。 Regardless of the extraction type or the generation type, the conventional automatic summarization technique for text sentences can automatically generate a summary with a certain degree of accuracy by using a learning model generated by machine learning. However, there are many cases where the accuracy is not sufficient. For example, among the words contained in the original text, there are cases where some important words that you want to appear in the abstract do not appear in the abstract. There is a lot of room for improvement.

そこで本発明の目的は、テキスト文章の自動要約の精度をより向上させることを可能とするテキスト要約システムを提供することにある。 Therefore, an object of the present invention is to provide a text summarization system capable of further improving the accuracy of automatic summarization of text sentences.

本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will become apparent from the description and accompanying drawings herein.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。 A brief description of typical inventions disclosed in the present application is as follows.

本発明の代表的な実施の形態によるテキスト要約システムは、テキスト文章から要約を作成するテキスト要約システムであって、原文とその要約を含む複数の学習用テキストに対して、所定の前処理を行って学習データを作成する学習用前処理部と、前記学習データに基づいて機械学習により要約に係る学習モデルを作成する学習モデル作成部と、要約対象テキストに対して所定の前処理を行う前処理部と、前記前処理部により前処理がなされた前記要約対象テキストに対して、前記学習モデルに基づいて要約テキストを作成する要約作成部と、前記要約テキストに対して所定の後処理を行って出力する後処理部と、を有する。 The text summarization system according to a typical embodiment of the present invention is a text summarization system that creates a summary from a text sentence, and performs predetermined preprocessing on a plurality of learning texts including the original text and the summary. A pre-processing unit for learning that creates training data, a learning model creation unit that creates a learning model related to summarization by machine learning based on the training data, and a pre-processing that performs predetermined preprocessing on the text to be summarized. A summary creation unit that creates a summary text based on the learning model for the unit and the summary target text that has been preprocessed by the preprocessing unit, and a predetermined post-processing for the summary text. It has a post-processing unit that outputs data.

そして、前記学習用前処理部および前記前処理部における前記所定の前処理では、前記学習用テキストおよび前記要約対象テキストに含まれる語句に所定の加工を行い、前記後処理部における前記所定の後処理では、前記要約テキストに対して前記前処理部により行われた前記所定の加工の内容を復元する。 Then, in the predetermined pre-processing in the learning pre-processing unit and the pre-processing unit, predetermined processing is performed on the words and phrases included in the learning text and the summary target text, and the predetermined post-processing in the post-processing unit is performed. In the processing, the content of the predetermined processing performed by the preprocessing unit is restored with respect to the summary text.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。 Among the inventions disclosed in the present application, the effects obtained by representative ones will be briefly described as follows.

すなわち、本発明の代表的な実施の形態によれば、テキスト文章の自動要約の精度をより向上させることが可能となる。 That is, according to a typical embodiment of the present invention, it is possible to further improve the accuracy of automatic summarization of text sentences.

本発明の一実施の形態であるテキスト要約システムの構成例について概要を示した図である。It is a figure which showed the outline about the structural example of the text summarizing system which is one Embodiment of this invention. 本発明の一実施の形態における事前の学習処理の流れの例について概要を示したフローチャートである。It is a flowchart which showed the outline about the example of the flow of the pre-learning process in one Embodiment of this invention. 本発明の一実施の形態における要約作成処理の流れの例について概要を示したフローチャートである。It is a flowchart which showed the outline about the example of the flow of the summary making process in one Embodiment of this invention. 本発明の一実施の形態における前処理および後処理の例について概要を示した図である。It is a figure which showed the outline about the example of the pretreatment and the posttreatment in one Embodiment of this invention. 本発明の一実施の形態における前処理および後処理の他の例について概要を示した図である。It is a figure which showed the outline about the other example of the pretreatment and the posttreatment in one embodiment of the present invention. 本発明の一実施の形態における前処理および後処理の他の例について概要を示した図である。It is a figure which showed the outline about the other example of the pretreatment and the posttreatment in one embodiment of the present invention.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。一方で、ある図において符号を付して説明した部位について、他の図の説明の際に再度の図示はしないが同一の符号を付して言及する場合がある。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, in all the drawings for explaining the embodiment, in principle, the same reference numerals are given to the same parts, and the repeated description thereof will be omitted. On the other hand, the parts described with reference numerals in one figure may be referred to with the same reference numerals in the explanation of other figures, although they are not shown again.

<システム構成>
図1は、本発明の一実施の形態であるテキスト要約システムの構成例について概要を示した図である。本実施の形態のテキスト要約システム1は、機械学習により生成した学習モデルに基づいてニュース記事等のテキスト文章の要約を自動的に生成して出力する機能を有するサーバシステムである。
<System configuration>
FIG. 1 is a diagram showing an outline of a configuration example of a text summarizing system according to an embodiment of the present invention. The text summarization system 1 of the present embodiment is a server system having a function of automatically generating and outputting a summary of text sentences such as news articles based on a learning model generated by machine learning.

テキスト要約システム1は、例えば、例えば、サーバ機器やクラウドコンピューティングサービス上に構築された仮想サーバ等により構成される。そして、図示しないCPU(Central Processing Unit)により、HDD(Hard Disk Drive)等の記録装置からメモリ上に展開したOS(Operating System)やDBMS(DataBase Management System)、Webサーバプログラム等のミドルウェアや、その上で稼働するソフトウェアを実行することで、自動要約に係る後述する各種機能を実現する。 The text summarization system 1 is composed of, for example, a server device, a virtual server built on a cloud computing service, or the like. Then, a CPU (Central Processing Unit) (not shown) is used to develop middleware such as an OS (Operating System), a DBMS (DataBase Management System), and a Web server program developed on a memory from a recording device such as an HDD (Hard Disk Drive), and the software thereof. By executing the software running on the above, various functions related to automatic summarization, which will be described later, are realized.

テキスト要約システム1は、例えば、ソフトウェアとして実装された学習用前処理部11、学習モデル作成部14、前処理部16、要約作成部18、および後処理部19等の各部を有する。また、データベースやファイル等として実装された学習データ12、語彙データ13、学習モデル15、および置換データ17等の各データを有する。学習用前処理部11、および学習モデル作成部14は、機械学習における教師データとなる学習用テキスト2に基づいて、機械学習により事前に学習モデル15を生成する機能を有する。また、前処理部16、要約作成部18、および後処理部19は、要約作成の対象となる要約対象テキスト3について、学習モデル15に基づいて要約テキスト4を生成して出力する機能を有する。 The text summarization system 1 includes, for example, a learning pre-processing unit 11, a learning model creation unit 14, a pre-processing unit 16, a summarization creation unit 18, a post-processing unit 19, and the like implemented as software. In addition, it has each data such as learning data 12, vocabulary data 13, learning model 15, and replacement data 17 implemented as a database, a file, or the like. The learning preprocessing unit 11 and the learning model creation unit 14 have a function of generating a learning model 15 in advance by machine learning based on a learning text 2 which is teacher data in machine learning. Further, the pre-processing unit 16, the summary creation unit 18, and the post-processing unit 19 have a function of generating and outputting the summary text 4 based on the learning model 15 for the summary target text 3 to be the target of the summary creation.

なお、教師データとなる学習用テキスト2には、要約対象の原文と、正解である要約結果とが含まれている。このような文章としては、例えば、ニュース記事がある。この場合、要約対象となるニュース原文に対して、当該ニュースのタイトルや見出し等を正解である要約結果として用いることができる。本実施の形態では、学習用テキスト2や要約対象テキスト3としてニュース記事を対象に説明するが、これに限られるものではなく、各種の文章に適用することができる。 The learning text 2 which is the teacher data includes the original text to be summarized and the summary result which is the correct answer. Examples of such sentences include news articles. In this case, the title, headline, etc. of the news can be used as the correct summary result for the original news text to be summarized. In the present embodiment, the news article is described as the learning text 2 and the summary target text 3, but the present invention is not limited to this and can be applied to various sentences.

学習用前処理部11は、入力となる学習用テキスト2に対して、各種の前処理を施して、機械学習エンジンに入力するために正規化された学習データ12(および語彙データ13)を準備する機能を有する。前処理の具体的な内容については後述する。学習モデル作成部14は、学習用前処理部11により作成された学習データ12、および語彙データ13を入力として、自然言語処理の所定のアルゴリズムを用いて機械学習を行い、要約生成のための学習モデル15を生成する機能を有する。 The learning preprocessing unit 11 performs various preprocessing on the learning text 2 to be input, and prepares the normalized learning data 12 (and vocabulary data 13) for input to the machine learning engine. Has a function to do. The specific content of the preprocessing will be described later. The learning model creation unit 14 receives the learning data 12 and the vocabulary data 13 created by the learning preprocessing unit 11 as inputs, performs machine learning using a predetermined algorithm of natural language processing, and learns for summarization generation. It has a function of generating a model 15.

機械学習エンジンや自然言語処理のアルゴリズムについては、公知の技術を適宜使用することができる。本実施の形態では、上述の非特許文献1に記載された技術を参照し、例えば、機械学習エンジンとして、Google社が提供するオープンソースの機械学習ライブラリであるTensorflow(登録商標、以下同様)を用いる。また、この上で用いる自然言語処理(文章自動要約)のアルゴリズムとして、オープンソースとして提供されているTextsumのプログラムを用いる。これにより、例えば、ディープラーニングや、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、Sequence to Sequenceモデル、Sequence to Sequence with attentionモデル等の技術を自動要約の際に適用することが可能となる。 Known techniques can be appropriately used for machine learning engines and natural language processing algorithms. In this embodiment, referring to the technique described in Non-Patent Document 1 described above, for example, as a machine learning engine, Tensorflow (registered trademark, the same applies hereinafter), which is an open source machine learning library provided by Google Inc., is used. Use. Further, as an algorithm for natural language processing (automatic sentence summarization) used on this, a Textsum program provided as open source is used. This makes it possible to apply technologies such as deep learning, RNN (Recurrent Neural Network), RSTM (Long Short-Term Memory), Sequence to Sequence model, Sequence to Sequence with attention model, etc. at the time of automatic summarization. It becomes.

前処理部16は、要約作成の対象となる要約対象テキスト3に対して、上記の学習用前処理部11の一部と同様の各種前処理を施して、学習モデル15を適用するために正規化する機能を有する。この前処理の具体的な内容については後述するが、このとき、所定の単語等については、所定の語句や記号等への置換処理が行われ、その結果や内容に係る情報が置換データ17として記録される。 The preprocessing unit 16 performs various preprocessing similar to a part of the above-mentioned learning preprocessing unit 11 on the summarization target text 3 to be summarized, and is normal for applying the learning model 15. Has the function of becoming. The specific contents of this preprocessing will be described later, but at this time, the predetermined words and the like are replaced with predetermined words and symbols, and the information related to the results and contents is used as the replacement data 17. Recorded.

要約作成部18は、前処理部16により正規化された要約対象テキスト3に対して機械学習エンジンにより学習モデル15を適用して要約を作成する機能を有する。このとき、学習用前処理部11により作成された語彙データ13も利用する。機械学習エンジンには、上記と同様に、例えば、Tensorflowを用いる。なお、ここでの要約は、前処理部16により行われた置換結果に係る語句や記号等を含んだ状態で作成される。 The summary creation unit 18 has a function of applying the learning model 15 by the machine learning engine to the summary target text 3 normalized by the preprocessing unit 16 to create a summary. At this time, the vocabulary data 13 created by the learning preprocessing unit 11 is also used. As the machine learning engine, for example, Tensorflow is used in the same manner as described above. The summary here is created in a state including words, symbols, and the like related to the replacement result performed by the preprocessing unit 16.

後処理部19は、前処理部16において記録された置換データ17に基づいて、要約作成部18により作成された要約における置換結果に係る語句や記号等を元の単語等に置換・復元するとともに、必要に応じて文章の外観を成形して、要約テキスト4として出力する機能を有する。なお、後処理部19では、前処理部16による要約対象テキスト3に対する置換結果を元の単語等に置換・復元して要約テキスト4を出力しているが、この要約結果を検証するために、同様の後処理を上述の学習モデル作成部14においても行って、学習用テキスト2に対する学習用前処理部11による置換結果を元の単語等に置換・復元するようにしてもよい。 Based on the replacement data 17 recorded in the preprocessing unit 16, the post-processing unit 19 replaces / restores words, symbols, etc. related to the replacement result in the summary created by the summary creation unit 18 with the original words, etc. , It has a function of shaping the appearance of a sentence as needed and outputting it as a summary text 4. The post-processing unit 19 replaces / restores the replacement result for the summary target text 3 by the pre-processing unit 16 with the original word or the like and outputs the summary text 4. In order to verify the summary result, the post-processing unit 19 outputs the summary text 4. The same post-processing may be performed in the learning model creation unit 14 described above to replace / restore the replacement result of the learning text 2 by the learning pre-processing unit 11 with the original word or the like.

<処理の流れ(学習処理)>
図2は、本実施の形態における事前の学習処理の流れの例について概要を示したフローチャートである。学習処理では、まず、学習用前処理部11により、ニュース記事等の学習用テキスト2を読み込み、全ての記事について形態素解析を行って品詞分解を行う(S01)。形態素解析は、例えば、ChaSen(茶筌)やMeCab(和布蕪)等の一般に入手可能なものも含む各種のプログラムやライブラリを適宜用いて行うことができる。品詞分解により分割した単語や語句の情報の保持方法については特に限定されないが、例えば、学習用テキスト2における対象の単語や語句の区切りの部分に空白を挿入する「分かち書き」により学習用テキスト2に反映させるようにしてもよい。
<Processing flow (learning process)>
FIG. 2 is a flowchart showing an outline of an example of the flow of the prior learning process in the present embodiment. In the learning process, first, the learning preprocessing unit 11 reads the learning text 2 such as a news article, performs morphological analysis on all articles, and performs part-speech decomposition (S01). The morphological analysis can be carried out by appropriately using various programs and libraries including generally available ones such as ChaSen and MeCab. The method of retaining the information of words and phrases divided by part-speech decomposition is not particularly limited, but for example, in the learning text 2, a space is inserted at the delimiter of the target word or phrase in the learning text 2. It may be reflected.

次に、単語等に分割された状態の学習用テキスト2に対して、学習モデル15の精度を向上させるための各種の置換処理等の前処理を行う(S02)。前処理の内容については後述するが、例えば、学習用テキスト2中に含まれる数値の記載を、桁数も考慮して「#」等の記号に置換する。また、図示しない辞書データベース等を用いて同義語の表記を統一するように置換してもよい。また、英文の大文字小文字や全角半角を変換して統一するように置換してもよい。このような表記の統一による正規化により、学習用テキスト2において同内容の単語等を集約し、サンプルとしての精度を向上させることができる。単語等の置換に限らず、各単語等に対して重要度等の情報を示すラベルの付加等を行うようにしてもよい。 Next, the learning text 2 divided into words and the like is subjected to preprocessing such as various replacement processes for improving the accuracy of the learning model 15 (S02). The content of the preprocessing will be described later, but for example, the description of the numerical value included in the learning text 2 is replaced with a symbol such as "#" in consideration of the number of digits. Further, a dictionary database or the like (not shown) may be used to replace the synonyms so as to unify the notation. In addition, uppercase and lowercase letters and full-width and half-width characters may be converted and replaced so as to be unified. By normalization by unifying the notation in this way, words and the like having the same content can be aggregated in the learning text 2, and the accuracy as a sample can be improved. Not limited to the replacement of words or the like, a label indicating information such as importance may be added to each word or the like.

その後、正規化された学習用テキスト2に含まれる各文章について、所定の選別基準に基づいてノイズ等の不適切な文章を除外するデータクレンジング処理を行う(S03)。例えば、学習用テキスト2がニュース記事である場合、要約対象の文章である記事本文に対して、記事のタイトルは正解の要約テキストに相当するが、このタイトルに含まれる名詞が記事本文に含まれていないものばかりである場合は、記事本文に対してタイトルが適切ではないと判断することができる。そこで、例えば、タイトルに含まれる名詞の一定割合(例えば80%)以上が記事本文にも含まれている文章のみを選別して、これを学習用テキスト2として用いるようにしてもよい。データクレンジングにより残った学習用テキスト2については、これを学習データ12として記録する(S04)。 After that, each sentence included in the normalized learning text 2 is subjected to a data cleansing process for excluding inappropriate sentences such as noise based on a predetermined selection criterion (S03). For example, when the learning text 2 is a news article, the title of the article corresponds to the correct summary text for the article body which is the sentence to be summarized, but the noun included in this title is included in the article body. If all of them are not, it can be judged that the title is not appropriate for the article body. Therefore, for example, only sentences in which a certain percentage (for example, 80%) or more of nouns included in the title are included in the article body may be selected and used as the learning text 2. Regarding the learning text 2 remaining by the data cleansing, this is recorded as the learning data 12 (S04).

このとき、学習データ12に基づいて、これに含まれる各単語等に係るメタデータ等の各種情報を保持する語彙データ13を併せて生成する(S05)。機械学習エンジンとしてTensorflowを用い、文章自動要約のアルゴリズムとしてTextsumのプログラムを用いる場合、この語彙データ13は、「vocab」ファイルとして作成する。 At this time, based on the learning data 12, vocabulary data 13 that holds various information such as metadata related to each word or the like included in the learning data 12 is also generated (S05). When Tensorflow is used as the machine learning engine and the Textsum program is used as the algorithm for automatic sentence summarization, this vocabulary data 13 is created as a "vocab" file.

そして、ステップS04、S05で得られた学習データ12および語彙データ13を入力として、学習モデル作成部14により所定の設定条件に基づいて機械学習エンジンによる機械学習を行い、学習モデル15を作成して(S07)、学習処理を終了する。所定の設定条件としては、例えば、学習データ12の各文章のうち、文頭の2〜3文のみを要約の対象とする等の条件を設定することができる。 Then, using the learning data 12 and the vocabulary data 13 obtained in steps S04 and S05 as inputs, the learning model creation unit 14 performs machine learning by the machine learning engine based on predetermined setting conditions to create the learning model 15. (S07), the learning process is terminated. As a predetermined setting condition, for example, it is possible to set a condition such that only a few sentences at the beginning of each sentence of the learning data 12 are to be summarized.

<処理の流れ(要約作成処理)>
図3は、本実施の形態における要約作成処理の流れの例について概要を示したフローチャートである。要約作成処理では、まず、前処理部16により、ニュース記事等の要約対象テキスト3を読み込み、形態素解析を行って品詞分解を行う(S11)。この処理は、図2の学習処理におけるステップS01の処理と同様である。次に、単語等に分割された状態の要約対象テキスト3に対して、図2の学習処理におけるステップS02の処理と同様の前処理を行う(S12)。このとき、要約対象テキスト3に含まれる単語等に対して置換を行った場合、置換された単語等の内容や、文章内での出現順序、位置、桁数、単位等の情報を置換データ17として記録しておく。
<Process flow (summary creation process)>
FIG. 3 is a flowchart showing an outline of an example of the flow of the summary creation process in the present embodiment. In the summary creation process, first, the preprocessing unit 16 reads the summary target text 3 such as a news article, performs morphological analysis, and performs part-speech decomposition (S11). This process is the same as the process of step S01 in the learning process of FIG. Next, the summary target text 3 divided into words and the like is subjected to the same preprocessing as the process of step S02 in the learning process of FIG. 2 (S12). At this time, when the word or the like included in the summary target text 3 is replaced, the content of the replaced word or the like and information such as the appearance order, position, number of digits, and unit in the sentence are replaced with the replacement data 17. Record as.

その後、前処理による正規化が行われた要約対象テキスト3を入力として、要約作成部18により、図2の学習処理により作成された学習モデル15を適用して、機械学習エンジンにより要約を作成する(S13)。このとき、上述の図2のステップS05において生成された語彙データ13も利用する。学習処理と同様に、機械学習エンジンとしてTensorflowを用いることができる。その後、作成された要約の中における置換やラベルの付加等の正規化の内容を、後処理部19により、置換データ17を参照して元の単語等に置換・復元し、必要に応じて文章の外観を成形する後処理を行って、要約テキスト4として出力し(S14)、要約作成処理を終了する。 After that, the summarization target text 3 normalized by the preprocessing is input, and the summarization creation unit 18 applies the learning model 15 created by the learning process of FIG. 2 to create a summarization by the machine learning engine. (S13). At this time, the vocabulary data 13 generated in step S05 of FIG. 2 described above is also used. As with the learning process, Tensorflow can be used as the machine learning engine. After that, the content of normalization such as replacement and label addition in the created summary is replaced / restored with the original word or the like by referring to the replacement data 17 by the post-processing unit 19, and a sentence is required. The post-processing for shaping the appearance of the above is performed, the output is output as the summary text 4 (S14), and the summary creation process is completed.

<前処理/後処理の例>
図4は、本実施の形態における前処理および後処理の例について概要を示した図である。ここでは、学習用テキスト2や要約対象テキスト3に各種の数値が含まれている場合の例について示している。ニュース記事等の文章には、値も桁も異なる多くの種類の数値が含まれている場合があるが、これらの語句を全て異なる語句として取り扱うと、学習用テキスト2においてサンプルが発散して膨大な数となり、語彙データ13の件数も増えるため、学習モデル15の精度が低下するとともに学習処理の負荷も増大してしまう。
<Example of pre-processing / post-processing>
FIG. 4 is a diagram showing an outline of an example of pretreatment and posttreatment in the present embodiment. Here, an example in which various numerical values are included in the learning text 2 and the summary target text 3 is shown. Texts such as news articles may contain many types of numerical values with different values and digits, but if all of these terms are treated as different terms, samples will diverge in the learning text 2 and become enormous. Since the number of vocabulary data 13 increases, the accuracy of the learning model 15 decreases and the load of the learning process also increases.

そこで、本実施の形態では、学習時および要約作成時の前処理(図2のステップS02、図3のステップS12)において数値を「#」等の記号に置換する。例えば、図4の最上段の文章(分かち書きされた学習用テキスト2および要約対象テキスト3)には、「12月」と「0.3%」という数値を含む語句が含まれている。この数値部分をそれぞれ、図4の上から2段目の文章のように、「##月」と「#.#%」のように「#」により置換する。 Therefore, in the present embodiment, the numerical value is replaced with a symbol such as "#" in the preprocessing (step S02 in FIG. 2 and step S12 in FIG. 3) at the time of learning and at the time of summarizing. For example, the uppermost sentence of FIG. 4 (divided learning text 2 and summary target text 3) contains words and phrases including the numerical values of "December" and "0.3%". Replace each of these numerical parts with "#" such as "## month" and "#. #%" As in the second sentence from the top of FIG.

学習モデル作成(図2のステップS07)、および要約作成(図3のステップS13)の処理では、それぞれ、「#」により置換された状態の文章に対して処理を行い、学習モデル15の作成、および要約の作成を行う。このとき、要約の文章には、図4の上から3段目の文章のように、「##月」および「#.#%」の語句が残存することになる。 In the processes of creating the learning model (step S07 in FIG. 2) and creating the summary (step S13 in FIG. 3), each of the sentences in the state replaced by "#" is processed to create the learning model 15. And create a summary. At this time, the words "## month" and "#. #%" Remain in the abstract sentence, as in the sentence in the third row from the top of FIG.

本実施の形態では、これらの語句を要約作成時の後処理(図3のステップS14)において元の単語等に戻す。そのために、要約作成時の前処理(図3のステップS12)において数値を「#」等の記号に置換した際に、置換した数値や文章内の出現位置、桁数、単位等の復元のための情報を置換データ17に記録しておき、これを後処理時に参照する。これにより図4の最下段の文章のように元の数値を含む要約テキスト4を作成することができる。 In the present embodiment, these words and phrases are returned to the original words and the like in the post-processing at the time of summarization (step S14 in FIG. 3). Therefore, when a numerical value is replaced with a symbol such as "#" in the preprocessing at the time of summarization (step S12 in FIG. 3), the replaced numerical value and the appearance position, the number of digits, the unit, etc. in the sentence are restored. Information is recorded in the replacement data 17, and this is referred to at the time of post-processing. As a result, it is possible to create a summary text 4 including the original numerical values as in the lowermost sentence of FIG.

図5は、本実施の形態における前処理および後処理の他の例について概要を示した図である。ここでは、学習用テキスト2や要約対象テキスト3に含まれる単語等に対して重要度の情報をラベルとして付加する場合の例について示している。ニュース記事等に含まれる各単語等は、それぞれ、要約作成という観点での重要度が異なる。そこで、本実施の形態では、要約作成において各単語等の重要度を考慮することができるよう、学習時および要約作成時の前処理(図2のステップS02、図3のステップS12)において重要度の情報を示すラベルを各単語等に付加して一体の単語等とし、これを対象に機械学習の処理を行うものとする。 FIG. 5 is a diagram showing an outline of other examples of pretreatment and posttreatment in the present embodiment. Here, an example in which importance information is added as a label to words and the like included in the learning text 2 and the summary target text 3 is shown. Each word, etc. contained in a news article, etc. has a different importance from the viewpoint of creating a summary. Therefore, in the present embodiment, the importance is taken in the pre-processing (step S02 of FIG. 2 and step S12 of FIG. 3) at the time of learning and at the time of summarization so that the importance of each word or the like can be considered in the summarization. A label indicating the above information is added to each word or the like to form an integrated word or the like, and machine learning processing is performed on this as a target.

例えば、図5の最上段の文章(上述の数値置換が行われた結果の学習用テキスト2および要約対象テキスト3)に対して、図5の上から2段目の文章のように、重要度を示すラベルとして「_X」(X=0〜2)の記号を各単語等の末尾にそれぞれ付加して変換する。図5の例では、例えば、「欧州中央銀行」という単語に重要度X=0の「_0」のラベルが付加されて「欧州中央銀行_0」という語句に変換されている。同様に、例えば、「ユーロ」という単語に重要度X=2の「_2」のラベルが付加されて「ユーロ_2」に変換されている。なお、図5の例では、重要度を示すXを、0(重要ではない)<1(通常)<2(重要)のように3種類に区分して設定しているが、これに限られず、他の値や区分方法であってもよい。 For example, the importance of the uppermost sentence in FIG. 5 (the learning text 2 and the summary target text 3 as a result of the numerical replacement described above) is as shown in the second sentence from the top in FIG. A symbol of "_X" (X = 0 to 2) is added to the end of each word or the like as a label indicating. In the example of FIG. 5, for example, the word "European Central Bank" is labeled with "_0" of importance X = 0 and converted into the phrase "European Central Bank_0". Similarly, for example, the word "euro" is labeled with "_2" of importance X = 2 and converted to "euro_2". In the example of FIG. 5, X indicating the importance is divided into three types such as 0 (not important) <1 (normal) <2 (important), but the present invention is not limited to this. , Other values and classification methods may be used.

各単語等の重要度は、文章中の単語の重要度を示す指標として一般的に用いられているTF−IDF(Term Frequency - Inverse Document Frequency)値を算出して用いることができる。例えば、算出したTF−IDF値を所定の範囲毎に区分して、上記の0〜2の重要度を設定する。 The importance of each word or the like can be used by calculating a TF-IDF (Term Frequency --Inverse Document Frequency) value that is generally used as an index indicating the importance of a word in a sentence. For example, the calculated TF-IDF value is divided into predetermined ranges, and the importance of 0 to 2 is set.

学習モデル作成(図2のステップS07)、および要約作成(図3のステップS13)の処理では、それぞれ、単語等の重要度を示すラベルが付加された状態の文章に対して処理を行う、すなわち、各単語等の重要度を考慮した形で学習モデル15の作成、および要約の作成を行う。このとき、要約の文章には、図5の上から3段目の文章のように、「_0」や「_2」等のラベルが付された語句が残存することになる。 In the processes of learning model creation (step S07 in FIG. 2) and summary creation (step S13 in FIG. 3), each process is performed on a sentence in a state in which a label indicating the importance of a word or the like is attached, that is. , The learning model 15 is created and the summary is created in consideration of the importance of each word and the like. At this time, words and phrases with labels such as "_0" and "_2" remain in the summary sentence, as in the sentence in the third row from the top of FIG.

本実施の形態では、これらの語句を要約作成時の後処理(図3のステップS14)において元の単語等に戻す。すなわち、文章中の各単語等から、「_0」や「_2」等の重要度を示すラベル部分を全て削除する。これにより図5の最下段の文章のように元の単語等による要約テキスト4を作成することができる。 In the present embodiment, these words and phrases are returned to the original words and the like in the post-processing at the time of summarization (step S14 in FIG. 3). That is, all the label portions indicating the importance such as "_0" and "_2" are deleted from each word or the like in the sentence. As a result, it is possible to create a summary text 4 using the original word or the like as in the sentence at the bottom of FIG.

図6は、本実施の形態における前処理および後処理の他の例について概要を示した図である。ここでは、学習用テキスト2や要約対象テキスト3に各種の固有名詞を含む名詞が含まれている場合の例について示している。ニュース記事等の文章には、異なる単語であるが同一の品詞であるものが複数存在する場合がある。例えば、「野村さんは、アメリカよりフランスに住みたい。」という文章には、「野村」、「アメリカ」、「フランス」という固有名詞が含まれている。ここで、「野村」は人名であるが、「アメリカ」と「フランス」はともに国名である。これらの語句を全て異なる語句として取り扱うと、文章中に数値を含む場合と同様に、学習用テキスト2においてサンプルが発散して膨大な数となり、学習モデル15の精度が低下するとともに学習処理の負荷も増大してしまう。 FIG. 6 is a diagram showing an outline of other examples of pretreatment and posttreatment in the present embodiment. Here, an example is shown in the case where the learning text 2 and the summary target text 3 include nouns including various proper nouns. In sentences such as news articles, there may be a plurality of different words but the same part of speech. For example, the sentence "Mr. Nomura wants to live in France rather than the United States" contains the proper nouns "Nomura," "America," and "France." Here, "Nomura" is a person's name, but "America" and "France" are both country names. If all of these words and phrases are treated as different words and phrases, the number of samples diverges in the learning text 2 and becomes enormous, as in the case where a numerical value is included in the sentence, the accuracy of the learning model 15 is lowered, and the load of the learning process is reduced. Will also increase.

そこで、本実施の形態では、学習時および要約作成時の前処理(図2のステップS02、図3のステップS12)において、名詞(特に固有名詞)を品詞情報を示す語句に置換する。すなわち、上記の例では、例えば、「野村」を「_固有名詞人名姓*1」、「アメリカ」を「_固有名詞地域国*1」、「フランス」を「_固有名詞地域国*2」のようにそれぞれ置換する。これにより、例えば、「アメリカ」と「フランス」は異なる単語ではあるが、品詞としては同一のもの(「固有名詞地域国」)として取り扱うことができる。 Therefore, in the present embodiment, nouns (particularly proper nouns) are replaced with words and phrases indicating part-speech information in the preprocessing during learning and summarization (step S02 in FIG. 2 and step S12 in FIG. 3). That is, in the above example, for example, "Nomura" is "_proprietary noun person's first and last name * 1", "America" is "_proprietary noun region country * 1", and "France" is "_proprietary noun region country * 2". Replace each as follows. Thus, for example, "America" and "France" are different words, but they can be treated as the same part of speech ("proper noun region country").

なお、本実施の形態では、「アメリカ」や「フランス」等の「国」が異なる場合でも、「国」レベルの同じ固有名詞として取り扱うものとしているが、これに限られず、同じ取り扱いをする単位・レベルは適宜設定することができる。例えば、「地域」レベルや「都市」レベル等で同じ固有名詞として取り扱うようにしてもよいが、細分化が過剰となると要約の精度が低下するため、細分化は適当なレベルに止めるのが望ましい。 In this embodiment, even if the "country" such as "America" or "France" is different, it is treated as the same proper noun at the "country" level, but the unit is not limited to this and is treated in the same way. -The level can be set as appropriate. For example, it may be treated as the same proper noun at the "region" level, "city" level, etc., but it is desirable to stop the subdivision at an appropriate level because the accuracy of summarization will decrease if the subdivision is excessive. ..

図6の例では、例えば、最上段の文章(上述の数値置換が行われた結果の学習用テキスト2および要約対象テキスト3)には、「財務省」や「貿易統計」、「貿易黒字」等の固有名詞の語句が含まれている。この固有名詞部分をそれぞれ、図6の上から2段目の文章のように、「_固有名詞組織*1」や「_固有名詞一般*1」、「_固有名詞一般*2」等の品詞情報を示す語句に置換する。ここでは、「固有名詞組織」や「固有名詞一般」等の品詞情報に加えて、「*1」や「*2」等の出現順序・位置の情報についても含んでいる。 In the example of FIG. 6, for example, the uppermost sentences (learning text 2 and summary target text 3 as a result of the above numerical substitution) include "Ministry of Finance", "Trade Statistics", and "Trade Surplus". Contains words and phrases of proper nouns such as. Each of these proper noun parts is part of speech such as "_proprietary noun organization * 1", "_proprietary noun general * 1", and "_proper noun general * 2" as shown in the second sentence from the top of FIG. Replace with a phrase that indicates information. Here, in addition to part-speech information such as "proper noun organization" and "general nouns", information on the order and position of appearance such as "* 1" and "* 2" is also included.

学習モデル作成(図2のステップS07)、および要約作成(図3のステップS13)の処理では、それぞれ、品詞情報を示す語句により置換された状態の文章に対して処理を行い、学習モデル15の作成、および要約の作成を行う。このとき、要約の文章には、図6の上から3段目の文章のように、「_固有名詞組織*1」や「_固有名詞一般*1」等の語句が残存することになる。 In the processes of creating the learning model (step S07 in FIG. 2) and creating the summary (step S13 in FIG. 3), the sentences in the state of being replaced by the words indicating the part-of-speech information are processed, respectively, and the learning model 15 Create and create a summary. At this time, words such as "_proprietary noun organization * 1" and "_proprietary noun general * 1" remain in the summary sentence, as in the sentence in the third row from the top of FIG.

本実施の形態では、これらの語句を要約作成時の後処理(図3のステップS14)において元の単語等に戻す。そのために、要約作成時の前処理(図3のステップS12)において固有名詞等を「_固有名詞組織*1」等の記号に置換した際に、置換した固有名詞の内容や文章内の出現位置等の復元のための情報を置換データ17に記録しておき、これを後処理時に参照する。これにより図6の最下段の文章のように元の固有名詞等を含む要約テキスト4を作成することができる。 In the present embodiment, these words and phrases are returned to the original words and the like in the post-processing at the time of summarization (step S14 in FIG. 3). Therefore, when the proper noun or the like is replaced with a symbol such as "_proprietary noun organization * 1" in the preprocessing at the time of summarization (step S12 in FIG. 3), the content of the replaced proper noun and the appearance position in the sentence. Information for restoration such as is recorded in the replacement data 17, and this is referred to at the time of post-processing. As a result, it is possible to create a summary text 4 including the original proper noun and the like as in the sentence at the bottom of FIG.

以上に説明したように、本発明の一実施の形態であるテキスト要約システム1によれば、機械学習を行う前の学習用テキスト2や要約対象テキスト3に対して、前処理の際に、数値を所定の記号に置換したり、各単語等に重要度を示すラベルを付加したり、固有名詞等を所定の語句に置換したり等の所定の加工を行い、加工された文章に対して学習モデル15の作成や要約の作成の処理を行う。そして、作成された要約に含まれる加工内容(置換・付加された記号や語句)を元の単語等に戻すことで、最終的な要約テキスト4を得る。これにより、学習データ12のサンプルとしての発散を回避し、単語の重要度を加味して学習モデル15を生成することで要約作成における精度を向上させることができる。 As described above, according to the text summarization system 1 according to the embodiment of the present invention, the learning text 2 and the text to be summarized 3 before the machine learning is subjected to numerical values at the time of preprocessing. Is replaced with a predetermined symbol, a label indicating the importance is added to each word, etc., a proper noun, etc. is replaced with a predetermined phrase, etc., and the processed sentences are learned. Processes the creation of model 15 and the creation of summaries. Then, the final summary text 4 is obtained by returning the processed contents (replaced / added symbols and phrases) included in the created summary to the original words and the like. As a result, it is possible to avoid the divergence of the learning data 12 as a sample and to generate the learning model 15 in consideration of the importance of the words, thereby improving the accuracy in creating the summary.

本発明者らは、学習用テキスト2や要約対象テキスト3としてニュース記事を対象とし、要約テキスト4を実際に作成した上で、新聞記事等の自動要約に対する評価指標として広く用いられているRouge(Recall-Oriented Understudy for Gisting Evaluation)−1の値を算出して比較を行った。これによると、前処理において上記のような正規化を行わない場合のRouge−1の平均値が0.3〜0.4程度であるのに対し、上記のような正規化を個別に、もしくは1つ以上組み合わせて適用することで、Rouge−1の平均値を最大で0.6〜0.7程度に向上させることが可能であるという結果が得られた。 The present inventors target news articles as learning texts 2 and abstract texts 3, and after actually creating abstract texts 4, Rouge (Rouge), which is widely used as an evaluation index for automatic summarization of newspaper articles and the like. Recall-Oriented Understudy for Gisting Evaluation) -1 was calculated and compared. According to this, while the average value of Rogue-1 when the above-mentioned normalization is not performed in the pretreatment is about 0.3 to 0.4, the above-mentioned normalization is performed individually or. It was found that the average value of Rouge-1 can be improved to about 0.6 to 0.7 at the maximum by applying one or more in combination.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Although the invention made by the present inventor has been specifically described above based on the embodiments, the present invention is not limited to the above embodiments and can be variously modified without departing from the gist thereof. Needless to say. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add / delete / replace a part of the configuration of the above-described embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、またはICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。 Further, in each of the above figures, the control lines and information lines are shown as necessary for explanation, and not all the control lines and information lines in the implementation are necessarily shown. In practice, it can be considered that almost all configurations are interconnected.

本発明は、機械学習により生成された学習モデルに基づいて要約を作成するテキスト要約システムに利用可能である。 The present invention can be used in a text summarization system that creates summaries based on a learning model generated by machine learning.

1…テキスト要約システム、2…学習用テキスト、3…要約対象テキスト、4…要約テキスト、
11…学習用前処理部、12…学習データ、13…語彙データ、14…学習モデル作成部、15…学習モデル、16…前処理部、17…置換データ、18…要約作成部、19…後処理部
1 ... text summarization system, 2 ... learning text, 3 ... summarization target text, 4 ... summarization text,
11 ... Learning preprocessing unit, 12 ... Learning data, 13 ... Vocabulary data, 14 ... Learning model creation unit, 15 ... Learning model, 16 ... Preprocessing unit, 17 ... Replacement data, 18 ... Summary creation unit, 19 ... After Processing unit

Claims (6)

テキスト文章から要約を作成するテキスト要約システムであって、
原文とその要約を含む複数の学習用テキストに対して、所定の前処理を行って学習データを作成する学習用前処理部と、
前記学習データに基づいて機械学習により要約に係る学習モデルを作成する学習モデル作成部と、
要約対象テキストに対して所定の前処理を行う前処理部と、
前記前処理部により前処理がなされた前記要約対象テキストに対して、前記学習モデルに基づいて要約テキストを作成する要約作成部と、
前記要約テキストに対して所定の後処理を行って出力する後処理部と、を有し、
前記学習用前処理部および前記前処理部における前記所定の前処理では、前記学習用テキストおよび前記要約対象テキストに含まれる語句に所定の加工を行い、
前記後処理部における前記所定の後処理では、前記要約テキストに対して前記前処理部により行われた前記所定の加工の内容を復元し、
前記所定の加工は、前記学習用テキストおよび前記要約対象テキストに含まれる各語句に対して、それぞれ、当該語句の出現頻度または希少度を表す重要度を示す情報を付加するものであり、
前記後処理部では、前記要約テキストにおける前記重要度を示す情報を削除する、テキスト要約システム。
A text summarization system that creates summaries from text sentences.
A learning pre-processing unit that creates learning data by performing predetermined pre-processing on a plurality of learning texts including the original text and its summary.
A learning model creation unit that creates a learning model related to summarization by machine learning based on the learning data,
A pre-processing unit that performs predetermined pre-processing on the text to be summarized,
A summary creation unit that creates a summary text based on the learning model for the summary target text that has been preprocessed by the preprocessing unit.
It has a post-processing unit that performs predetermined post-processing on the summary text and outputs it.
In the pre-processing unit for learning and the predetermined pre-processing in the pre-processing unit, the words and phrases included in the learning text and the summary target text are subjected to predetermined processing.
In the predetermined post-processing in the post-processing unit, the content of the predetermined processing performed by the pre-processing unit is restored with respect to the summary text.
The predetermined processing adds information indicating the importance indicating the frequency or rarity of the phrase to each of the words and phrases contained in the learning text and the summary target text, respectively.
A text summarization system in which the post-processing unit deletes information indicating the importance in the summarization text.
請求項1に記載のテキスト要約システムにおいて、In the text summarization system according to claim 1.
前記重要度は、TF−IDF値に基づく値である、テキスト要約システム。The importance is a value based on the TF-IDF value, a text summarization system.
請求項2に記載のテキスト要約システムにおいて、In the text summarization system according to claim 2.
前記重要度は、TF−IDF値を所定の範囲毎に区分して得られる値である、テキスト要約システム。The importance is a value obtained by dividing the TF-IDF value into predetermined ranges, and is a text summarization system.
請求項1に記載のテキスト要約システムにおいて、
前記所定の加工は、前記学習用テキストおよび前記要約対象テキストに含まれる数値を所定の記号に置換するものであり、
前記前処理部では、前記置換の際に、前記置換の内容に係る情報を置換データとして記録し、
前記後処理部では、前記置換データの内容に基づいて、前記要約テキストにおける前記所定の記号を対応する前記数値に置換する、テキスト要約システム。
In the text summarization system according to claim 1.
The predetermined processing replaces the numerical values included in the learning text and the summary target text with predetermined symbols.
At the time of the replacement, the pretreatment unit records information related to the content of the replacement as replacement data.
The post-processing unit is a text summarization system that replaces the predetermined symbol in the summarization text with the corresponding numerical value based on the content of the replacement data.
請求項1に記載のテキスト要約システムにおいて、
前記所定の加工は、前記学習用テキストおよび前記要約対象テキストに含まれる所定の品詞の語句を所定の文字列に置換するものであり、
前記前処理部では、前記置換の際に、前記置換の内容に係る情報を置換データとして記録し、
前記後処理部では、前記置換データの内容に基づいて、前記要約テキストにおける前記所定の文字列を対応する前記所定の品詞の語句に置換する、テキスト要約システム。
In the text summarization system according to claim 1.
The predetermined processing replaces a phrase of a predetermined part of speech included in the learning text and the summary target text with a predetermined character string.
At the time of the replacement, the pretreatment unit records information related to the content of the replacement as replacement data.
The post-processing unit is a text summarization system that replaces the predetermined character string in the summary text with a corresponding phrase of the predetermined part of speech based on the content of the replacement data.
請求項1に記載のテキスト要約システムにおいて、
前記学習用前処理部は、前記学習用テキストにおける要約に含まれる語句のうち、所定の割合以上の語句が、前記学習用テキストにおける原文に含まれているもののみを前記学習データを作成する対象とする、テキスト要約システム。
In the text summarization system according to claim 1.
The learning preprocessing unit is a target for creating the learning data only for words and phrases contained in the summary in the learning text and in which a predetermined ratio or more of the words and phrases are included in the original text in the learning text. Text summarization system.
JP2017133421A 2017-07-07 2017-07-07 Text summarization system Active JP6902945B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017133421A JP6902945B2 (en) 2017-07-07 2017-07-07 Text summarization system
JP2021103281A JP7100747B2 (en) 2017-07-07 2021-06-22 Training data generation method and equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133421A JP6902945B2 (en) 2017-07-07 2017-07-07 Text summarization system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021103281A Division JP7100747B2 (en) 2017-07-07 2021-06-22 Training data generation method and equipment

Publications (2)

Publication Number Publication Date
JP2019016181A JP2019016181A (en) 2019-01-31
JP6902945B2 true JP6902945B2 (en) 2021-07-14

Family

ID=65358580

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017133421A Active JP6902945B2 (en) 2017-07-07 2017-07-07 Text summarization system
JP2021103281A Active JP7100747B2 (en) 2017-07-07 2021-06-22 Training data generation method and equipment

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021103281A Active JP7100747B2 (en) 2017-07-07 2021-06-22 Training data generation method and equipment

Country Status (1)

Country Link
JP (2) JP6902945B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6910061B2 (en) * 2017-09-01 2021-07-28 国立研究開発法人産業技術総合研究所 Text generator, text generator and text generator
JP6722913B1 (en) * 2019-05-03 2020-07-15 株式会社医療情報技術研究所 Slow reading learning system
CN110334334A (en) * 2019-06-19 2019-10-15 腾讯科技(深圳)有限公司 A kind of abstraction generating method, device and computer equipment
JP7276165B2 (en) * 2020-01-08 2023-05-18 トヨタ自動車株式会社 Agent device, agent system, and agent program
JP2021114167A (en) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 Document management/viewing system and annotation text display method thereof
JP2021114166A (en) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 Document management/viewing system and annotation text generation and display method thereof
CN111460135B (en) * 2020-03-31 2023-11-07 北京百度网讯科技有限公司 Method and device for generating text abstract
CN112784585A (en) * 2021-02-07 2021-05-11 新华智云科技有限公司 Abstract extraction method and terminal for financial bulletin
KR102436549B1 (en) * 2022-07-20 2022-08-25 (주) 유비커스 Method and apparatus for automatically generating training dataset for faq and chatbot based on natural language processing using deep learning
KR102520167B1 (en) * 2022-11-14 2023-04-14 (주)액션파워 Method for generating training data for diaglogue summaries utilizing non-dialogue text information

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3899414B2 (en) * 2004-03-31 2007-03-28 独立行政法人情報通信研究機構 Teacher data creation device and program, and language analysis processing device and program
US7401077B2 (en) * 2004-12-21 2008-07-15 Palo Alto Research Center Incorporated Systems and methods for using and constructing user-interest sensitive indicators of search results
JP4934819B2 (en) * 2007-03-30 2012-05-23 国立大学法人九州工業大学 Information extraction apparatus, method and program thereof
JP2010237871A (en) * 2009-03-30 2010-10-21 Nomura Research Institute Ltd Chronological table automatic creation system, method, and program thereof
JP5388038B2 (en) * 2009-12-28 2014-01-15 独立行政法人情報通信研究機構 Document summarization apparatus, document processing apparatus, and program
JP2013167985A (en) * 2012-02-15 2013-08-29 Nomura Research Institute Ltd Conversation summary generation system and conversation summary generation program
US9317498B2 (en) * 2014-05-23 2016-04-19 Codeq Llc Systems and methods for generating summaries of documents

Also Published As

Publication number Publication date
JP7100747B2 (en) 2022-07-13
JP2019016181A (en) 2019-01-31
JP2021180003A (en) 2021-11-18

Similar Documents

Publication Publication Date Title
JP7100747B2 (en) Training data generation method and equipment
US11334608B2 (en) Method and system for key phrase extraction and generation from text
US9495358B2 (en) Cross-language text clustering
Oufaida et al. Minimum redundancy and maximum relevance for single and multi-document Arabic text summarization
US9588958B2 (en) Cross-language text classification
US10936796B2 (en) Enhanced text summarizer
JP7139728B2 (en) Classification method, device and program
JPWO2007097208A1 (en) Language processing apparatus, language processing method, and language processing program
EP1503295A1 (en) Text generation method and text generation device
Pirovani et al. Studying the adaptation of Portuguese NER for different textual genres
Polus et al. Development for performance of Porter Stemmer algorithm
US11650996B1 (en) Determining query intent and complexity using machine learning
JP5447368B2 (en) NEW CASE GENERATION DEVICE, NEW CASE GENERATION METHOD, AND NEW CASE GENERATION PROGRAM
US11221856B2 (en) Joint bootstrapping machine for text analysis
KR102519955B1 (en) Apparatus and method for extracting of topic keyword
JP7131130B2 (en) Classification method, device and program
JP2006004366A (en) Machine translation system and computer program for it
JP5500636B2 (en) Phrase table generator and computer program therefor
Jayashree et al. A Jaccards Similarity Score Based Methodology for Kannada Text Document Summarization
Murauer et al. Generating cross-domain text classification corpora from social media comments
Alian et al. Unsupervised learning blocking keys technique for indexing Arabic entity resolution
JP2006190072A (en) Automatic paraphrasing apparatus, automatic paraphrasing method and paraphrasing process program
US11783112B1 (en) Framework agnostic summarization of multi-channel communication
Colton Text classification using Python
Pradheeba et al. Effective Cataloging over Diverse Algorithms for Automatic Text Summarization and Its Survey

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210622

R150 Certificate of patent or registration of utility model

Ref document number: 6902945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150