JP2019016181A - テキスト要約システム - Google Patents

テキスト要約システム Download PDF

Info

Publication number
JP2019016181A
JP2019016181A JP2017133421A JP2017133421A JP2019016181A JP 2019016181 A JP2019016181 A JP 2019016181A JP 2017133421 A JP2017133421 A JP 2017133421A JP 2017133421 A JP2017133421 A JP 2017133421A JP 2019016181 A JP2019016181 A JP 2019016181A
Authority
JP
Japan
Prior art keywords
text
learning
processing
predetermined
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017133421A
Other languages
English (en)
Other versions
JP6902945B2 (ja
Inventor
真由美 北原
Mayumi Kitahara
真由美 北原
康智 外園
Yasutomo Sotozono
康智 外園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2017133421A priority Critical patent/JP6902945B2/ja
Publication of JP2019016181A publication Critical patent/JP2019016181A/ja
Priority to JP2021103281A priority patent/JP7100747B2/ja
Application granted granted Critical
Publication of JP6902945B2 publication Critical patent/JP6902945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】テキスト文章の自動要約の精度をより向上させる。【解決手段】要約対象テキスト3から要約テキスト4を作成するテキスト要約システム1であって、複数の学習用テキスト2に対して、所定の前処理を行って学習データ12を作成する学習用前処理部11と、学習データ12に基づいて機械学習により要約に係る学習モデル15を作成する学習モデル作成部14と、要約対象テキスト3に対して所定の前処理を行う前処理部16と、前処理がなされた要約対象テキスト3に対して、学習モデル15に基づいて要約テキスト4を作成する要約作成部18と、要約テキスト4に対して所定の後処理を行って出力する後処理部19とを有し、前処理では学習用テキスト2および要約対象テキスト3に含まれる語句に所定の加工を行い、後処理では要約テキスト4に対して前処理部16により行われた加工の内容を復元する。【選択図】図1

Description

本発明は、テキスト文章の要約技術に関し、特に、機械学習により生成された学習モデルに基づいて要約を作成するテキスト要約システムに適用するものである。
機械学習を用いてテキスト文章の要約を自動的に生成する技術が検討されている。要約を生成する手法には、大別して、抽出型と生成型とがある。抽出型では、例えば、要約の対象となる文章に含まれる重要度の高い単語や文等を抽出し、これらを組み合わせることで要約を作成する。一方、生成型では、例えば、文章を所定の中間表現に変換し、これに基づいて自然言語生成の技術を用いて要約を作成する。現在では、一般的には抽出型の手法が広く研究されており、精度を向上させるための各種の手法が提案されている。
例えば、特開2016−186772号公報(特許文献1)には、要約(短縮文)を作成する対象の文章に含まれる構成要素間を文法的または概念的関係に基づいて連結したツリー構造で表現するとともに、構成要素間のそれぞれの連結に、短縮文に残存する度合いとして得られた結合度を付加し、結合度に基づいて短縮文に含める構成要素を抽出して短縮文を作成することで、自然な短縮文を生成する旨が記載されている。
抽出型の手法では、要約に含まれる単語や文は、原則として原文に含まれる単語や文に制約される。したがって、文章を短縮した場合に不自然な表現や文法的に適切でない要約となってしまう場合がある。これに対し、生成型の手法については、自然な表現を用いることが可能であるが、精度の高い自然言語生成の技術が必要となる等の課題を有している。しかし近年では、例えば、非特許文献1に記載されているような研究もなされており、プログラムやライブラリ等も一般に利用可能となっている。
特開2016−186772号公報
"Research Blog: Text summarization with TensorFlow(登録商標)"、[online]、2016年8月24日、Google(登録商標、以下同様)、[平成29年6月27日検索]、インターネット<URL:https://research.googleblog.com/2016/08/text-summarization-with-tensorflow.html>
抽出型・生成型に関わらず、従来技術のテキスト文章の自動要約技術では、機械学習により生成された学習モデルを用いることで、ある程度の精度の要約を自動的に生成することができる。しかし、精度として十分ではない場合も多く、例えば、原文に含まれる単語等のうち、要約にも現れてほしい重要なものがあるにも関わらず、要約に現れてこないという場合がある等、精度についての改善の余地は多く存在する。
そこで本発明の目的は、テキスト文章の自動要約の精度をより向上させることを可能とするテキスト要約システムを提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。
本発明の代表的な実施の形態によるテキスト要約システムは、テキスト文章から要約を作成するテキスト要約システムであって、原文とその要約を含む複数の学習用テキストに対して、所定の前処理を行って学習データを作成する学習用前処理部と、前記学習データに基づいて機械学習により要約に係る学習モデルを作成する学習モデル作成部と、要約対象テキストに対して所定の前処理を行う前処理部と、前記前処理部により前処理がなされた前記要約対象テキストに対して、前記学習モデルに基づいて要約テキストを作成する要約作成部と、前記要約テキストに対して所定の後処理を行って出力する後処理部と、を有する。
そして、前記学習用前処理部および前記前処理部における前記所定の前処理では、前記学習用テキストおよび前記要約対象テキストに含まれる語句に所定の加工を行い、前記後処理部における前記所定の後処理では、前記要約テキストに対して前記前処理部により行われた前記所定の加工の内容を復元する。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
すなわち、本発明の代表的な実施の形態によれば、テキスト文章の自動要約の精度をより向上させることが可能となる。
本発明の一実施の形態であるテキスト要約システムの構成例について概要を示した図である。 本発明の一実施の形態における事前の学習処理の流れの例について概要を示したフローチャートである。 本発明の一実施の形態における要約作成処理の流れの例について概要を示したフローチャートである。 本発明の一実施の形態における前処理および後処理の例について概要を示した図である。 本発明の一実施の形態における前処理および後処理の他の例について概要を示した図である。 本発明の一実施の形態における前処理および後処理の他の例について概要を示した図である。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。一方で、ある図において符号を付して説明した部位について、他の図の説明の際に再度の図示はしないが同一の符号を付して言及する場合がある。
<システム構成>
図1は、本発明の一実施の形態であるテキスト要約システムの構成例について概要を示した図である。本実施の形態のテキスト要約システム1は、機械学習により生成した学習モデルに基づいてニュース記事等のテキスト文章の要約を自動的に生成して出力する機能を有するサーバシステムである。
テキスト要約システム1は、例えば、例えば、サーバ機器やクラウドコンピューティングサービス上に構築された仮想サーバ等により構成される。そして、図示しないCPU(Central Processing Unit)により、HDD(Hard Disk Drive)等の記録装置からメモリ上に展開したOS(Operating System)やDBMS(DataBase Management System)、Webサーバプログラム等のミドルウェアや、その上で稼働するソフトウェアを実行することで、自動要約に係る後述する各種機能を実現する。
テキスト要約システム1は、例えば、ソフトウェアとして実装された学習用前処理部11、学習モデル作成部14、前処理部16、要約作成部18、および後処理部19等の各部を有する。また、データベースやファイル等として実装された学習データ12、語彙データ13、学習モデル15、および置換データ17等の各データを有する。学習用前処理部11、および学習モデル作成部14は、機械学習における教師データとなる学習用テキスト2に基づいて、機械学習により事前に学習モデル15を生成する機能を有する。また、前処理部16、要約作成部18、および後処理部19は、要約作成の対象となる要約対象テキスト3について、学習モデル15に基づいて要約テキスト4を生成して出力する機能を有する。
なお、教師データとなる学習用テキスト2には、要約対象の原文と、正解である要約結果とが含まれている。このような文章としては、例えば、ニュース記事がある。この場合、要約対象となるニュース原文に対して、当該ニュースのタイトルや見出し等を正解である要約結果として用いることができる。本実施の形態では、学習用テキスト2や要約対象テキスト3としてニュース記事を対象に説明するが、これに限られるものではなく、各種の文章に適用することができる。
学習用前処理部11は、入力となる学習用テキスト2に対して、各種の前処理を施して、機械学習エンジンに入力するために正規化された学習データ12(および語彙データ13)を準備する機能を有する。前処理の具体的な内容については後述する。学習モデル作成部14は、学習用前処理部11により作成された学習データ12、および語彙データ13を入力として、自然言語処理の所定のアルゴリズムを用いて機械学習を行い、要約生成のための学習モデル15を生成する機能を有する。
機械学習エンジンや自然言語処理のアルゴリズムについては、公知の技術を適宜使用することができる。本実施の形態では、上述の非特許文献1に記載された技術を参照し、例えば、機械学習エンジンとして、Google社が提供するオープンソースの機械学習ライブラリであるTensorflow(登録商標、以下同様)を用いる。また、この上で用いる自然言語処理(文章自動要約)のアルゴリズムとして、オープンソースとして提供されているTextsumのプログラムを用いる。これにより、例えば、ディープラーニングや、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、Sequence to Sequenceモデル、Sequence to Sequence with attentionモデル等の技術を自動要約の際に適用することが可能となる。
前処理部16は、要約作成の対象となる要約対象テキスト3に対して、上記の学習用前処理部11の一部と同様の各種前処理を施して、学習モデル15を適用するために正規化する機能を有する。この前処理の具体的な内容については後述するが、このとき、所定の単語等については、所定の語句や記号等への置換処理が行われ、その結果や内容に係る情報が置換データ17として記録される。
要約作成部18は、前処理部16により正規化された要約対象テキスト3に対して機械学習エンジンにより学習モデル15を適用して要約を作成する機能を有する。このとき、学習用前処理部11により作成された語彙データ13も利用する。機械学習エンジンには、上記と同様に、例えば、Tensorflowを用いる。なお、ここでの要約は、前処理部16により行われた置換結果に係る語句や記号等を含んだ状態で作成される。
後処理部19は、前処理部16において記録された置換データ17に基づいて、要約作成部18により作成された要約における置換結果に係る語句や記号等を元の単語等に置換・復元するとともに、必要に応じて文章の外観を成形して、要約テキスト4として出力する機能を有する。なお、後処理部19では、前処理部16による要約対象テキスト3に対する置換結果を元の単語等に置換・復元して要約テキスト4を出力しているが、この要約結果を検証するために、同様の後処理を上述の学習モデル作成部14においても行って、学習用テキスト2に対する学習用前処理部11による置換結果を元の単語等に置換・復元するようにしてもよい。
<処理の流れ(学習処理)>
図2は、本実施の形態における事前の学習処理の流れの例について概要を示したフローチャートである。学習処理では、まず、学習用前処理部11により、ニュース記事等の学習用テキスト2を読み込み、全ての記事について形態素解析を行って品詞分解を行う(S01)。形態素解析は、例えば、ChaSen(茶筌)やMeCab(和布蕪)等の一般に入手可能なものも含む各種のプログラムやライブラリを適宜用いて行うことができる。品詞分解により分割した単語や語句の情報の保持方法については特に限定されないが、例えば、学習用テキスト2における対象の単語や語句の区切りの部分に空白を挿入する「分かち書き」により学習用テキスト2に反映させるようにしてもよい。
次に、単語等に分割された状態の学習用テキスト2に対して、学習モデル15の精度を向上させるための各種の置換処理等の前処理を行う(S02)。前処理の内容については後述するが、例えば、学習用テキスト2中に含まれる数値の記載を、桁数も考慮して「#」等の記号に置換する。また、図示しない辞書データベース等を用いて同義語の表記を統一するように置換してもよい。また、英文の大文字小文字や全角半角を変換して統一するように置換してもよい。このような表記の統一による正規化により、学習用テキスト2において同内容の単語等を集約し、サンプルとしての精度を向上させることができる。単語等の置換に限らず、各単語等に対して重要度等の情報を示すラベルの付加等を行うようにしてもよい。
その後、正規化された学習用テキスト2に含まれる各文章について、所定の選別基準に基づいてノイズ等の不適切な文章を除外するデータクレンジング処理を行う(S03)。例えば、学習用テキスト2がニュース記事である場合、要約対象の文章である記事本文に対して、記事のタイトルは正解の要約テキストに相当するが、このタイトルに含まれる名詞が記事本文に含まれていないものばかりである場合は、記事本文に対してタイトルが適切ではないと判断することができる。そこで、例えば、タイトルに含まれる名詞の一定割合(例えば80%)以上が記事本文にも含まれている文章のみを選別して、これを学習用テキスト2として用いるようにしてもよい。データクレンジングにより残った学習用テキスト2については、これを学習データ12として記録する(S04)。
このとき、学習データ12に基づいて、これに含まれる各単語等に係るメタデータ等の各種情報を保持する語彙データ13を併せて生成する(S05)。機械学習エンジンとしてTensorflowを用い、文章自動要約のアルゴリズムとしてTextsumのプログラムを用いる場合、この語彙データ13は、「vocab」ファイルとして作成する。
そして、ステップS04、S05で得られた学習データ12および語彙データ13を入力として、学習モデル作成部14により所定の設定条件に基づいて機械学習エンジンによる機械学習を行い、学習モデル15を作成して(S07)、学習処理を終了する。所定の設定条件としては、例えば、学習データ12の各文章のうち、文頭の2〜3文のみを要約の対象とする等の条件を設定することができる。
<処理の流れ(要約作成処理)>
図3は、本実施の形態における要約作成処理の流れの例について概要を示したフローチャートである。要約作成処理では、まず、前処理部16により、ニュース記事等の要約対象テキスト3を読み込み、形態素解析を行って品詞分解を行う(S11)。この処理は、図2の学習処理におけるステップS01の処理と同様である。次に、単語等に分割された状態の要約対象テキスト3に対して、図2の学習処理におけるステップS02の処理と同様の前処理を行う(S12)。このとき、要約対象テキスト3に含まれる単語等に対して置換を行った場合、置換された単語等の内容や、文章内での出現順序、位置、桁数、単位等の情報を置換データ17として記録しておく。
その後、前処理による正規化が行われた要約対象テキスト3を入力として、要約作成部18により、図2の学習処理により作成された学習モデル15を適用して、機械学習エンジンにより要約を作成する(S13)。このとき、上述の図2のステップS05において生成された語彙データ13も利用する。学習処理と同様に、機械学習エンジンとしてTensorflowを用いることができる。その後、作成された要約の中における置換やラベルの付加等の正規化の内容を、後処理部19により、置換データ17を参照して元の単語等に置換・復元し、必要に応じて文章の外観を成形する後処理を行って、要約テキスト4として出力し(S14)、要約作成処理を終了する。
<前処理/後処理の例>
図4は、本実施の形態における前処理および後処理の例について概要を示した図である。ここでは、学習用テキスト2や要約対象テキスト3に各種の数値が含まれている場合の例について示している。ニュース記事等の文章には、値も桁も異なる多くの種類の数値が含まれている場合があるが、これらの語句を全て異なる語句として取り扱うと、学習用テキスト2においてサンプルが発散して膨大な数となり、語彙データ13の件数も増えるため、学習モデル15の精度が低下するとともに学習処理の負荷も増大してしまう。
そこで、本実施の形態では、学習時および要約作成時の前処理(図2のステップS02、図3のステップS12)において数値を「#」等の記号に置換する。例えば、図4の最上段の文章(分かち書きされた学習用テキスト2および要約対象テキスト3)には、「12月」と「0.3%」という数値を含む語句が含まれている。この数値部分をそれぞれ、図4の上から2段目の文章のように、「##月」と「#.#%」のように「#」により置換する。
学習モデル作成(図2のステップS07)、および要約作成(図3のステップS13)の処理では、それぞれ、「#」により置換された状態の文章に対して処理を行い、学習モデル15の作成、および要約の作成を行う。このとき、要約の文章には、図4の上から3段目の文章のように、「##月」および「#.#%」の語句が残存することになる。
本実施の形態では、これらの語句を要約作成時の後処理(図3のステップS14)において元の単語等に戻す。そのために、要約作成時の前処理(図3のステップS12)において数値を「#」等の記号に置換した際に、置換した数値や文章内の出現位置、桁数、単位等の復元のための情報を置換データ17に記録しておき、これを後処理時に参照する。これにより図4の最下段の文章のように元の数値を含む要約テキスト4を作成することができる。
図5は、本実施の形態における前処理および後処理の他の例について概要を示した図である。ここでは、学習用テキスト2や要約対象テキスト3に含まれる単語等に対して重要度の情報をラベルとして付加する場合の例について示している。ニュース記事等に含まれる各単語等は、それぞれ、要約作成という観点での重要度が異なる。そこで、本実施の形態では、要約作成において各単語等の重要度を考慮することができるよう、学習時および要約作成時の前処理(図2のステップS02、図3のステップS12)において重要度の情報を示すラベルを各単語等に付加して一体の単語等とし、これを対象に機械学習の処理を行うものとする。
例えば、図5の最上段の文章(上述の数値置換が行われた結果の学習用テキスト2および要約対象テキスト3)に対して、図5の上から2段目の文章のように、重要度を示すラベルとして「_X」(X=0〜2)の記号を各単語等の末尾にそれぞれ付加して変換する。図5の例では、例えば、「欧州中央銀行」という単語に重要度X=0の「_0」のラベルが付加されて「欧州中央銀行_0」という語句に変換されている。同様に、例えば、「ユーロ」という単語に重要度X=2の「_2」のラベルが付加されて「ユーロ_2」に変換されている。なお、図5の例では、重要度を示すXを、0(重要ではない)<1(通常)<2(重要)のように3種類に区分して設定しているが、これに限られず、他の値や区分方法であってもよい。
各単語等の重要度は、文章中の単語の重要度を示す指標として一般的に用いられているTF−IDF(Term Frequency - Inverse Document Frequency)値を算出して用いることができる。例えば、算出したTF−IDF値を所定の範囲毎に区分して、上記の0〜2の重要度を設定する。
学習モデル作成(図2のステップS07)、および要約作成(図3のステップS13)の処理では、それぞれ、単語等の重要度を示すラベルが付加された状態の文章に対して処理を行う、すなわち、各単語等の重要度を考慮した形で学習モデル15の作成、および要約の作成を行う。このとき、要約の文章には、図5の上から3段目の文章のように、「_0」や「_2」等のラベルが付された語句が残存することになる。
本実施の形態では、これらの語句を要約作成時の後処理(図3のステップS14)において元の単語等に戻す。すなわち、文章中の各単語等から、「_0」や「_2」等の重要度を示すラベル部分を全て削除する。これにより図5の最下段の文章のように元の単語等による要約テキスト4を作成することができる。
図6は、本実施の形態における前処理および後処理の他の例について概要を示した図である。ここでは、学習用テキスト2や要約対象テキスト3に各種の固有名詞を含む名詞が含まれている場合の例について示している。ニュース記事等の文章には、異なる単語であるが同一の品詞であるものが複数存在する場合がある。例えば、「野村さんは、アメリカよりフランスに住みたい。」という文章には、「野村」、「アメリカ」、「フランス」という固有名詞が含まれている。ここで、「野村」は人名であるが、「アメリカ」と「フランス」はともに国名である。これらの語句を全て異なる語句として取り扱うと、文章中に数値を含む場合と同様に、学習用テキスト2においてサンプルが発散して膨大な数となり、学習モデル15の精度が低下するとともに学習処理の負荷も増大してしまう。
そこで、本実施の形態では、学習時および要約作成時の前処理(図2のステップS02、図3のステップS12)において、名詞(特に固有名詞)を品詞情報を示す語句に置換する。すなわち、上記の例では、例えば、「野村」を「_固有名詞人名姓*1」、「アメリカ」を「_固有名詞地域国*1」、「フランス」を「_固有名詞地域国*2」のようにそれぞれ置換する。これにより、例えば、「アメリカ」と「フランス」は異なる単語ではあるが、品詞としては同一のもの(「固有名詞地域国」)として取り扱うことができる。
なお、本実施の形態では、「アメリカ」や「フランス」等の「国」が異なる場合でも、「国」レベルの同じ固有名詞として取り扱うものとしているが、これに限られず、同じ取り扱いをする単位・レベルは適宜設定することができる。例えば、「地域」レベルや「都市」レベル等で同じ固有名詞として取り扱うようにしてもよいが、細分化が過剰となると要約の精度が低下するため、細分化は適当なレベルに止めるのが望ましい。
図6の例では、例えば、最上段の文章(上述の数値置換が行われた結果の学習用テキスト2および要約対象テキスト3)には、「財務省」や「貿易統計」、「貿易黒字」等の固有名詞の語句が含まれている。この固有名詞部分をそれぞれ、図6の上から2段目の文章のように、「_固有名詞組織*1」や「_固有名詞一般*1」、「_固有名詞一般*2」等の品詞情報を示す語句に置換する。ここでは、「固有名詞組織」や「固有名詞一般」等の品詞情報に加えて、「*1」や「*2」等の出現順序・位置の情報についても含んでいる。
学習モデル作成(図2のステップS07)、および要約作成(図3のステップS13)の処理では、それぞれ、品詞情報を示す語句により置換された状態の文章に対して処理を行い、学習モデル15の作成、および要約の作成を行う。このとき、要約の文章には、図6の上から3段目の文章のように、「_固有名詞組織*1」や「_固有名詞一般*1」等の語句が残存することになる。
本実施の形態では、これらの語句を要約作成時の後処理(図3のステップS14)において元の単語等に戻す。そのために、要約作成時の前処理(図3のステップS12)において固有名詞等を「_固有名詞組織*1」等の記号に置換した際に、置換した固有名詞の内容や文章内の出現位置等の復元のための情報を置換データ17に記録しておき、これを後処理時に参照する。これにより図6の最下段の文章のように元の固有名詞等を含む要約テキスト4を作成することができる。
以上に説明したように、本発明の一実施の形態であるテキスト要約システム1によれば、機械学習を行う前の学習用テキスト2や要約対象テキスト3に対して、前処理の際に、数値を所定の記号に置換したり、各単語等に重要度を示すラベルを付加したり、固有名詞等を所定の語句に置換したり等の所定の加工を行い、加工された文章に対して学習モデル15の作成や要約の作成の処理を行う。そして、作成された要約に含まれる加工内容(置換・付加された記号や語句)を元の単語等に戻すことで、最終的な要約テキスト4を得る。これにより、学習データ12のサンプルとしての発散を回避し、単語の重要度を加味して学習モデル15を生成することで要約作成における精度を向上させることができる。
本発明者らは、学習用テキスト2や要約対象テキスト3としてニュース記事を対象とし、要約テキスト4を実際に作成した上で、新聞記事等の自動要約に対する評価指標として広く用いられているRouge(Recall-Oriented Understudy for Gisting Evaluation)−1の値を算出して比較を行った。これによると、前処理において上記のような正規化を行わない場合のRouge−1の平均値が0.3〜0.4程度であるのに対し、上記のような正規化を個別に、もしくは1つ以上組み合わせて適用することで、Rouge−1の平均値を最大で0.6〜0.7程度に向上させることが可能であるという結果が得られた。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、またはICカード、SDカード、DVD等の記録媒体に置くことができる。
また、上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
本発明は、機械学習により生成された学習モデルに基づいて要約を作成するテキスト要約システムに利用可能である。
1…テキスト要約システム、2…学習用テキスト、3…要約対象テキスト、4…要約テキスト、
11…学習用前処理部、12…学習データ、13…語彙データ、14…学習モデル作成部、15…学習モデル、16…前処理部、17…置換データ、18…要約作成部、19…後処理部

Claims (5)

  1. テキスト文章から要約を作成するテキスト要約システムであって、
    原文とその要約を含む複数の学習用テキストに対して、所定の前処理を行って学習データを作成する学習用前処理部と、
    前記学習データに基づいて機械学習により要約に係る学習モデルを作成する学習モデル作成部と、
    要約対象テキストに対して所定の前処理を行う前処理部と、
    前記前処理部により前処理がなされた前記要約対象テキストに対して、前記学習モデルに基づいて要約テキストを作成する要約作成部と、
    前記要約テキストに対して所定の後処理を行って出力する後処理部と、を有し、
    前記学習用前処理部および前記前処理部における前記所定の前処理では、前記学習用テキストおよび前記要約対象テキストに含まれる語句に所定の加工を行い、
    前記後処理部における前記所定の後処理では、前記要約テキストに対して前記前処理部により行われた前記所定の加工の内容を復元する、テキスト要約システム。
  2. 請求項1に記載のテキスト要約システムにおいて、
    前記所定の加工は、前記学習用テキストおよび前記要約対象テキストに含まれる数値を所定の記号に置換するものであり、
    前記前処理部では、前記置換の際に、前記置換の内容に係る情報を置換データとして記録し、
    前記後処理部では、前記置換データの内容に基づいて、前記要約テキストにおける前記所定の記号を対応する前記数値に置換する、テキスト要約システム。
  3. 請求項1に記載のテキスト要約システムにおいて、
    前記所定の加工は、前記学習用テキストおよび前記要約対象テキストに含まれる各語句に対して、それぞれ、当該語句の重要度を示す情報を付加するものであり、
    前記後処理部では、前記要約テキストにおける前記重要度を示す情報を削除する、テキスト要約システム。
  4. 請求項1に記載のテキスト要約システムにおいて、
    前記所定の加工は、前記学習用テキストおよび前記要約対象テキストに含まれる所定の品詞の語句を所定の文字列に置換するものであり、
    前記前処理部では、前記置換の際に、前記置換の内容に係る情報を置換データとして記録し、
    前記後処理部では、前記置換データの内容に基づいて、前記要約テキストにおける前記所定の文字列を対応する前記所定の品詞の語句に置換する、テキスト要約システム。
  5. 請求項1に記載のテキスト要約システムにおいて、
    前記学習用前処理部は、前記学習用テキストにおける要約に含まれる語句のうち、所定の割合以上の語句が、前記学習用テキストにおける原文に含まれているもののみを前記学習データを作成する対象とする、テキスト要約システム。
JP2017133421A 2017-07-07 2017-07-07 テキスト要約システム Active JP6902945B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017133421A JP6902945B2 (ja) 2017-07-07 2017-07-07 テキスト要約システム
JP2021103281A JP7100747B2 (ja) 2017-07-07 2021-06-22 学習データ生成方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133421A JP6902945B2 (ja) 2017-07-07 2017-07-07 テキスト要約システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021103281A Division JP7100747B2 (ja) 2017-07-07 2021-06-22 学習データ生成方法および装置

Publications (2)

Publication Number Publication Date
JP2019016181A true JP2019016181A (ja) 2019-01-31
JP6902945B2 JP6902945B2 (ja) 2021-07-14

Family

ID=65358580

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017133421A Active JP6902945B2 (ja) 2017-07-07 2017-07-07 テキスト要約システム
JP2021103281A Active JP7100747B2 (ja) 2017-07-07 2021-06-22 学習データ生成方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021103281A Active JP7100747B2 (ja) 2017-07-07 2021-06-22 学習データ生成方法および装置

Country Status (1)

Country Link
JP (2) JP6902945B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046158A (ja) * 2017-09-01 2019-03-22 国立研究開発法人産業技術総合研究所 テキスト生成装置、テキスト生成方法及びテキスト生成プログラム
CN110334334A (zh) * 2019-06-19 2019-10-15 腾讯科技(深圳)有限公司 一种摘要生成方法、装置及计算机设备
CN111460135A (zh) * 2020-03-31 2020-07-28 北京百度网讯科技有限公司 用于生成文本摘要的方法和装置
JP2020183989A (ja) * 2019-05-03 2020-11-12 株式会社医療情報技術研究所 スローリーディング学習システム
CN112784585A (zh) * 2021-02-07 2021-05-11 新华智云科技有限公司 金融公告的摘要提取方法与摘要提取终端
JP2021111056A (ja) * 2020-01-08 2021-08-02 トヨタ自動車株式会社 エージェント装置、エージェントシステム、及びエージェントプログラム
JP2021114166A (ja) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 文書管理・閲覧システムとその注釈文生成表示方法
JP2021114167A (ja) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 文書管理・閲覧システムとその注釈文表示方法
KR102520167B1 (ko) * 2022-11-14 2023-04-14 (주)액션파워 비-대화형 텍스트 정보를 활용하여 대화 요약을 위한 학습 데이터를 생성하는 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102436549B1 (ko) * 2022-07-20 2022-08-25 (주) 유비커스 딥러닝을 이용한 자연어처리 기반의 faq 및 챗봇을 위한 학습데이터를 자동으로 생성하기 위한 방법 및 이를 위한 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292958A (ja) * 2004-03-31 2005-10-20 National Institute Of Information & Communication Technology 教師データ作成装置およびプログラム、言語解析処理装置およびプログラム、ならびに要約処理装置およびプログラム
JP2006178978A (ja) * 2004-12-21 2006-07-06 Palo Alto Research Center Inc ユーザ関心反映型検索結果指示子使用及び作成システム及び方法
JP2008250887A (ja) * 2007-03-30 2008-10-16 Kyushu Institute Of Technology 情報抽出装置、その方法及びプログラム
JP2010237871A (ja) * 2009-03-30 2010-10-21 Nomura Research Institute Ltd 年表自動作成システム、方法及びそのプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5388038B2 (ja) 2009-12-28 2014-01-15 独立行政法人情報通信研究機構 文書要約装置、文書処理装置、及びプログラム
JP2013167985A (ja) 2012-02-15 2013-08-29 Nomura Research Institute Ltd 談話要約生成システムおよび談話要約生成プログラム
US9317498B2 (en) 2014-05-23 2016-04-19 Codeq Llc Systems and methods for generating summaries of documents

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292958A (ja) * 2004-03-31 2005-10-20 National Institute Of Information & Communication Technology 教師データ作成装置およびプログラム、言語解析処理装置およびプログラム、ならびに要約処理装置およびプログラム
JP2006178978A (ja) * 2004-12-21 2006-07-06 Palo Alto Research Center Inc ユーザ関心反映型検索結果指示子使用及び作成システム及び方法
JP2008250887A (ja) * 2007-03-30 2008-10-16 Kyushu Institute Of Technology 情報抽出装置、その方法及びプログラム
JP2010237871A (ja) * 2009-03-30 2010-10-21 Nomura Research Institute Ltd 年表自動作成システム、方法及びそのプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046158A (ja) * 2017-09-01 2019-03-22 国立研究開発法人産業技術総合研究所 テキスト生成装置、テキスト生成方法及びテキスト生成プログラム
JP2020183989A (ja) * 2019-05-03 2020-11-12 株式会社医療情報技術研究所 スローリーディング学習システム
CN110334334A (zh) * 2019-06-19 2019-10-15 腾讯科技(深圳)有限公司 一种摘要生成方法、装置及计算机设备
CN110334334B (zh) * 2019-06-19 2024-05-14 腾讯科技(深圳)有限公司 一种摘要生成方法、装置及计算机设备
JP2021111056A (ja) * 2020-01-08 2021-08-02 トヨタ自動車株式会社 エージェント装置、エージェントシステム、及びエージェントプログラム
JP7276165B2 (ja) 2020-01-08 2023-05-18 トヨタ自動車株式会社 エージェント装置、エージェントシステム、及びエージェントプログラム
JP2021114166A (ja) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 文書管理・閲覧システムとその注釈文生成表示方法
JP2021114167A (ja) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 文書管理・閲覧システムとその注釈文表示方法
CN111460135A (zh) * 2020-03-31 2020-07-28 北京百度网讯科技有限公司 用于生成文本摘要的方法和装置
CN111460135B (zh) * 2020-03-31 2023-11-07 北京百度网讯科技有限公司 用于生成文本摘要的方法和装置
CN112784585A (zh) * 2021-02-07 2021-05-11 新华智云科技有限公司 金融公告的摘要提取方法与摘要提取终端
KR102520167B1 (ko) * 2022-11-14 2023-04-14 (주)액션파워 비-대화형 텍스트 정보를 활용하여 대화 요약을 위한 학습 데이터를 생성하는 방법

Also Published As

Publication number Publication date
JP7100747B2 (ja) 2022-07-13
JP6902945B2 (ja) 2021-07-14
JP2021180003A (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
JP7100747B2 (ja) 学習データ生成方法および装置
US8484238B2 (en) Automatically generating regular expressions for relaxed matching of text patterns
US9495358B2 (en) Cross-language text clustering
EP3489837A1 (en) Method and system for key phrase extraction and generation from text
US9588958B2 (en) Cross-language text classification
US20070179932A1 (en) Method for finding data, research engine and microprocessor therefor
US7398196B1 (en) Method and apparatus for summarizing multiple documents using a subsumption model
JP7139728B2 (ja) 分類方法、装置、及びプログラム
Ljubešić et al. Corpus-based diacritic restoration for south slavic languages
US11227119B2 (en) Cognitive word processing
JP2019121139A (ja) 要約装置、要約方法、及び要約プログラム
Abdallah et al. URL-based web page classification: With n-gram language models
EP1503295A1 (en) Text generation method and text generation device
Pirovani et al. Studying the adaptation of Portuguese NER for different textual genres
Polus et al. Development for performance of Porter Stemmer algorithm
Sang Improving part-of-speech tagging of historical text by first translating to modern text
Al-Badrashiny et al. Split: Smart preprocessing (quasi) language independent tool
Jaf et al. Machine‐Based Transliterate of Ottoman to Latin‐Based Script
Murauer et al. Generating cross-domain text classification corpora from social media comments
Goweder et al. Identifying broken plurals in unvowelised arabic tex
JP5500636B2 (ja) 句テーブル生成器及びそのためのコンピュータプログラム
JP2006004366A (ja) 機械翻訳システム及びそのためのコンピュータプログラム
JP7131130B2 (ja) 分類方法、装置、及びプログラム
Rajdho et al. Plugging Text Processing and Mining in a Cloud Computing Framework
US11783112B1 (en) Framework agnostic summarization of multi-channel communication

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210622

R150 Certificate of patent or registration of utility model

Ref document number: 6902945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250