JP7135730B2 - 要約生成方法及び要約生成プログラム - Google Patents

要約生成方法及び要約生成プログラム Download PDF

Info

Publication number
JP7135730B2
JP7135730B2 JP2018205125A JP2018205125A JP7135730B2 JP 7135730 B2 JP7135730 B2 JP 7135730B2 JP 2018205125 A JP2018205125 A JP 2018205125A JP 2018205125 A JP2018205125 A JP 2018205125A JP 7135730 B2 JP7135730 B2 JP 7135730B2
Authority
JP
Japan
Prior art keywords
sentence
named entity
input
character string
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018205125A
Other languages
English (en)
Other versions
JP2020071668A (ja
Inventor
友哉 岩倉
拓哉 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018205125A priority Critical patent/JP7135730B2/ja
Publication of JP2020071668A publication Critical patent/JP2020071668A/ja
Application granted granted Critical
Publication of JP7135730B2 publication Critical patent/JP7135730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、要約生成方法及び要約生成プログラムに関する。
新聞やWebサイト、電光掲示板などの文書から要約文を生成する自動要約にニューラルネットワークなどの機械学習が利用されることがある。例えば、入力文をベクトル化するRNN(Recurrent Neural Networks)エンコーダと、入力文のベクトルを参照して要約文の単語の生成を繰り返すRNNデコーダとが接続されたモデルが要約文の生成に用いられる。
特開2014-225185号公報 特開2017-27168号公報 特開2005-196513号公報
しかしながら、上記の技術では、モデルの辞書の語彙が学習データに出現する単語に限定されるので、モデルの辞書にない未知語は要約文の単語として生成できないという限界がある。
1つの側面では、本発明は、モデルの辞書にない未知語を含めて要約文を生成できる要約生成方法及び要約生成プログラムを提供することを目的とする。
一態様の要約生成方法では、入力文および前記入力文が入力されたモデルが出力する要約文の間で共通の単語を含む固有表現が存在する場合、前記要約文のうち前記共通の単語を含む第1の固有表現の文字列を、前記入力文のうち前記共通の単語を含む第2の固有表現の文字列に置換する、処理をコンピュータが実行する。
モデルの辞書にない未知語を含めて要約文を生成できる。
図1は、実施例1に係るシステムに含まれる各装置の機能的構成を示すブロック図である。 図2は、記事要約ツールのユースケースの一例を示す図である。 図3は、固有表現の置換方法の一例を示す図である。 図4Aは、学習用入力文の一例を示す図である。 図4Bは、正解要約文の一例を示す図である。 図5は、モデル学習の一例を示す図である。 図6は、モデルの辞書の一例を示す図である。 図7は、入力文および要約文の一例を示す図である。 図8は、実施例1に係る要約生成処理の手順を示すフローチャートである。 図9は、固有表現の検出方法の応用例を示す図である。 図10は、実施例2に係る要約生成処理の手順を示すフローチャートである。 図11は、実施例1及び実施例2に係る要約生成プログラムを実行するコンピュータのハードウェア構成例を示す図である。
以下に添付図面を参照して本願に係る要約生成方法及び要約生成プログラムについて説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[システム構成]
図1は、実施例1に係るシステムに含まれる各装置の機能的構成を示すブロック図である。図1に示すシステム1では、学習用入力文および正解要約文を含む学習データを用いてモデルの機械学習を行う機械学習サービス、並びに、学習済みモデルを用いて入力文から要約文を生成する要約生成サービスが提供される。
図1に示すように、システム1には、学習装置10と、生成装置30とが含まれる。学習装置10で学習したモデルを受け取って、生成装置30は、与えられたデータに対して、結果を生成する。
学習装置10は、上記の機械学習サービスを提供するコンピュータの一例に対応する。別の計算機に学習装置10と生成装置30を配置する際は、ネットワーク通信を介して、モデルを渡す。
一実施形態として、学習装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の機械学習サービスを実現する学習プログラムを任意のコンピュータにインストールさせることによって実装できる。このようにインストールされた学習プログラムをコンピュータに実行させることにより、コンピュータを学習装置10として機能させることができる。
あくまで一例として、学習装置10は、生成装置30をクライアントとして収容し、当該クライアントに上記の機械学習サービスを提供するサーバ装置として実装することができる。この場合、学習装置10は、上記の機械学習サービスを提供するサーバとしてオンプレミスに実装することとしてもよいし、上記の機械学習サービスをアウトソーシングで提供するクラウドとして実装することとしてもかまわない。
例えば、学習装置10は、複数の学習サンプルを含む学習データ、または、学習データをネットワークもしくは記憶メディアを介して呼び出すことができる識別情報を入力とし、モデルの学習結果を生成装置30へ出力する。このとき、学習装置10は、一例として、RNNエンコーダ及びRNNデコーダが接続されたニューラルネットワークのモデルのパラメータを提供することができる。この他、学習装置10は、学習済みモデルを用いて実現される要約文の生成が機能として組み込まれたアプリケーションプログラムを提供することもできる。例えば、新聞や電光掲示板、Webサイトなどの各種の記事の原文から記事の見出しを要約文として生成したり、あるいは記事の原文から速報の記事を要約文として生成したりするアプリケーションプログラムを提供することができる。
この他、上記の機械学習サービスの提供形態は、あくまで一例に過ぎず、上記に挙げる例以外の提供形態で機械学習サービスが提供されることを妨げない。例えば、上記の機械学習サービスを実現する学習プログラムそのものをパッケージソフトウェアやオンラインソフトウェアとして提供することとしてもよいし、上記の学習プログラムが導入されたコンピュータを提供することとしてもかまわない。
生成装置30は、上記の要約生成サービスを提供するコンピュータの一例に対応する。
一実施形態として、生成装置30は、パッケージソフトウェアやオンラインソフトウェアとして上記の要約生成サービスを実現する要約生成プログラムを任意のコンピュータにインストールさせることによって実装できる。このようにインストールされた要約生成プログラムをコンピュータに実行させることにより、コンピュータを生成装置30として機能させることができる。
あくまで一例として、上記の要約生成サービスは、新聞や電光掲示板、Webサイトなどの各種のメディアを運営するメディア事業者向けに提供されるWebサービスのツールの1つ、例えば「記事要約ツール」として提供することができる。この場合、上記のWebサービスとして提供される機能のうち、原文の入力や要約文の表示等のフロントエンドの機能が記者や編集者等の端末装置に実装されると共に、要約文の生成などのバックエンドの機能が生成装置30に実装されることとしてもかまわない。
[記事要約ツールのユースケースの一例]
図2は、記事要約ツールのユースケースの一例を示す図である。図2には、メディア事業者の関係者により使用される端末装置に表示される記事要約画面20の遷移の一例が示されている。
図2の上段には、各種の項目に対する入力が設定されていない初期状態の記事要約画面20が示されている。例えば、記事要約画面20には、原文入力エリア21、要約表示エリア22、プルダウンメニュー23、要約ボタン24、クリアボタン25などのGUI(Graphical User Interface)コンポーネントが含まれる。このうち、原文入力エリア21は、記事等の原文を入力するエリアに対応する。また、要約表示エリア22は、原文入力エリア21に入力された原文に対応する要約文を表示するエリアに対応する。また、プルダウンメニュー23は、要約文の上限文字数を指定するGUIコンポーネントの一例に対応する。また、要約ボタン24は、原文入力エリア21に入力された原文に対応する要約文を生成するコマンドの実行を受け付けるGUIコンポーネントの一例に対応する。また、クリアボタン25は、原文入力エリア21に入力された原文のテキストをクリアするGUIコンポーネントの一例に対応する。
図2に示すように、記事要約画面20の原文入力エリア21では、図示しないキーボード等の入力デバイスを介してテキストの入力を受け付けることができる。このように入力デバイスを介してテキストの入力を受け付ける他、原文入力エリア21では、ワープロソフトなどのアプリケーションにより作成された文書のファイルからテキストをインポートすることができる。
このように原文入力エリア21に原文のテキストが入力されることにより、記事要約画面20は、図2の上段に示された状態から図2の中段に示された状態へ遷移する(ステップS1)。例えば、原文入力エリア21に原文のテキストが入力された場合、要約ボタン24に対する操作を介して要約文を生成するコマンドの実行を受け付けることができる。また、クリアボタン25に対する操作を介して原文入力エリア21に入力されたテキストをクリアすることもできる。この他、プルダウンメニュー23を介して、複数の上限文字数の中からメディア事業者の関係者が希望する上限文字数の指定を受け付けることもできる。ここでは、新聞やニュースの記事の原文から電光掲示板の速報を要約文として生成する場面の一例として、電光掲示板に表示可能な上限文字数の一例に対応する80文字が指定された例が示されている。これはあくまで一例であり、新聞やWebサイトの記事から見出しを生成する場合、見出しに対応する上限文字数を選択することができる。
そして、原文入力エリア21に原文のテキストが入力された状態で要約ボタン24に対する操作が行われた場合、記事要約画面20は、図2の中段に示された状態から図2の下段に示された状態へ遷移する(ステップS2)。この場合、原文入力エリア21に入力された原文のテキストが入力文として学習済みモデルに入力されることによりその要約文が生成される。この要約文の生成は、メディア事業者の関係者の端末装置上で実行されることとしてもよいし、あるいはバックエンドのサーバ装置で実行されることとしてもかまわない。この結果、図2の下段に示すように、記事要約画面20の要約表示エリア22には、学習済みモデルにより生成された要約文が表示される。
このように記事要約画面20の要約表示エリア22に表示された要約文のテキストには、図示しない入力デバイス等を介して編集を行うことができる。
以上のような記事要約ツールが提供されることで、記者や編集者等により行われる記事要約の作業を軽減することが可能になる。例えば、記事要約の作業は、メディアにニュースを配信するプロセス、例えば「配信記事の選定」や「メディア編集システムへの送信」、「記事要約」、「見出し作成」、「校閲」などの中でも相対的に労力が大きいという側面がある。例えば、記事要約が人手により行われる場合、記事の全体から重要な情報を選別し、文章を再構成するといった作業が必要となる。このことから、記事要約の作業が自動化または半自動化される技術的意義は高い。
なお、ここでは、あくまで一例として、メディア事業者の関係者により記事要約ツールが利用されるユースケースを例に挙げたが、メディア事業者から記事の配信を受ける視聴者により記事要約ツールが利用されることとしてもかまわない。例えば、スマートスピーカ等で記事の全文を読み上げる代わりに要約文を読み上げる機能として記事要約ツールを利用することができる。
また、ここでは、あくまで一例として、生成装置30が上記の要約生成サービスを提供するコンピュータとして実装される例を挙げたが、これに限定されない。例えば、上記の学習済みモデルが組み込まれた要約生成プログラムが任意のコンピュータ、例えば記者や編集者等の端末装置で実行されるスタンドアローンのアプリケーションプログラムとして実装されることとしてもよい。
さらに、ここでは、上記の機械学習サービス及び上記の要約生成サービスが異なる事業主体で実行される例を挙げたが、これら2つのサービスが同一の事業者により提供されることとしてもかまわない。この場合、上記の学習プログラム及び上記の要約生成プログラムが同一のコンピュータもしくはコンピュータシステムにより実行されることとしてもかまわない。
[課題の一側面]
上記の背景技術の欄でも説明した通り、モデルの辞書の語彙が学習データに出現する単語に限定されるので、モデルの辞書にない未知語は要約文の単語として生成できないという限界がある。
[課題解決のアプローチの一側面]
そこで、本実施例に係る生成装置30は、モデルの辞書にない未知語を入力文に出現する固有表現で補うアプローチを採用する。すなわち、モデルの機械学習には、コーパスが学習データとして利用される場合があるが、語彙数が膨大なコーパスであっても固有名詞を始め、時間表現や数量、パーセンテージなどの数値表現を含む固有表現(Named Entity)を網羅するのは困難である。このように、モデルの未知語を低減する側面から学習サンプルを増やすのは困難である一方で、視点を変えれば、未知語の大半は、固有表現である可能性が高いとみなすことができる。
このことから、モデルの辞書にない未知語を入力文に出現する固有表現で補うという動機付けの下、入力文および要約文の間で共通の単語を含む固有表現が存在する場合、要約文の固有表現の文字列を入力文の固有表現の文字列に置換する。以下、要約文のうち共通の単語を含む固有表現のことを「第1の固有表現」と記載すると共に、入力文のうち共通の単語を含む固有表現のことを「第2の固有表現」と記載する場合がある。
図3は、固有表現の置換方法の一例を示す図である。図3には、入力文40Gが学習済みモデルに入力されることにより要約文40Yが生成された例が示されている。図3に示すように、入力文40Gおよび要約文40Yから固有表現が抽出される。
このように固有表現が抽出された後、固有表現の置換対象が入力文および要約文の間で共通の単語を含む固有表現に絞り込まれる。例えば、要約文40Yの該当部分を太字で示す通り、要約文40Yからは、共通の単語「吉田」を含む固有表現「吉田ゴム」が第1の固有表現として絞り込まれる。一方、入力文40Gの該当部分を太字で示す通り、共通の単語「吉田」を含む固有表現「吉田○○」が第2の固有表現として絞り込まれる。
この段階で両者が対応すると見做し、第1の固有表現「吉田ゴム」を第2の固有表現「吉田○○」に置換することもできるが、固有表現の置換には次のような条件を付加することもできる。
あくまで一例として、人名を例に挙げれば、親子や親戚などの親類が複数名にわたって記事の文中に出現する場合がある。このような場合、共通の単語を含む固有表現であるからといって必ずしも入力文および要約文の間で対応関係にあると限らない。
このため、要約文40Yおよび入力文40Gの間で固有表現に隣接する文字列が類似することを条件として付加することができる。例えば、修飾部と被修飾部の係り受けは先行する文節から後続する文節へ行われる側面から、固有表現の前に隣接する所定長の文字列の類似度が所定の閾値であることを条件に採用できる。
ここで、数値の一例として、固有表現の前に隣接する14文字の類似度が8割以上であるか否かが判定されることとする。図3の要約文41Yおよび入力文40Gに下線が付された通り、「吉田ゴム」および「吉田○○」の固有表現の前に隣接する14文字は、いずれも「同校で防災教室の講師を務めた」である。このように、14文字の中で14文字が一致するので、類似度は10割であり、閾値の8割を超える。
このことから、要約文40Yの固有表現「吉田ゴム」は、入力文40Gの固有表現「吉田○○」に対応する可能性が高いと推定できる。この場合、要約文40Yの固有表現「吉田ゴム」を含む文字列が、入力文40Gの固有表現「吉田○○」を含む文字列に置換される。すなわち、図3に白黒の反転表示で示された文字列42Y「同校で防災教室の講師を務めた吉田○○」が、図3に斜体字で示された文字列42G「同校で防災教室の講師を務めた吉田○○」に置換される。
この結果、学習済みモデルの未知語「○○」の固有表現が入力文40Gを用いて修正された修正要約文43Y「15年11月に同校で防災教室の講師を務めた吉田○○が指摘」が生成される。
以上のように、本実施例に係る生成装置30によれば、モデルの辞書にない未知語を含めて要約文を生成することが可能になる。
[学習装置10の構成]
図1に示すように、学習装置10は、学習データ記憶部11と、モデル記憶部12と、入力制御部13と、エンコーダ実行部14と、デコーダ実行部15と、生成部16と、算出部17と、更新部18とを有する。なお、学習装置10は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
図1に示す入力制御部13、エンコーダ実行部14、デコーダ実行部15、生成部16、算出部17および更新部18などの機能部は、あくまで例示として、下記のハードウェアプロセッサにより仮想的に実現される。このようなプロセッサの例として、DLU(Deep Learning Unit)を始め、GPGPU(General-Purpose computing on Graphics Processing Units)やGPUクラスタなどが挙げられる。この他、CPU(Central Processing Unit)、MPU(Micro Processing Unit)などが挙げられる。すなわち、プロセッサがRAM(Random Access Memory)等のメモリ上に上記学習プログラムをプロセスとして展開することにより、上記の機能部が仮想的に実現される。ここでは、プロセッサの一例として、DLUやGPGPU、GPUクラスタ、CPU、MPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより上記の機能部が実現されることとしてもかまわない。この他、上記の機能部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることを妨げない。
また、図1に示す学習データ記憶部11およびモデル記憶部12などの機能部には、HDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などの記憶装置を採用できる。なお、記憶装置は、必ずしも補助記憶装置でなくともよく、各種の半導体メモリ素子、例えばRAM、EPPROMやフラッシュメモリなども採用できる。
学習データ記憶部11は、学習データを記憶する記憶部である。ここで、学習データには、一例として、D個の学習サンプル、いわゆる学習事例が含まれる。さらに、学習サンプルには、モデル学習に用いる入力文および正解の要約文のペアが含まれる。以下、モデルの学習時および要約文の生成時に入力される入力文のラベルを識別する側面から前者のことを「学習用入力文」と記載する場合がある。さらに、モデルの学習時に正解として参照される要約文および入力文から生成される要約文のラベルを識別する側面から前者のことを「正解要約文」と記載する場合がある。
モデル記憶部12は、モデルに関する情報を記憶する記憶部である。
一実施形態として、モデル記憶部12には、RNNエンコーダ及びRNNデコーダが接続されたニューラルネットワークのモデルを形成する入力層、隠れ層及び出力層の各層のニューロンやシナプスなどのモデルの層構造を始め、各層の重みやバイアスなどのモデルのパラメータを含むモデル情報が記憶される。ここで、モデル学習が実行される前の段階では、モデル記憶部12には、モデルのパラメータとして、乱数により初期設定されたパラメータが記憶される。また、モデル学習が実行された後の段階では、モデル記憶部12には、学習済みモデルのパラメータが保存される。
入力制御部13は、モデルに対する入力を制御する処理部である。
一実施形態として、入力制御部13は、モデル学習のリクエストを受け付けた場合に処理を起動する。このように処理が起動されると、入力制御部13は、モデル学習の初期設定を行う。例えば、入力制御部13は、正解要約文の文字数を始め、ユーザに指定された文字数などをモデルが生成する要約文の上限文字数として設定する。
このようにRNNデコーダへ入力する初期値が設定された後、入力制御部13は、学習データに含まれる学習サンプルごとに、RNNエンコーダおよびRNNデコーダが接続されたニューラルネットワークのモデルに対する入力を開始する。
具体的には、入力制御部13は、学習サンプルをカウントするループカウンタdの値を初期化する。続いて、入力制御部13は、学習データ記憶部11に記憶されたD個の学習サンプルのうちループカウンタdに対応する学習サンプルを取得する。その後、入力制御部13は、ループカウンタdをインクリメントし、ループカウンタdの値が学習サンプルの総数Dと等しくなるまで、学習データ記憶部11から学習サンプルを取得する処理を繰り返し実行する。なお、ここでは、学習装置10内部のストレージに保存された学習データを取得する例を挙げたが、ネットワークを介して接続される外部のコンピュータ、例えばファイルサーバの他、リムーバブルメディア等から学習データが取得されることとしてもかまわない。
このように学習サンプルが取得される度に、入力制御部13は、当該学習サンプルに含まれる学習用入力文をRNNエンコーダへ入力する。これによって、学習用入力文の単語列がベクトル化されたベクトル、いわゆる中間表現がRNNエンコーダからRNNデコーダへ出力される。これと同時または前後して、入力制御部13は、RNNデコーダに文末記号と呼ばれるEOS(End Of Sentence)を出力させるまでの残り文字数を保持するレジスタの値を入力制御部13が設定した上限文字数に初期化する。これ以降のRNNデコーダへの入力、RNNデータからの出力、それを用いたモデルのパラメータの更新についてはその詳細を後述する。
エンコーダ実行部14は、RNNエンコーダを実行する処理部である。
一実施形態として、エンコーダ実行部14は、モデル記憶部12に記憶されたモデル情報にしたがって、入力制御部13により入力された学習用入力文の単語数Mに対応するM個のLSTM(Long Short-Term Memory)をワークエリア上に展開する。これによって、M個のLSTMをRNNエンコーダとして機能させる。このRNNエンコーダでは、入力制御部13による入力制御にしたがって、学習用入力文の先頭の単語から順に、学習用入力文の先頭からm番目の単語が当該m番目の単語に対応するLSTMへ入力されると共に、m-1番目の単語に対応するLSTMの出力がm番目の単語に対応するLSTMへ入力される。このような入力を先頭の単語に対応するLSTMから末尾であるM番目の単語に対応するLSTMまで繰り返すことにより、学習用入力文のベクトル、いわゆる中間表現が得られる。このようにRNNエンコーダにより生成された学習用入力文の中間表現がRNNデコーダへ入力される。
デコーダ実行部15は、RNNデコーダを実行する処理部である。
一実施形態として、デコーダ実行部15は、モデル記憶部12に記憶されたモデル情報にしたがって、入力制御部13により入力された正解要約文の単語数Nに対応するN個のLSTMをワークエリア上に展開する。これによって、N個のLSTMをRNNデコーダとして機能させる。これらRNNデコーダには、入力制御部13の制御にしたがって、RNNエンコーダから学習用入力文の中間表現が入力されると共に、N個のLSTMごとに入力制御部13からEOSのタグを出力させるまでの残り文字数が入力される。これらの入力にしたがってN個のLSTMを動作させることにより、RNNデコーダは、N個のLSMTごとに単語の確率分布を生成部16へ出力する。ここで言う「単語の確率分布」とは、学習サンプル全体で学習用入力文に出現する単語ごとに算出された確率の分布を指す。
生成部16は、要約文の単語を生成する処理部である。
一実施形態として、生成部16は、RNNデコーダのn番目のLSTMから単語の確率分布が出力された場合、当該確率分布で確率が最大である単語を要約文の先頭からn番目の単語として生成する。
算出部17は、モデルが生成する単語ごとの損失を算出する処理部である。
一実施形態として、算出部17は、生成部16により要約文のn番目の単語が生成された場合、正解要約文に含まれる単語のうちn番目の単語と、生成部16により生成されたn番目の単語とから損失を算出する。
更新部18は、モデルのパラメータを更新する処理部である。
一実施形態として、更新部18は、RNNデコーダのN個のLSTMごとに損失が算出された場合、各LSTMの損失に基づいて対数尤度の最適化を実行することにより、RNNデコーダのモデルを更新するパラメータを算出する。その上で、更新部18は、モデル記憶部12に記憶されたモデルのパラメータを対数尤度の最適化により求められたパラメータに更新する。このパラメータの更新は、全ての学習サンプルにわたって繰り返し実行すると共に、学習データDについても所定のエポック数にわたって繰り返し実行することができる。
[モデル学習の具体例]
以下、図4~図6を用いて、モデル学習の具体例を説明しながらモデル学習で構築される辞書の具体例を説明する。
図4Aおよび図4Bにモデルに入力する学習サンプルの一例を例示する。図4Aは、学習用入力文の一例を示す図である。図4Bは、正解要約文の一例を示す図である。図5は、モデル学習の一例を示す図である。これらのうち、図5には、図4Aに示す学習用入力文60Aおよび図4Bに示す正解要約文60Bの学習サンプルd1がモデルに入力される状況下におけるモデル学習が示されている。
図5に示すように、図4Bに示す正解要約文60Bが入力される場合、正解要約文60Bの単語数「14」に対応する14個のLSTMがワークエリア上に展開される。以下、正解要約文60Bの先頭の単語から順番に各単語に対応してワークエリア上に展開されたLSTMの各々を「LSTM15A~LSTM15N」と識別する。
例えば、正解要約文60Bの先頭の単語と照合する単語の確率分布を計算する1時刻目には、入力制御部13の制御にしたがって、RNNエンコーダの末尾のLSTMから図4Aに示す学習用入力文60Aの中間表現が先頭のLSTM15Aへ入力される。これと共に、先頭のLSTM15Aには、入力制御部13からBOS(Begin Of Sentence)と呼ばれる文頭記号と共に、RNNデコーダにEOSを出力させるまでの残り文字数の初期値として正解要約文の文字数「23」が入力される。これによって、LSTM15Aは、学習サンプル全体で学習用入力文に出現する単語ごとに確率を計算することにより1時刻目(t=1)における単語の確率分布を算出すると共に、学習用入力文60Aの中間表現を更新する。その上で、LSTM15Aは、1時刻目における単語の確率分布を生成部16へ出力すると共に、1時刻目に更新された中間表現を次段のLSTM15Bへ出力する。
このように1時刻目における単語の確率分布が出力された場合、生成部16は、当該確率分布で確率が最大である単語、本例では「吉田」を要約文の先頭の単語として生成し、1時刻目に生成された要約文の先頭の単語を算出部17へ出力する。そして、算出部17は、正解要約文60Bに含まれる単語のうち1時刻目に対応する先頭の単語「吉田」と、1時刻目に生成された単語「吉田」とから1時刻目における損失を算出する。この場合、1時刻目の正解の単語「吉田」の確率が1に近く、かつその他の単語の確率が0に近いほど小さい損失が算出される。その後、入力制御部13は、レジスタに保持された残り文字数の初期値「23」から1時刻目に生成された単語「吉田」の文字数「2」を減算することにより、残り文字数の値を「21」へ更新する。
次に、正解要約文60Bの先頭から2番目の単語と照合する単語の確率分布を計算する2時刻目には、1時刻目に更新された中間表現がLSTM15AからLSTM15Bへ入力される。これと共に、LSTM15Bには、入力制御部13の制御にしたがって、2時刻目の1時刻前、すなわち1時刻目の正解の単語「吉田」が入力されると共に、レジスタに保持された残り文字数「21」が入力される。これによって、LSTM15Bは、学習サンプル全体で学習用入力文に出現する単語ごとに確率を計算することにより2時刻目(t=2)における単語の確率分布を算出すると共に、学習用入力文60Aの中間表現を更新する。その上で、LSTM15Bは、2時刻目における単語の確率分布を生成部16へ出力すると共に、2時刻目に更新された中間表現を次段のLSTM15Cへ出力する。
このように2時刻目における単語の確率分布が出力された場合、生成部16は、当該確率分布で確率が最大である単語、本例では「ゴム」を要約文の先頭から2番目の単語として生成し、2時刻目に生成された要約文の先頭から2番目の単語を算出部17へ出力する。そして、算出部17は、正解要約文60Bに含まれる単語のうち2時刻目に対応する先頭から2番目の単語「ゴム」と、2時刻目に生成された単語「ゴム」とから2時刻目における損失を算出する。この場合、2時刻目の正解の単語「ゴム」の確率が1に近く、かつその他の単語の確率が0に近いほど小さい損失が算出される。その後、入力制御部13は、レジスタに保持された残り文字数の値「21」から2時刻目に生成された単語「ゴム」の文字数「2」を減算することにより、残り文字数の値を「19」へ更新する。
以上の処理がLSTM15Nから文末記号「EOS」が出力される14時刻目まで繰り返し実行される。その後、更新部18は、1時刻目~14時刻目の損失に基づいて対数尤度の最適化を実行することにより、RNNデコーダのモデルを更新するパラメータを算出した上で、モデル記憶部12に記憶されたモデルのパラメータを対数尤度の最適化により求められたパラメータに更新する。
このように、図4Aに示す学習用入力文60Aおよび図4Bに示す正解要約文60Bの学習サンプルd1を含む学習データDがモデル学習に用いられた場合、あくまで一例として、学習済みモデルには、図6に示す辞書が構築される。図6は、モデルの辞書の一例を示す図である。図6には、1つの側面として、学習サンプルd1に含まれる学習用入力文60Aの単語の一部が抜粋して示されているが、学習データD全体に出現する単語が要約文の単語として生成する確率を算出する対象として辞書化される。例えば、図6に示すように、学習済みモデルの辞書には、「記者」、「会見」、「新製品」、「は」、「そのまま」、「既製品」、「コスト」、「注目」、「吉田」、「ゴム」、「パフォーマンス」などが含まれる。このような単語の辞書を搭載する学習済みモデルでは、図5に示された通り、固有表現「吉田」を含む入力文が入力される場合、単語「吉田」の次に単語「ゴム」が生成される生成確率が高くなるようなモデル学習が学習サンプルd1により実現されている。
[生成装置30の構成]
図1に示すように、生成装置30は、入力制御部31と、エンコーダ実行部32と、デコーダ実行部33と、生成部34と、抽出部35と、検出部36と、置換部37とを有する。なお、生成装置30は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
図1に示す入力制御部31、エンコーダ実行部32、デコーダ実行部33、生成部34、抽出部35、検出部36及び置換部37などの機能部は、あくまで例示として、下記のハードウェアプロセッサにより仮想的に実現される。このようなプロセッサの例として、DLUを始め、GPGPUやGPUクラスタなどが挙げられる。この他、CPU、MPUなどが挙げられる。すなわち、プロセッサがRAM等のメモリ上に上記の要約生成プログラムをプロセスとして展開することにより、上記の機能部が仮想的に実現される。ここでは、プロセッサの一例として、DLUやGPGPU、GPUクラスタ、CPU、MPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより上記の機能部が実現されることとしてもかまわない。この他、上記の機能部は、ASICやFPGAなどのハードワイヤードロジックによって実現されることを妨げない。
なお、ここでは、あくまで一例として、上記の要約生成サービスに対応する機能がパッケージ化された要約生成プログラムが実行される例を挙げたが、上記の固有表現の置換機能などの単位でプログラムモジュールが実行されたり、ライブラリが参照されたりすることとしてもかまわない。
入力制御部31は、モデルに対する入力を制御する処理部である。
一実施形態として、入力制御部31は、要約文生成のリクエストを受け付けた場合に処理を起動する。このように処理が起動されると、入力制御部31は、要約文生成の対象とする入力文と共に、学習済みモデルに生成させる要約文の上限文字数の指定を受け付ける。その後、入力制御部31は、入力文をRNNエンコーダへ入力する。これによって、入力文の単語列がベクトル化されたベクトル、いわゆる中間表現がRNNエンコーダからRNNデコーダへ出力される。これと同時または前後して、入力制御部31は、RNNデコーダに文末記号と呼ばれるEOSを出力させるまでの残り文字数を保持するレジスタの値を上記の指定の上限文字数に初期化する。これ以降のRNNデコーダへの入力、RNNデータからの出力、それを用いた要約文の生成についてはその詳細を後述する。
エンコーダ実行部32は、RNNエンコーダを実行する処理部である。
一実施形態として、エンコーダ実行部32は、モデル記憶部12に記憶された学習済みモデルのモデル情報にしたがって、入力制御部31により入力された入力文の単語数kに対応するK個のLSTMをワークエリア上に展開することにより、これらK個のLSTMをRNNエンコーダとして機能させる。このRNNエンコーダでは、入力制御部31による入力制御にしたがって、入力文の先頭の単語から順に、入力文の先頭からk番目の単語が当該k番目の単語に対応するLSTMへ入力されると共に、k-1番目の単語に対応するLSTMの出力がk番目の単語に対応するLSTMへ入力される。このような入力を先頭の単語に対応するLSTMから末尾であるK番目の単語に対応するLSTMまで繰り返すことにより、入力文のベクトル、いわゆる中間表現が得られる。このようにRNNエンコーダにより生成された入力文の中間表現がRNNデコーダへ入力される。
デコーダ実行部33は、RNNデコーダを実行する処理部である。
一実施形態として、デコーダ実行部33は、モデル記憶部12に記憶された学習済みモデルのモデル情報にしたがって、EOSのタグが出力されるまでLSTMをワークエリア上に展開することにより、EOSのタグが出力されるまで展開されたL個のLSTMをRNNデコーダとして機能させる。これらRNNデコーダには、入力制御部31の制御にしたがって、RNNエンコーダから入力文の中間表現が入力されると共に、L個のLSTMごとに入力制御部31からEOSのタグを出力させるまでの残り文字数が入力される。これらの入力にしたがってL個のLSTMを動作させることにより、RNNデコーダは、L個のLSMTごとに単語の確率分布を生成部34へ出力する。
生成部34は、要約文を生成する処理部である。
一実施形態として、生成部34は、RNNデコーダのl番目のLSTMから単語の確率分布が出力された場合、当該確率分布で確率が最大である単語を要約文の先頭からl番目の単語として生成する。その後、生成部34は、RNNデコーダのL番目のLSTMからEOSのタグが出力された場合、先頭のLSTMからL番目のLSTMから順に生成された単語を結合することにより要約文を生成し、生成された要約文を抽出部35へ出力する。
[要約文生成の具体例]
以下、図7を用いて、学習済みモデルを用いた要約文生成の具体例を説明する。
図7は、入力文および要約文の一例を示す図である。図7には、図6に示された単語の辞書を搭載する学習済みモデルに入力文40G1が入力される例が示されている。この入力文40G1は、図3に示された入力文40Gの記事全文に対応する。図7に示すように、入力文40G1が学習済みモデルに入力された場合、学習済みモデルは、要約文40Yを出力する。ここで、入力文40G1および要約文40Yの間で共通する単語「吉田」を含む固有表現に着目する。すると、入力文40G1に含まれる固有表現「吉田○○」に対応する要約文40Yの部分が「吉田ゴム」と出力されており、入力文40G1の本来の趣旨から乖離していることがわかる。これは、図6に示された単語の辞書に固有表現「○○」がない未知語であることが一因である。そして、図5に示された通り、学習済みモデルでは、固有表現「吉田」を含む入力文が入力される場合、単語「吉田」の次に単語「ゴム」が生成される生成確率が高くなるようなモデル学習が学習サンプルd1により実現されている。この結果、要約文40Yにおいて「吉田○○」と出力すべき箇所が誤って「吉田ゴム」と出力されている。
以下、あくまで1つの側面として、未知語の箇所が誤った要約文40Yが学習済みモデルから出力される場合でも、未知語の「○○」を含めて要約文を生成できる固有表現の置換機能に対応する各機能部について説明を続ける。
抽出部35は、固有表現を抽出する処理部である。
一実施形態として、抽出部35は、入力文および要約文のテキストごとに当該テキストの形態素解析を実行する。この形態素解析の結果を用いて、抽出部35は、テキストに含まれる文字ごとに当該文字の位置に対応する固有表現NEに関するラベル、例えば固有表現に該当するラベル「Y」または固有表現に該当しないラベル「N」を付与するラベリング処理を実行する。以下、固有表現NEに関するラベルのことを「NEラベル」と記載する場合がある。このラベリング処理には、任意の固有表現抽出のエンジンを用いることができ、オープンソースのソフトウェアであってかまわない。これによって、入力文および要約文の文字ごとに固有表現が抽出される。
検出部36は、要約文および入力文の間で対応する第1の固有表現および第2の固有表現を検出する処理部である。
一実施形態として、検出部36は、要約文および入力文の間で固有表現の全体集合の類似度が所定の閾値以上であるか否かにより、第1の固有表現および第2の固有表現を検出する。あくまで一例として、検出部36は、要約文および入力文ごとに、要約文または入力文のうちNEラベルが「N」から「Y」へ変わってから「N」に戻るまでの区間の文字列を固有表現の全体集合として抽出する。その上で、検出部36は、要約文の固有表現の全体集合を1つ選択する。続いて、検出部36は、入力文の固有表現の全体集合ごとに当該入力文の固有表現の全体集合および選択中である要約文の固有表現の全体集合の間で類似度が所定の閾値L以上であるか否かを判定する。この結果、類似度が閾値L以上である要約文の固有表現の全体集合および入力文の固有表現の全体集合を第1の固有表現および第2の固有表現として検出する。
このような固有表現間の類似度には、一例として、ジャカード係数を用いることができる。例えば、ジャカード係数は、下記の式(1)により算出することができる。また、類似度は、コサインメジャーを用いることもできる。例えば、コサインメジャーは、下記の式(2)により算出することができる。ここで、下記の2つの式における「|YNE[y]∧GNE[h]|」は、2つの固有表現の全体集合における共通の文字数を指す。また、「|YNE[y]|」および「|GNE[h]|」は、要約文または入力文の固有表現の全体集合の文字数を指す。また、下記の式(1)における「max(A,B)」は、AとBのうち最大の値を戻り値として返す関数を指す。また、下記の式(2)における「sqrt(A)」は、Aの平方根を指す。
|YNE[y]∧GNE[h]|/max(|YNE[y]|,|GNE[h]|)・・・(1)
|YNE[y]∧GNE[h]|/(sqrt(|YNE[y]|)sqrt|GNE[h]|))・・・(2)
例えば、YNEを「吉田ゴム」とし、GNEを「吉田○○」としたとき、|YNE[y]∧GNE[h]|は、「吉田」の2文字となる。このため、ジャカード係数は、2/max(4,4)の計算により、「1/2」と算出できる。また、コサインメジャーは、2/(√2×√2)の計算により、「1」と算出できる。例えば、閾値Lを「0.3」や「0.5」などの値に設定しておくことにより、「吉田ゴム」を第1の固有表現として検出し、「吉田○○」を第2の固有表現として検出できる。
なお、2つの固有表現の全体集合の間で文字数に差がある場合、文字数が多い方の全体集合から文字数が少ない方と同数の文字数の部分集合を抽出し、抽出された固有表現の部分集合ごとに文字数が少ない方の固有表現の全体集合との類似度を算出することとしてもかまわない。この場合、閾値Lを超える類似度のうち最高の類似度を持つ組合せを第1の固有表現および第2の固有表現として検出することとすればよい。また、ここでは、類似度の計算が文字を最小単位として行う場合を例示したが、単語を最小単位として行うこととしてもかまわない。
置換部37は、第1の固有表現の文字列を第2の固有表現の文字列に置換する処理部である。
一実施形態として、置換部37は、検出部36により第1の固有表現および第2の固有表現が抽出された場合、要約文および入力文の間で各固有表現に隣接する文字列が類似するか否かを判定する。例えば、修飾部と被修飾部の係り受けは先行する文節から後続する文節へ行われる側面から、置換部37は、第1の固有表現および第2の固有表現の前に隣接する所定長Nの文字列の類似度が所定の閾値Cであるか否かを判定する。このとき、各固有表現の前に隣接する所定長Nの文字列の類似度が閾値C以上である場合、要約文の第1の固有表現および入力文の第2の固有表現が対応関係にある可能性が推定できる。この場合、置換部37は、要約文のうち第1の固有表現を含む文字列を、入力文のうち第2の固有表現を含む文字列に置換する。
これら抽出部35、検出部36及び置換部37の処理により、図7を用いて説明した事例、すなわち未知語「○○」の箇所に誤り「ゴム」がある要約文40Yが学習済みモデルから出力される場合でも、未知語の「○○」を含めて要約文を生成できる。
すなわち、図3を用いて説明した通り、まず、入力文40Gおよび要約文40Yから固有表現が抽出される。その上で、要約文40Yからは、共通の単語「吉田」を含む固有表現「吉田ゴム」が第1の固有表現として絞り込まれる。一方、入力文40Gの該当部分を太字で示す通り、共通の単語「吉田」を含む固有表現「吉田○○」が第2の固有表現として絞り込まれる。さらに、「吉田ゴム」および「吉田○○」の2つの固有表現の前に隣接する所定長Nの文字列「同校で防災教室の講師を務めた」が一致することから、類似度がジャカード係数およびコサインメジャーとも閾値C以上である1と確認できる。このため、要約文40Yの固有表現「吉田ゴム」は、入力文40Gの固有表現「吉田○○」に対応する可能性が高いと推定できる。このような確認が行われた後、図3に白黒の反転表示で示された文字列42Y「同校で防災教室の講師を務めた吉田○○」が、図3に斜体字で示された文字列42G「同校で防災教室の講師を務めた吉田○○」に置換される。
したがって、学習済みモデルの未知語「○○」の固有表現が入力文40Gを用いて修正された修正要約文43Y「15年11月に同校で防災教室の講師を務めた吉田○○が指摘」を生成して所定の出力先、例えば生成装置30に接続された端末装置等へ出力できる。
[処理の流れ]
図8は、実施例1に係る要約生成処理の手順を示すフローチャートである。この処理は、要約文および入力文から固有表現を抽出する前処理が実行された後に実行される。ここで、図8に示す要約生成処理で用いられるパラメータの説明を行う。例えば、「g」は、入力文Gの固有表現GNEの位置を指示する変数を指し、例えば、「0」が初期値に設定される。また、「y」は、要約文Yの固有表現YNEの位置を指示する変数を指す。これらの変数のカウンタは図示しないレジスタ等に保持される。
図8に示すように、検出部36は、要約文Yの固有表現YNEの位置yを「1」に初期化すると共に入力文Gの固有表現GNEの位置gをインクリメントする(ステップS101)。続いて、検出部36は、入力文Gのg番目の固有表現GNE[g]と、要約文Yのy番目の固有表現YNE[y]との類似度が閾値L以上であるか否かを判定する。
このとき、GNE[g]およびYNE[y]の類似度が閾値L以上である場合(ステップS102Yes)、YNE[y]が第1の固有表現として検出されると共にGNE[g]が第2の固有表現として検出される。この場合、置換部37は、GNE[g]およびYNE[y]の前に隣接する所定長Nの文字列の類似度が閾値C以上であるか否かを判定する(ステップS103)。
ここで、GNE[g]およびYNE[y]の前に隣接する所定長Nの文字列の類似度が閾値C以上である場合(ステップS103Yes)、GNE[g]およびYNE[y]が対応関係にあると推定できる。この場合、置換部37は、要約文Y中のy番目の固有表現YNE[y]を入力文G中のg番目の固有表現GNE[g]に置換し(ステップS104)、ステップS105の処理へ移行する。
一方、GNE[g]およびYNE[y]の類似度が閾値L以上でない場合、あるいはGNE[g]およびYNE[y]の前に隣接する所定長Nの文字列の類似度が閾値C以上でない場合(ステップS102NoまたはステップS103No)、ステップS104の処理をスキップしてステップS105の処理へ移行する。
そして、検出部36は、要約文Yの固有表現YNEの位置yをインクリメントする(ステップS105)。その後、要約文Yの固有表現YNEの位置yが要約文Yの固有表現の数|YNE|と等しくなるまで(ステップS106Yes)、上記のステップS102~上記のステップS105までの処理を繰り返して実行する。
また、要約文Yの固有表現YNEの位置yが要約文Yの固有表現の数|YNE|になると(ステップS106No)、入力文Gの固有表現GNEの位置gが入力文Gの固有表現の数|GNE|と等しくなるまで(ステップS107Yes)、上記のステップS101~上記のステップS106までの処理を繰り返して実行する。
その後、入力文Gの固有表現GNEの位置gが入力文Gの固有表現の数|GNE|と等しくなると(ステップS107No)、処理を終了する。
[効果の一側面]
上述してきたように、本実施例に係る生成装置30は、入力文および要約文の間で共通の単語を含む固有表現が存在する場合、要約文の固有表現の文字列を入力文の固有表現の文字列に置換する。したがって、本実施例に係る生成装置30によれば、モデルの辞書にない未知語を含めて要約文を生成することが可能である。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[固有表現の検出方法の応用例]
上記の実施例1では、要約文および入力文に含まれる固有表現を検索キーとし、第1の固有表現および第2の固有表現を検出する例を説明したが、他の方法によって第1の固有表現および第2の固有表現を検出することもできる。例えば、生成装置30は、入力文および要約文の先頭または末尾から順に検索された一致文字列の末尾または先頭の単語と、一致文字列の末尾または先頭に隣接する単語とが固有表現であるか否かにより、第1の固有表現及び第2の固有表現を検出することもできる。
図9は、固有表現の検出方法の応用例を示す図である。図9の上段には、図3に示された入力文40Gに含まれる文字ごとに入力文40G中の位置gおよびNEタグが示されている。一方、図9の下段には、図3に示された要約文40Yに含まれる文字ごとに要約文40Y中の位置yおよびNEタグが示されている。
例えば、入力文40Gおよび要約文40Yの先頭から順に検索が行われる場合、次の通りとなる。すなわち、図9に示すように、入力文40Gにおける位置g=38から位置g=45までの文字列と、要約文40Yにおける位置y=15から位置y=23までの文字列とが一致する。その一方で、入力文40Gにおける位置g=46の文字「○」と、要約文40Yの位置y=24の文字「ゴ」とが一致しない。これによって、図9に示す枠81で囲われた一致文字列「講師を務めた吉田」が検索結果として得られる。
そして、一致文字列が得られた場合、一致文字列の末尾の単語「吉田」と、一致文字列の末尾に隣接する単語、すなわち枠82で囲われた入力文40Gの単語「○○」及び要約文40Yの単語「ゴム」とが固有表現であるか否かが判定される。これら単語「吉田」、単語「○○」及び単語「ゴム」のNEタグは、いずれも「Y」であるので、固有表現であることが確認できる。この場合、要約文40Yのうち一致文字列の末尾の単語「吉田」および一致文字列の末尾に隣接する単語「ゴム」を含む文字列「吉田ゴム」が、入力文40Gのうち一致文字列の末尾の単語「吉田」および一致文字列の末尾に隣接する単語「○○」を含む文字列「吉田○○」に置換される。つまり、図9に示された破線の枠83Yで囲われた文字列「吉田ゴム」が、図9に実線の枠83Gで囲われた文字列「吉田○○」に置換される。
このような固有表現の置換方法のアルゴリズムの一例を図10に示す。図10は、実施例2に係る要約生成処理の手順を示すフローチャートである。この処理も、要約文および入力文から固有表現を抽出する前処理が実行された後に実行される。ここで、図10に示す要約生成処理で用いられるパラメータの説明を行う。例えば、「g」は、入力文Gの固有表現GNEの位置を指示する変数を指し、例えば、「1」が初期値に設定される。また、「y」は、要約文Yの固有表現YNEの位置を指示する変数を指す。さらに、「c」は、一致文字列の文字数を指す。また、「h」は、一致文字列の検索用のインデックスを指す。これらの変数のカウンタは図示しないレジスタ等に保持される。
図10に示すように、検出部36は、要約文Yの固有表現YNEの位置yを「1」に初期化し、一致文字列の文字数cを「0」に初期化すると共に一致文字列の検索用のインデックスhを「g」に初期化する(ステップS301)。
続いて、検出部36は、入力文Gにおけるh番目の文字と、要約文Yにおけるy番目の文字とが同じ文字であるか否か、すなわちG[h]==Y[y]であるか否かを判定する(ステップS302)。なお、G[h]==Y[y]でない場合(ステップS302No)、ステップS308の処理へ移行する。
このとき、G[h]==Y[y]である場合(ステップS302Yes)、検出部36は、要約文Yの固有表現YNEの位置y、一致文字列の文字数cおよび一致文字列の検索用のインデックスhをインクリメントする(ステップS303)。
そして、検出部36は、一致文字列の文字数cが一致文字列と比較する閾値Lよりも小さいか否か、すなわち一致文字列の文字数c<閾値Lであるか否かを判定する(ステップS304)。なお、一致文字列の文字数c<閾値Lである場合(ステップS304Yes)、上記のステップS302の処理に戻る。
一方、一致文字列の文字数c<閾値Lでない場合(ステップS304No)、検出部36は、入力文Gにおけるh番目の文字と、要約文Yにおけるy番目の文字とが異なる文字であるか否か、すなわちG[h]!=Y[y]であるか否かを判定する(ステップS305)。なお、G[h]!=Y[y]でない場合(ステップS305No)、上記のステップS303の処理に戻る。
このとき、G[h]!=Y[y]である場合(ステップS305Yes)、検出部36は、入力文Gにおけるh-1番目の文字と、入力文Gにおけるh番目の文字と、要約文Yにおけるy番目の文字とのNEラベルが固有表現に該当するラベル「Y」であるか否かを判定する(ステップS306)。なお、3つの文字のNEラベルが「Y」でない場合(ステップS306No)、ステップS308の処理へ移行する。
ここで、入力文Gにおけるh-1番目の文字と、入力文Gにおけるh番目の文字と、要約文Yにおけるy番目の文字とのNEラベルがラベル「Y」である場合(ステップS306Yes)、次のような処理を実行する。すなわち、置換部37は、要約文Y中の位置yの文字Y[y]を含む固有表現の文字列を入力文G中の位置h-1の文字G[h-1]を含む固有表現の文字列に置換する(ステップS307)。
その後、検出部36は、入力文Gの位置gをインクリメントする(ステップS308)。そして、入力文Gの位置gが入力文Gの文字数|G|に達するまで(ステップS309Yes)、上記のステップS301から上記のステップS308までの処理が繰り返し実行される。最後に、入力文Gの位置gが入力文Gの文字数|G|に達すると(ステップS309No)、処理を終了する。
このような処理によって、図8に示す要約生成処理と同様、モデルの辞書にない未知語を含めて要約文を生成することが可能である。
[適用条件の応用例]
実施例1および実施例2では、要約文40Yおよび入力文40Gの間で固有表現に隣接する文字列が類似することを第1の固有表現および第2の固有表現の置換に関する適用条件として設定する例を挙げたが、他の加重条件を設定することとしてもかまわない。例えば、固有表現抽出では、文字や形態素ごとに上記のNEラベルの他にも、人名や地名、組織名、数値表現などのクラスも得られるので、これを適用条件の設定に用いることができる。例えば、第1の固有表現および第2の固有表現の間でクラスが共通であること、さらには、第1の固有表現および第2の固有表現に含まれる文字または形態素が分類されたクラスが全て同一であることを適用条件として設定することもできる。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、入力制御部31、エンコーダ実行部32、デコーダ実行部33、生成部34、抽出部35、検出部36または置換部37を生成装置30の外部装置としてネットワーク経由で接続するようにしてもよい。あくまで一例として、入力制御部31、エンコーダ実行部32、デコーダ実行部33及び生成部34が生成装置30の外部装置に備わることとしてもかまわない。また、入力制御部31、エンコーダ実行部32、デコーダ実行部33、生成部34、抽出部35、検出部36または置換部37を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の生成装置30の機能を実現するようにしてもよい。あくまで一例として、入力制御部31、エンコーダ実行部32、デコーダ実行部33及び生成部34を有する装置と、抽出部35、検出部36及び置換部37を有する装置とがネットワーク経由で協働することとしてもよい。
[要約生成プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図11を用いて、上記の実施例と同様の機能を有する要約生成プログラムを実行するコンピュータの一例について説明する。
図11は、実施例1及び実施例2に係る要約生成プログラムを実行するコンピュータのハードウェア構成例を示す図である。図11に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110~180の各部はバス140を介して接続される。
HDD170には、図11に示すように、上記の実施例1で示した入力制御部31、エンコーダ実行部32、デコーダ実行部33、生成部34、抽出部35、検出部36及び置換部37と同様の機能を発揮する要約生成プログラム170aが記憶される。この要約生成プログラム170aは、図1に示した入力制御部31、エンコーダ実行部32、デコーダ実行部33、生成部34、抽出部35、検出部36及び置換部37の各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
このような環境の下、CPU150は、HDD170から要約生成プログラム170aを読み出した上でRAM180へ展開する。この結果、要約生成プログラム170aは、図11に示すように、要約生成プロセス180aとして機能する。この要約生成プロセス180aは、RAM180が有する記憶領域のうち要約生成プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、要約生成プロセス180aが実行する処理の一例として、図8や図10に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記の要約生成プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に要約生成プログラム170aを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から要約生成プログラム170aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに要約生成プログラム170aを記憶させておき、コンピュータ100がこれらから要約生成プログラム170aを取得して実行するようにしてもよい。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)入力文および前記入力文が入力されたモデルが出力する要約文の間で共通の単語を含む固有表現が存在する場合、前記要約文のうち前記共通の単語を含む第1の固有表現の文字列を、前記入力文のうち前記共通の単語を含む第2の固有表現の文字列に置換する、
処理をコンピュータが実行することを特徴とする要約生成方法。
(付記2)前記入力文および前記要約文の間で固有表現の全体集合の類似度が所定の閾値以上であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する処理を前記コンピュータがさらに実行することを特徴とする付記1に記載の要約生成方法。
(付記3)前記置換する処理は、前記第1の固有表現の前又は後に隣接する第1の隣接文字列と、前記第2の固有表現の前又は後に隣接する第2の隣接文字列との類似度が所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする付記2に記載の要約生成方法。
(付記4)前記入力文および前記要約文の先頭または末尾から順に検索された一致文字列の末尾または先頭の単語と、前記一致文字列の末尾または先頭に隣接する単語とが固有表現であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する処理を前記コンピュータがさらに実行することを特徴とする付記1に記載の要約生成方法。
(付記5)前記置換する処理は、前記一致文字列の長さが所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする付記4に記載の要約生成方法。
(付記6)入力文および前記入力文が入力されたモデルが出力する要約文の間で共通の単語を含む固有表現が存在する場合、前記要約文のうち前記共通の単語を含む第1の固有表現の文字列を、前記入力文のうち前記共通の単語を含む第2の固有表現の文字列に置換する、
処理をコンピュータに実行させることを特徴とする要約生成プログラム。
(付記7)前記入力文および前記要約文の間で固有表現の全体集合の類似度が所定の閾値以上であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する処理を前記コンピュータにさらに実行させることを特徴とする付記6に記載の要約生成プログラム。
(付記8)前記置換する処理は、前記第1の固有表現の前又は後に隣接する第1の隣接文字列と、前記第2の固有表現の前又は後に隣接する第2の隣接文字列との類似度が所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする付記7に記載の要約生成プログラム。
(付記9)前記入力文および前記要約文の先頭または末尾から順に検索された一致文字列の末尾または先頭の単語と、前記一致文字列の末尾または先頭に隣接する単語とが固有表現であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する処理を前記コンピュータにさらに実行させることを特徴とする付記6に記載の要約生成プログラム。
(付記10)前記置換する処理は、前記一致文字列の長さが所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする付記9に記載の要約生成プログラム。
(付記11)入力文および前記入力文が入力されたモデルが出力する要約文の間で共通の単語を含む固有表現が存在する場合、前記要約文のうち前記共通の単語を含む第1の固有表現の文字列を、前記入力文のうち前記共通の単語を含む第2の固有表現の文字列に置換する置換部、
を有することを特徴とする要約生成装置。
(付記12)前記入力文および前記要約文の間で固有表現の全体集合の類似度が所定の閾値以上であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する検出部をさらに有することを特徴とする付記11に記載の要約生成装置。
(付記13)前記置換部は、前記第1の固有表現の前又は後に隣接する第1の隣接文字列と、前記第2の固有表現の前又は後に隣接する第2の隣接文字列との類似度が所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする付記12に記載の要約生成装置。
(付記14)前記入力文および前記要約文の先頭または末尾から順に検索された一致文字列の末尾または先頭の単語と、前記一致文字列の末尾または先頭に隣接する単語とが固有表現であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する検出部をさらに有することを特徴とする付記11に記載の要約生成装置。
(付記15)前記置換部は、前記一致文字列の長さが所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする付記14に記載の要約生成装置。
10 学習装置
11 学習データ記憶部
12 モデル記憶部
13 入力制御部
14 エンコーダ実行部
15 デコーダ実行部
16 生成部
17 算出部
18 更新部
30 生成装置
31 入力制御部
32 エンコーダ実行部
33 デコーダ実行部
34 生成部
35 抽出部
36 検出部
37 置換部

Claims (6)

  1. 入力文および前記入力文が入力されたモデルが出力する要約文の間で共通の単語を含む固有表現が存在する場合、前記要約文のうち前記共通の単語を含む第1の固有表現の文字列を、前記入力文のうち前記共通の単語を含む第2の固有表現の文字列に置換する、
    処理をコンピュータが実行することを特徴とする要約生成方法。
  2. 前記入力文および前記要約文の間で固有表現の全体集合の類似度が所定の閾値以上であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する処理を前記コンピュータがさらに実行することを特徴とする請求項1に記載の要約生成方法。
  3. 前記置換する処理は、前記第1の固有表現の前又は後に隣接する第1の隣接文字列と、前記第2の固有表現の前又は後に隣接する第2の隣接文字列との類似度が所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする請求項2に記載の要約生成方法。
  4. 前記入力文および前記要約文の先頭または末尾から順に検索された一致文字列の末尾または先頭の単語と、前記一致文字列の末尾または先頭に隣接する単語とが固有表現であるか否かにより、前記第1の固有表現および前記第2の固有表現を検出する処理を前記コンピュータがさらに実行することを特徴とする請求項1に記載の要約生成方法。
  5. 前記置換する処理は、前記一致文字列の長さが所定の閾値以上であることを条件に前記第1の固有表現の文字列を前記第2の固有表現の文字列に置換することを特徴とする請求項4に記載の要約生成方法。
  6. 入力文および前記入力文が入力されたモデルが出力する要約文の間で共通の単語を含む固有表現が存在する場合、前記要約文のうち前記共通の単語を含む第1の固有表現の文字列を、前記入力文のうち前記共通の単語を含む第2の固有表現の文字列に置換する、
    処理をコンピュータに実行させることを特徴とする要約生成プログラム。
JP2018205125A 2018-10-31 2018-10-31 要約生成方法及び要約生成プログラム Active JP7135730B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018205125A JP7135730B2 (ja) 2018-10-31 2018-10-31 要約生成方法及び要約生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205125A JP7135730B2 (ja) 2018-10-31 2018-10-31 要約生成方法及び要約生成プログラム

Publications (2)

Publication Number Publication Date
JP2020071668A JP2020071668A (ja) 2020-05-07
JP7135730B2 true JP7135730B2 (ja) 2022-09-13

Family

ID=70549532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205125A Active JP7135730B2 (ja) 2018-10-31 2018-10-31 要約生成方法及び要約生成プログラム

Country Status (1)

Country Link
JP (1) JP7135730B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7433201B2 (ja) 2020-12-07 2024-02-19 三菱電機株式会社 同期機の励磁装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326952A (ja) 2004-05-12 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> 概念辞書への単語登録方法、装置、およびプログラム
US7398196B1 (en) 2000-09-07 2008-07-08 Intel Corporation Method and apparatus for summarizing multiple documents using a subsumption model
JP2013120547A (ja) 2011-12-08 2013-06-17 Nomura Research Institute Ltd 談話要約テンプレート作成システムおよび談話要約テンプレート作成プログラム
JP2018123139A (ja) 2012-11-14 2018-08-09 スミス アンド ネフュー インコーポレイテッド 安定なサーモリシンヒドロゲル

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6810757B2 (ja) * 2016-12-27 2021-01-06 シャープ株式会社 応答装置、応答装置の制御方法、および制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7398196B1 (en) 2000-09-07 2008-07-08 Intel Corporation Method and apparatus for summarizing multiple documents using a subsumption model
JP2005326952A (ja) 2004-05-12 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> 概念辞書への単語登録方法、装置、およびプログラム
JP2013120547A (ja) 2011-12-08 2013-06-17 Nomura Research Institute Ltd 談話要約テンプレート作成システムおよび談話要約テンプレート作成プログラム
JP2018123139A (ja) 2012-11-14 2018-08-09 スミス アンド ネフュー インコーポレイテッド 安定なサーモリシンヒドロゲル

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7433201B2 (ja) 2020-12-07 2024-02-19 三菱電機株式会社 同期機の励磁装置

Also Published As

Publication number Publication date
JP2020071668A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7211045B2 (ja) 要約文生成方法、要約文生成プログラム及び要約文生成装置
KR101813683B1 (ko) 커널 rdr을 이용한 태깅 말뭉치 오류 자동수정방법
CN109299228B (zh) 计算机执行的文本风险预测方法及装置
US20150170051A1 (en) Applying a Genetic Algorithm to Compositional Semantics Sentiment Analysis to Improve Performance and Accelerate Domain Adaptation
US11762926B2 (en) Recommending web API&#39;s and associated endpoints
Eskander et al. Foreign words and the automatic processing of Arabic social media text written in Roman script
JP6828335B2 (ja) 検索プログラム、検索装置および検索方法
JP5710581B2 (ja) 質問応答装置、方法、及びプログラム
CN109359290B (zh) 试题文本的知识点确定方法、电子设备及存储介质
JP2006252333A (ja) データ処理方法、データ処理装置およびそのプログラム
US20220414463A1 (en) Automated troubleshooter
JPWO2007097208A1 (ja) 言語処理装置、言語処理方法および言語処理用プログラム
CN107943940A (zh) 数据处理方法、介质、系统和电子设备
JP7272060B2 (ja) 生成方法、学習方法、生成プログラム、及び生成装置
JP5812534B2 (ja) 質問応答装置、方法、及びプログラム
JP2006285418A (ja) 情報処理装置および方法、並びにプログラム
JP7135730B2 (ja) 要約生成方法及び要約生成プログラム
JP7211011B2 (ja) 学習方法、学習プログラム及び生成方法
KR101983477B1 (ko) 단락 기반 핵심 개체 식별을 이용한 한국어 주어의 생략 성분 복원 방법 및 시스템
Pratheek et al. Prediction of answer keywords using char-RNN
März et al. Data centric domain adaptation for historical text with OCR errors
JP7099254B2 (ja) 学習方法、学習プログラム及び学習装置
Shahade et al. Deep learning approach-based hybrid fine-tuned Smith algorithm with Adam optimiser for multilingual opinion mining
Ning et al. Team peter-parker at semeval-2019 task 4: Bert-based method in hyperpartisan news detection
JP5506482B2 (ja) 固有表現抽出装置、文字列−固有表現クラス対データベース作成装置、固有表現抽出方法、文字列−固有表現クラス対データベース作成方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150