JP7130233B2 - 要約生成装置、および学習方法 - Google Patents

要約生成装置、および学習方法 Download PDF

Info

Publication number
JP7130233B2
JP7130233B2 JP2018147458A JP2018147458A JP7130233B2 JP 7130233 B2 JP7130233 B2 JP 7130233B2 JP 2018147458 A JP2018147458 A JP 2018147458A JP 2018147458 A JP2018147458 A JP 2018147458A JP 7130233 B2 JP7130233 B2 JP 7130233B2
Authority
JP
Japan
Prior art keywords
draft
elaboration
encoder
decoder
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018147458A
Other languages
English (en)
Other versions
JP2020024488A (ja
Inventor
龍 飯田
健太郎 鳥澤
カナサイ クルンカライ
鍾勲 呉
仁彦 淺尾
諒 石田
ジュリアン クロエツェー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2018147458A priority Critical patent/JP7130233B2/ja
Publication of JP2020024488A publication Critical patent/JP2020024488A/ja
Application granted granted Critical
Publication of JP7130233B2 publication Critical patent/JP7130233B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、要約生成装置、および学習方法に関する。
テキストを自動要約する伝統的な技術では、テキスト内の単語等の重要度を何らかの尺度に基づいて推定し、重要な単語が指定された単語数内におさまるようにテキスト内の文を「抜粋」する手法が主流であった。これに対し、近年のニューラルネットワークを用いた生成技術の発展にともない、自動要約の手法も伝統的な「抜粋」型の手法から、自然な文を「生成」する技術が開発されている。「生成」型の自動要約の既存技術では、エンコーダ・デコーダモデルと呼ばれる、入力テキストを再帰的ニューラルネットワークで読み込み、その読み込み結果を利用して別の再帰的ニューラルネットワークで最終的な要約結果を生成するモデルを基礎とした要約手法が知られている(たとえば、非特許文献1を参照)。非特許文献1には、特に注視(アテンション)と呼ばれる入力テキストとの対応関係を生成時に考慮することで、自動翻訳の場合と同様に生成結果の品質が向上することが記載されている。
Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, Caglar Gulcehre, and Bing Xiang. "Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond", In Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning, pages 280-290
従来型の自動要約の技術では、要約結果を最終的に一度だけ生成するが、その生成された要約結果に誤りが含まれる場合であっても、出力結果に変更が加えられることはない。特に、非特許文献1に記載されているようなエンコーダとデコータに基づく自動要約手法では、出力結果はある方向(例えば、文頭)から順に漸次的に単語が決定され、その決定された単語が次への入力となるため、一度誤った出力が混入すると、その誤りに依存してその後の単語選択が行われるという問題がある。
それゆえに、本発明の目的は、誤りの少ない要約を生成することができる要約生成装置、および要約生成装置のパラメータを学習する学習装置の学習方法を提供することである。
本発明のある局面の要約生成装置は、原文が入力される原文エンコーダと、原文エンコーダと接続される草稿デコーダとを含む草稿生成部と、草稿生成部と接続され、1段または複数段の推敲部を含む草稿改善部とを備える。推敲部は、草稿エンコーダと、草稿エンコーダと接続される推敲デコーダと、アテンション層とを含む。1段目の推敲部の草稿エンコーダは、草稿生成部の草稿デコーダの出力を受ける。2段目以降の推敲部の草稿エンコーダは、前段の推敲部の推敲デコーダの出力を受ける。最後段以外の推敲部の推敲デコーダの出力は、後段の推敲部の草稿エンコーダの入力と接続される。最後段の推敲部の推敲デコーダは、要約を出力する。草稿生成部の原文エンコーダおよび草稿デコーダのパラメータと、1段または複数段の推敲部の草稿エンコーダ、推敲デコーダ、およびアテンション層のパラメータとは、学習によって、草稿生成部の原文エンコーダに原文が入力されて、最後段の推敲部の推敲デコーダが要約を出力するように調整されている。
好ましくは、第x段の推敲部のアテンション層は、草稿生成部の出力である原文エンコーダの出力と、第x段の推敲部の草稿エンコーダの出力と、第x段の推敲部の推敲デコーダの出力とを用いて、アテンションの重みベクトルを算出して、第x段の推敲部の推敲デコーダへ出力されてなる。
好ましくは、草稿生成部は、さらに、原文の単語が草稿デコーダの出力に含まれるか否かを表わす一致情報を生成するマッチ部と、原文と一致情報とが入力される第2の原文エンコーダとを備える。第2の原文エンコーダの出力が草稿生成部の出力となる。
好ましくは、第x段の推敲部は、さらに、草稿生成部の出力と、第x段の推敲部の草稿エンコーダの出力とに基づいて、草稿生成部の出力をフィルタリングして、第x段の推敲部のアテンション層に送るゲートを含む。
好ましくは、第x段の推敲部は、さらに、草稿生成部の出力と、第x段の推敲部の草稿エンコーダの出力とに基づいて、第x段の推敲部の推敲デコータの初期状態を計算する演算部を含む。
本発明のある局面の学習方法は、原文が入力される原文エンコーダと、原文エンコーダと接続される草稿デコーダとを含む草稿生成部と、草稿生成部と接続され、1段または複数段の推敲部を含む草稿改善部とを備えた要約生成装置のパラメータを学習する学習装置における学習方法であって、推敲部は、草稿エンコーダと、草稿エンコーダと接続される推敲デコーダと、アテンション層とを含む、学習方法は、第1の学習において、M個のセットの原文と要約とからなる学習データを用いて、草稿生成部の原文エンコーダに原文が入力されて、草稿生成部の草稿デコーダが要約を出力するように、草稿生成部の原文エンコーダおよび草稿デコーダのパラメータを学習するステップと、学習されたパラメータを第2の学習における草稿生成部の原文エンコーダおよび草稿デコーダのパラメータの初期値に設定するステップと、第2の学習において、N個のセットの原文と要約とからなる学習データを用いて、草稿生成部の原文エンコーダに原文が入力されて、最後段の推敲部の推敲デコーダが要約を出力するように、草稿生成部の原文エンコーダおよび草稿デコーダ、1段または複数段の推敲部の草稿エンコーダ、推敲デコーダ、およびアテンション層のパラメータを学習するステップとを備える。
本発明によれば、誤りの少ない要約を生成することができる。
第1の実施形態の要約生成装置20の構成を表わす図である。 第1の実施形態の学習装置10の構成を表わす図である。 第1の実施形態の要約生成装置20の動作手順を表わすフローチャートである。 第1の実施形態の学習装置10の動作手順を表わすフローチャートである。 第2の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。 第3の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。 第4の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。 第5の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。 第6の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。 学習装置10および要約生成装置20の内部構成を表わす図である。 原文からコンパクトな回答を生成する実験の結果を表わす図である。 原文から解決策の要約を生成する実験の結果を表わす図である。
以下、実施の形態について、図面を参照して説明する。
非特許文献1に記載されているようなエンコーダとデコータに基づく自動要約手法では、原文の読み込みと要約の生成はそれぞれ一度行われるため、生成される要約に誤りが多く含まれる。本願の発明者は、以下に示す段階的に要約を生成する方法を考案した。
[第1の実施形態]
図1は、第1の実施形態の要約生成装置20の構成を表わす図である。
要約生成装置20は、草稿生成部ASTSと、草稿生成部ASTSと接続される草稿改善部CSとを備える。草稿改善部CSは、X段の推敲部BSTS-1~BSTS-Xを備える。X=1以上の自然数である。
草稿生成部ASTSは、原文エンコーダAEと、草稿デコーダADと、アテンション層AAとを備える。原文エンコーダAEと、草稿デコーダADとは、シーケンス・トウ・シーケンスモデルを構成する。以下の説明において、エンコーダまたはデコーダの隠れ層の状態とは、エンコーダまたはデコーダの出力を意味する。
原文エンコーダAEは、原文のシーケンスをエンコードする。
アテンション層AAは、原文エンコーダAEと、草稿デコーダADの隠れ層の状態とを用いて、アテンションの重みベクトルを計算する。
草稿デコーダADは、原文エンコーダAEと接続され、原文エンコーダAEの出力と、アテンション層AAからのアテンションの重みベクトルとを用いて、隠れ層の状態を計算して、草稿を表わすシーケンスを出力する。
第x段の推敲部BSTS-xは、ゲートGxと、草稿エンコーダBExと、推敲デコーダBDxと、アテンション層BAxとを備える。草稿エンコーダBExと、推敲デコーダBDxとは、シーケンス・トウ・シーケンスモデルを構成する。
第1段の推敲部BSTS-1の草稿エンコーダBE1は、草稿生成部ASTSの草稿デコーダADの出力を受けて、エンコードする。第x段の推敲部BSTS-x(x=2~X)の草稿エンコーダBExは、第(x-1)段の推敲部BSTS-(x-1)の推敲デコーダBD(x-1)の出力を受けて、エンコードする。
第x段のゲートGxは、草稿生成部ASTSの原文エンコーダAEの隠れ層の最終出力と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の最終出力とに基づいて、草稿生成部ASTSの原文エンコーダAEの各単語インデックスの隠れ層の状態をフィルタリングして、第x段の推敲部BSTS-xのアテンション層BAxに送る。
第x段の推敲部BSTS-xのアテンション層BAxは、ゲートGxでフィルタリングされた草稿生成部ASTSの原文エンコーダAEの隠れ層の状態と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の状態と、推敲デコーダBDxの隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、第x段の推敲部BSTS-xの推敲デコーダBDxへ出力する。推敲デコーダの初期状態は、例えば、ランダムデータが設定されていてよい。
最後段である第X段の推敲部BSTS-Xの推敲デコーダBDXは、草稿エンコーダBEXの出力と、第X段の推敲部BSTS-xのアテンション層BAXからの重みベクトルとに基づいて、隠れ層の状態を計算して、要約を表わすシーケンスを出力する。
最後段である第X段以外の推敲部BSTS-x(x=1~X-1)の推敲デコーダBDxは、草稿エンコーダBExの出力と、第x段の推敲部BSTS-xのアテンション層BAxからの重みベクトルとに基づいて、隠れ層の状態を計算して、推敲後の草稿のシーケンスを後段である第(x+1)段の推敲部BSTS-(x+1)の草稿エンコーダBE(x+1)の入力へ送る。
草稿生成部ASTSの原文エンコーダAEおよび草稿デコーダADのパラメータと、推敲部BSTS-x(x=1~X)の草稿エンコーダBEx、推敲デコーダBDx、およびアテンション層BAxのパラメータとは、学習によって、草稿生成部ASTSの原文エンコーダAEに原文が入力されて、最後段の推敲部BSTS-Xの推敲デコーダBDXが要約を出力するように調整されている。
以上のようにして、草稿生成部ASTSから出力される草稿を改善した要約が草稿改善部CSから出力される。
図2は、第1の実施形態の学習装置10の構成を表わす図である。
学習装置10は、草稿生成部ASTSと、草稿改善部CSとを備える。草稿改善部CSは、X段の推敲部BSTS-1~BSTS-Xと、学習データ記憶部13と、学習結果記憶部15とを備える。
草稿生成部ASTSは、原文エンコーダAEと、草稿デコーダADと、アテンション層AAとを備える。原文エンコーダAEと、草稿デコーダADとは、シーケンス・トウ・シーケンスモデルを構成する。
学習データ記憶部13は、原文と要約とからなる複数個の学習データセットを記憶する。
原文エンコーダAEは、学習データ記憶部13に記憶されている学習データセットの原文のシーケンスを受けて、エンコードする。
アテンション層AAは、原文エンコーダAEの隠れ層の状態と、草稿デコーダADの隠れ層の状態とを用いて、アテンションの重みベクトルを計算する。
草稿デコーダADは、原文エンコーダAEと接続され、原文エンコーダAEの出力と、学習データ記憶部13に記憶されている学習データセットの要約と、アテンション層AAからのアテンションの重みベクトルとを用いて、隠れ層の状態を計算して、草稿を表わすシーケンスを出力する。
第x段の推敲部BSTS-xは、ゲートGxと、草稿エンコーダBExと、推敲デコーダBDxと、アテンション層BAxとを備える。草稿エンコーダBExと、推敲デコーダBDxとは、シーケンス・トウ・シーケンスモデルを構成する。
第1段の推敲部BSTS-1の草稿エンコーダBE1は、草稿生成部ASTSの草稿デコーダADの出力を受けて、エンコードする。第x段の推敲部BSTS-x(x=2~X)の草稿エンコーダBExは、第(x-1)段の推敲部BSTS-(x-1)の推敲デコーダBD(x-1)の出力を受けて、エンコードする。
第x段のゲートGxは、草稿生成部ASTSの原文エンコーダAEの隠れ層の最終出力と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の最終出力とに基づいて、草稿生成部ASTSの原文エンコーダAEの各単語インデックスの隠れ層の状態をフィルタリングして、第x段の推敲部BSTS-xのアテンション層BAxに送る。
第x段の推敲部BSTS-xのアテンション層BAxは、ゲートGxにてフィルタリングされた草稿生成部ASTSの原文エンコーダAEの隠れ層の状態と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の状態と、推敲デコーダBDxの隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、第x段の推敲部BSTS-xの推敲デコーダBDxへ出力する。
最後段である第X段の推敲部BSTS-Xの推敲デコーダBDXは、学習データ記憶部13に記憶されている学習データセットの要約と、草稿エンコーダBEXの出力と、第X段の推敲部BSTS-xのアテンション層BAXからの重みベクトルとに基づいて、隠れ層の状態を計算して、要約を表わすシーケンスを出力する。
最後段である第X段以外の推敲部BSTS-x(x=2~X-1)の推敲デコーダBDxは、草稿エンコーダBExの出力と、第x段の推敲部BSTS-xのアテンション層BAxからのアテンションの重みベクトルとに基づいて、隠れ層の状態を計算して、推敲後の草稿のシーケンスを後段である第(x+1)段の推敲部BSTS-(x+1)の草稿エンコーダBE(x+1)の入力へ送る。
第1回目の学習によって、草稿生成部ASTSの原文エンコーダAE、アテンション層AAおよび草稿デコーダADのパラメータとは、草稿生成部ASTSの原文エンコーダAEに原文が入力されて、草稿デコーダADが要約を出力するように調整される。第2回目の学習によって、草稿生成部ASTSの原文エンコーダAEおよび草稿デコーダADのパラメータと、推敲部BSTS-x(x=1~X)の草稿エンコーダBEx、推敲デコーダBDx、およびアテンション層BAxのパラメータとは、草稿生成部ASTSの原文エンコーダAEに原文が入力されて、最後段の推敲部BSTS-Xの推敲デコーダBDXが要約を出力するように調整される。
学習結果記憶部15は、学習によって調整されたパラメータを記憶する。
図3は、第1の実施形態の要約生成装置20の動作手順を表わすフローチャートである。
図3を参照して、ステップS101において、草稿生成部ASTSにおいて以下が実行される。原文エンコーダAEが原文のシーケンスをエンコードする。アテンション層AAが、原文エンコーダAEの隠れ層の状態と草稿デコーダADの隠れ層の状態とを用いて、アテンションの重みベクトルを計算する。草稿デコーダADが、原文エンコーダAEの出力と、アテンション層AAからのアテンションの重みベクトルとを用いて、隠れ層の状態を計算して、草稿を表わすシーケンスを出力する。
ステップS102において、第1段の推敲部BSTS-1において以下が実行される。
草稿エンコーダBE1が、草稿生成部ASTSの草稿デコーダADの出力をエンコードする。
ゲートG1が、草稿生成部ASTSの原文エンコーダAEの隠れ層の最終出力と、第1段の推敲部BSTS-1の草稿エンコーダBE1の隠れ層の最終出力とに基づいて、草稿生成部ASTSの原文エンコーダAEの各単語インデックスの隠れ層の状態をフィルタリングして、第1段の推敲部BSTS-1のアテンション層BA1に送る。
第1段の推敲部BSTS-1のアテンション層BA1は、草稿生成部ASTSの原文エンコーダAEの隠れ層の状態と、第1段の推敲部BSTS-1の草稿エンコーダBE1の隠れ層の状態と、推敲デコーダBD1の隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、第1段の推敲部BSTS-1の推敲デコーダBD1へ出力する。
第1段の推敲部BSTS-1の推敲デコーダBD1は、草稿エンコーダBE1の出力と、第1段の推敲部BSTS-1のアテンション層BA1からのアテンションの重みベクトルとに基づいて、隠れ層の状態を計算して、草稿を表わすシーケンスを出力する。
ステップS103において、x=2に設定される。
ステップS104において、第x段の推敲部BSTS-xにおいて以下が実行される。
草稿エンコーダBExは、第(x-1)段の推敲部BSTS-(x-1)の推敲デコーダBD(x-1)の出力をエンコードする。
ゲートGxが、草稿生成部ASTSの原文エンコーダAEの隠れ層の最終出力と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の最終出力とに基づいて、草稿生成部ASTSの原文エンコーダAEの各単語インデックスの隠れ層の状態をフィルタリングして、第x段の推敲部BSTS-xのアテンション層BAxに送る。
第x段の推敲部BSTS-xのアテンション層BAxは、ゲートGxにてフィルタリングされた草稿生成部ASTSの原文エンコーダAEの隠れ層の状態と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の状態と、推敲デコーダBDxの隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、第x段の推敲部BSTS-xの推敲デコーダBDxへ出力する。
第x段の推敲部BSTS-xの推敲デコーダBDxは、草稿エンコーダBExの出力と、第x段の推敲部BSTS-xのアテンション層BAxからのアテンションの重みベクトルとに基づいて、隠れ層の状態を計算して、推敲後の草稿のシーケンスを出力する。x=X以外では、推敲後の草稿のシーケンスが、後段である第(x+1)段の推敲部BSTS-(x+1)の草稿エンコーダBE(x+1)の入力へ送られる。x=Xでは、推敲後の草稿のシーケンスが、要約を表わすシーケンスとして草稿改善部CSから出力される。
ステップS105において、x=Xの場合に、処理が終了する。x=Xでない場合に、処理がステップS106に進む。x=Xの場合は、最終の要約文が出力される。
ステップS106において、xがインクリメントされて、処理がステップS104に戻る。
図4は、第1の実施形態の学習装置10の動作手順を表わすフローチャートである。
ステップS201~S207において、第1の学習が実行され、ステップS209~S219において、第2の学習が実行される。ここで、第1の学習においては、全学習データセットのうちの半分を用いて実行され、第2の学習においては、全学習データセットを用いて実行する方法が採用されている。例えば、第1の学習において、J個のデータを用い、第2の学習においてK個のデータを用いる方法を利用することもできる。この時、J+Kが全学習データの数となる。
さらに、ここでの説明は、説明の都合上、学習データを1回だけ学習処理する方法での説明を行っているが、深層学習の通常の方法で、採用される方法(学習データセットをトレーニングデータとバリデーションデータに分けて、トレーニングデータにより学習処理を行い、その後、バリデーションデータによる確認を行って、誤差が所定範囲になるように、トレーニングデータによる学習と、バリデーションデータによる評価処理を繰り返す方法)を用いることもできる。
以下、図4に従い、学習処理の概要を説明する。
ステップS201において、s=1に設定される。
ステップS202において、学習データ記憶部13に記憶されている第s番目の学習データセットの原文が草稿生成部ASTSへ送られる。
ステップS203において、草稿生成部ASTSにおいて以下が実行される。原文エンコーダAEが、学習データ記憶部13に記憶されている学習データセットの原文のシーケンスをエンコードする。アテンション層AAが、原文エンコーダAEの隠れ層の状態と草稿デコーダADの隠れ層の状態とを用いて、アテンションの重みベクトルを計算する。草稿デコーダADが、学習データ記憶部13に記憶されている学習データセットの要約と、原文エンコーダAEの出力と、アテンション層AAからのアテンションの重みベクトルとを用いて、草稿を表わすシーケンスを出力する。
ステップS205において、第s番目の学習データセットの要約と、草稿生成部ASTSの草稿デコーダADの出力との誤差が最小となるように誤差逆伝搬法によって、原文エンコーダAE、草稿デコーダAD、およびアテンション層AAのパラメータを学習する。
ステップS206において、s≧M/2の場合に、処理がステップS208に進む。s≧M/2でない場合に、処理がステップS207に進む(Mは学習データの個数)。
ステップS207において、sがインクリメントされて、処理がステップS202に戻る。
ステップS208において、草稿生成部ASTSの原文エンコーダAE、草稿デコーダAD、およびアテンション層AAのパラメータをステップS205において学習されたパラメータに初期設定する。
ステップS209において、s=1に設定される。
ステップS210において、学習データ記憶部13に記憶されている第s番目の学習データセットの原文を草稿生成部ASTSへ送られる。
ステップS211において、草稿生成部ASTSにおいて以下が実行される。原文エンコーダAEが学習データ記憶部13に記憶されている学習データセットの原文のシーケンスをエンコードする。アテンション層AAが、原文エンコーダAEの隠れ層の状態と草稿デコーダADの隠れ層の状態とを用いて、アテンションの重みベクトルを計算する。草稿デコーダADが、原文エンコーダAEの出力と、アテンション層AAからのアテンションの重みベクトルとを用いて、隠れ層の状態を計算して、草稿を表わすシーケンスを出力する。
ステップS212において、第1段の推敲部BSTS-1において以下が実行される。
草稿エンコーダBE1が、草稿生成部ASTSの草稿デコーダADの出力をエンコードする。
ゲートG1が、草稿生成部ASTSの原文エンコーダAEの隠れ層の最終出力と、第1段の推敲部BSTS-1の草稿エンコーダBE1の隠れ層の最終出力とに基づいて、草稿生成部ASTSの原文エンコーダAEの各単語インデックスの隠れ層の状態をフィルタリングして、第1段の推敲部BSTS-1のアテンション層BA1に送る。
第1段の推敲部BSTS-1のアテンション層BA1は、ゲートG1にてフィルタリングされた草稿生成部ASTSの原文エンコーダAEの隠れ層の状態と、第1段の推敲部BSTS-1の草稿エンコーダBE1の隠れ層の状態と、推敲デコーダBD1の隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、第1段の推敲部BSTS-1の推敲デコーダBD1へ出力する。
第1段の推敲部BSTS-1の推敲デコーダBD1は、草稿エンコーダBE1の出力と、第1段の推敲部BSTS-1のアテンション層BA1からのアテンションの重みベクトルとに基づいて、隠れ層の状態を計算して、草稿を表わすシーケンスを出力する。
ステップS213において、x=2に設定される。
ステップS214において、第x段の推敲部BSTS-xにおいて以下が実行される。
草稿エンコーダBExは、第(x-1)段の推敲部BSTS-(x-1)の推敲デコーダBD(x-1)の出力をエンコードする。
ゲートGxが、草稿生成部ASTSの原文エンコーダAEの隠れ層の最終出力と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の最終出力とに基づいて、草稿生成部ASTSの原文エンコーダAEの各単語インデックスの隠れ層の状態をフィルタリングして、第x段の推敲部BSTS-xのアテンション層BAxに送る。
第x段の推敲部BSTS-xのアテンション層BAxは、ゲートGxにてフィルタリングされた草稿生成部ASTSの原文エンコーダAEの隠れ層の状態と、第x段の推敲部BSTS-xの草稿エンコーダBExの隠れ層の状態と、推敲デコーダBDxの隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、第x段の推敲部BSTS-xの推敲デコーダBDxへ出力する。
x=X以外の場合に、第x段の推敲部BSTS-xの推敲デコーダBDxは、草稿エンコーダBExの出力と、第x段の推敲部BSTS-xのアテンション層BAxからのアテンションの重みベクトルとに基づいて、隠れ層の状態を計算して、推敲後の草稿のシーケンスを後段である第(x+1)段の推敲部BSTS-(x+1)の草稿エンコーダBE(x+1)の入力へ送る。
x=Xの場合には、推敲部BSTS-Xの推敲デコーダBDXは、学習データ記憶部13に記憶されている学習データセットの要約と、草稿エンコーダBEXの出力と、第X段の推敲部BSTS-xのアテンション層BAXからのアテンションの重みベクトルとに基づいて、隠れ層の状態を計算して、要約を表わすシーケンスを出力する。
ステップS215において、x=Xの場合に、処理がステップS217に進む。x=Xでない場合に、処理がステップS216に進む。
ステップS216において、xがインクリメントされて、処理がステップS214に戻る。
ステップS217において、第s番目の学習データセットの要約と、推敲部BSTS-Xの推敲デコーダBDXの出力との誤差が最小となるように誤差逆伝搬法によって、草稿生成部ASTSの原文エンコーダAE、およびアテンション層AAと、推敲部BSTS-x(x=1~X)の草稿エンコーダBEx、推敲デコーダBDx、およびアテンション層BAxのパラメータを学習する。
ステップS218において、s>=Mの場合に、処理が終了する。s>=Mでない場合に、処理がステップS219に進む。
ステップS210において、sがインクリメントされて、処理がステップS210に戻る。
学習終了後の草稿生成部ASTSの原文エンコーダAEおよびアテンション層AAと、推敲部BSTS-x(x=1~X)の草稿エンコーダBEx、推敲デコーダBDx、およびアテンション層BAxのパラメータが学習結果記憶部15に記憶される。
本実施の形態では、草稿生成部から出力される草稿を1段または複数段の推敲部を含む草稿改善部によって改善することができる。
[第2の実施形態]
以下では、草稿改善部CSが1段の推敲部BSTS-1を含むものとして説明する。すなわち、X=1として説明する。
図5は、第2の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。草稿改善部CSは、第1段の推敲部BSTS-1を含む。図から明らかなように、エンコーダには、エンベディング層及び隠れ層が含まれ、デコーダには、エンベディング層、隠れ層、出力層が含まれている(図6から図9においても同様)。
なお、第2の実施形態におけるデコーダAD、BD1などの学習処理の詳細については周知の処理であるので、説明は省略する(図6から図9においても同様)。
草稿生成部ASTSは、原文が入力される原文エンコーダAEと、草稿が出力される草稿デコーダADと、アテンション層AAとを含む。原文エンコーダAEと、草稿デコーダADとは、シーケンス・トウ・シーケンスモデルを構成する。
原文エンコーダAEは、単語の並び(k=1~n)に沿って展開されたエンベディング層と、双方向のGRU(Gated Recurrent Unit)を有するリカレントニューラルネットワークとを備える。
エンベディング層は、単語のインデックスiにおいて、原文の単語wiを受けて、固定長の実数値ベクトルで表されるe(wi)を出力する。
単語のインデックスiにおいて、双方向のGRUを有するリカレントニューラルネットワークの隠れ層の状態hi srcは、式(A1)~(A13)によって表される。
Figure 0007130233000001
草稿デコーダADは、単語の並び(k=1~m)に沿って展開されたエンベディング層と、一方向のGRUを有するリカレントニューラルネットワークとを備える。
エンベディング層は、単語のインデックスtにおいて、要約生成時には、単語のインデックス(t-1)においてリカレントニューラルネットワークから出力される草稿の単語y′t-1を受けて、固定長の実数値ベクトルで表されるe(y′t-1)を出力する。
要約生成時には、単語のインデックスtにおいて、一方向のGRUを有するリカレントニューラルネットワークの隠れ層の状態(以下、草稿デコーダADの隠れ層の状態ともいう)st srcは、式(B1)~(B6)によって表される。
アテンション層AAは、草稿デコーダADの隠れ層の状態st srcと、原文エンコーダAEの隠れ層の状態hi src(i=1~n)とを用いてアテンションの重みベクトルdt srcを算出する。草稿デコーダADは、原文エンコーダAEの出力と、アテンション層AAからのアテンションの重みベクトルdt-1 srcとを用いて、隠れ層の状態st srcを計算して、草稿を表わすシーケンスを出力する。
Figure 0007130233000002
アテンション層AAは、式(B7)~(B10)によって式(B1)における文脈ベクトルdt srcを重みベクトルとして算出する。式(B8)におけるαt,i srcは、アテンション分布を表わし、アライメント重みベクトルとも呼ばれる。アテンション分布αt,i srcは、草稿デコーダADが、単語のインデックスtにおいて入力される単語wiを注視するスコアを表わす。アテンション分布αt,i srcは、草稿デコーダADの隠れ層の状態st srcと、原文エンコーダAEの隠れ層の状態hi srcとを用いて算出される。重みベクトルdt srcは、原文エンコーダAEのリカレントニューラルネットワークの隠れ層の状態hi src(i=1~n)の単語のインデックスtにおけるアテンション分布αt,i srcを重みとした重み付き線形和である。
Figure 0007130233000003
リカレントニューラルネットワークの出力層は、単語のインデックスtにおいて、隠れ層の状態st srcと、アテンションの重みベクトルdt srcから、式(B11)に示す草稿の単語を表わす出力y′tを出力する。
Figure 0007130233000004
推敲部BSTS-1は、草稿エンコーダBE1と、推敲デコーダBD1と、アテンション層BA1とを含む。草稿エンコーダBE1と、推敲デコーダBD1とは、シーケンス・トウ・シーケンスモデルを構成する。
草稿エンコーダBE1は、単語の並び(k=1~n)に沿って展開されたエンベディング層と、双方向のGRUを有するリカレントニューラルネットワークとを備える。
エンベディング層は、単語のインデックスjにおいて、草稿デコーダADから出力される草稿の単語yj′を受けて、固定長の実数値ベクトルで表されるe(yj′)を出力する。
単語のインデックスjにおいて、リカレントニューラルネットワークの隠れ層の状態hj dftは、式(C1)~(C3)によって表される。
Figure 0007130233000005
推敲デコーダBD1は、単語の並び(k=1~m)に沿って展開されたエンベディング層と、一方向のGRUを有するリカレントニューラルネットワークとを備える。
エンベディング層は、単語のインデックスtにおいて、要約生成時には、単語のインデックス(t-1)においてリカレントニューラルネットワークから出力される草稿の単語yt-1を受けて、固定長の実数値ベクトルで表されるe(yt-1)を出力する。
要約生成時には、単語のインデックスtにおいて、リカレントニューラルネットワークの隠れ層の状態st revは、式(D1)によって表される。
アテンション層BA1は、推敲デコーダBD1の隠れ層の状態st revと、原文エンコーダAEの隠れ層の状態hi src(i=1~n)と、草稿エンコーダBE1の隠れ層の状態hi dft(j=1~m)とを用いてアテンションの重みベクトルdt srcを算出する。推敲デコーダBD1は、推敲デコーダBD1の出力と、アテンション層BA1からのアテンションの重みベクトルdt-1 revに基づいて、隠れ層の状態st revを計算して、要約を表わすシーケンスを出力する。
Figure 0007130233000006
アテンション層BA1は、式(D2)~(D7)によって、式(D1)における第1の文脈ベクトルdt revを重みベクトルとして算出する。式(D7)におけるαt,i revは、アテンション分布を表わし、アライメント重みベクトルとも呼ばれる。アテンション分布αt,i revは、推敲デコーダBD1が、単語のインデックスtにおいて入力される単語wiを注視するスコアを表わす。アテンション分布αt,i revは、推敲デコーダBD1の隠れ層の状態st revと、原文エンコーダAEの隠れ層の状態hi srcと、第2の文脈ベクトルdt dftと用いて算出される。
第1の文脈ベクトルdt revは、原文エンコーダAEのリカレントニューラルネットワークの隠れ層の状態hi src(i=1~n)の単語のインデックスtにおけるアテンション分布αt,i revを重みとした重み付き線形和である。
式(D2)におけるαt,j dftは、アテンション分布を表わし、アライメント重みベクトルとも呼ばれる。アテンション分布αt,j dftは、推敲デコーダBD1が、単語のインデックスtにおいて入力される単語y′jを注視するスコアを表わす。アテンション分布αt,j dftは、推敲デコーダBD1の隠れ層の状態st revと、草稿エンコーダBE1の隠れ層の状態hi dftと用いて算出される。
第2の文脈ベクトルdt dftは、草稿エンコーダBE1のリカレントニューラルネットワークの隠れ層の状態hj dft(j=1~m)の単語のインデックスtにおけるアテンション分布αt,j dftを重みとした重み付き線形和である。
Figure 0007130233000007
リカレントニューラルネットワークの出力層は、単語のインデックスtにおいて、隠れ層の状態st srcから、式(D8)に示す要約の単語を表わす出力ytを出力する。
Figure 0007130233000008
以上のように、本実施の形態では、原文エンコーダAEの隠れ層の状態hi srcと、草稿エンコーダBExの隠れ層の状態hi dftとを用いて、アテンションの重みベクトルが算出される。これによって、草稿生成部から出力される草稿を改善することができる。
[第3の実施形態]
図6は、第3の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。草稿改善部CSは、第1段の推敲部BSTS-1を含む。
第3の実施形態の草稿生成部ASTSは、第2の実施形態の草稿生成部ASTSと同様である。
第3の実施形態の推敲部BSTS-1は、第2の実施形態の推敲部BSTS-1の構成にゲートG1を備えるとともに、アテンション層BA1が第2の実施形態と異なる。
ゲートG1は、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とに基づいて、原文エンコーダAEの各単語インデックスの隠れ層の状態hi srcをフィルタリングして、アテンション層BA1に送る。
ゲートG1は、単語の並び(k=1~m)に沿って展開されたゲート層およびゲートベクトル演算層と、演算部COM1とを備える。
演算部COM1は、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とを用いて、式(E1)および(E2)によって、rsrc、rdftを算出する。原文エンコーダAEの隠れ層の最終出力は、原文エンコーダAEの単語のインデックス(k=1)の隠れ層の逆方向の状態1 srcと、原文エンコーダAEの単語インデックス(k=n)の隠れ層の順方向の状態n srcである。草稿エンコーダBE1の隠れ層の最終出力は、草稿エンコーダBE1の単語のインデックス(k=1)の隠れ層の逆方向の状態1 dftと、草稿エンコーダBE1の単語のインデックス(k=m)の隠れ層の順方向の状態m dftである。
Figure 0007130233000009
ゲートベクトル演算層は、単語インデックスiにおいて、原文エンコーダAEの単語のインデックスiの隠れ層の状態hi srcと、rsrc、rdftを用いて、式(E3)に従って、ゲートベクトルgiを算出する。
ゲート層は、単語のインデックスiにおいて、式(E4)に従って、隠れ層の状態hi srcを置換する状態hi gateを算出する。
アテンション層BA1は、推敲デコーダBD1の隠れ層の状態st revと、ゲートG1の出力hi gate(i=1~n)とを用いてアテンションの重みベクトルdt srcを算出する。
アテンション層BA1は、式(H1)~(H3)によって、式(D1)における文脈ベクトルdt-1 revを重みベクトルとして算出する。式(H2)におけるαt,i revは、アテンション分布を表わし、アライメント重みベクトルとも呼ばれる。アテンション分布αt,i revは、推敲デコーダBD1が、単語のインデックスtにおいて入力される単語wiを注視するスコアを表わす。アテンション分布αt,i revは、推敲デコーダBD1の隠れ層の状態st revと、原文エンコーダAEの隠れ層の状態hi srcと用いて算出される。
重みベクトルdt revは、ゲートG1の出力hi gate(i=1~n)の単語のインデックスtにおけるアテンション分布αt,i revを重みとした重み付き線形和である。
Figure 0007130233000010
以上のように、第3の実施形態では、推敲部が、ゲートG1を備えることによって、草稿生成部から出力される草稿を改善することができる。
[第4の実施形態]
図7は、第4の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。草稿改善部CSは、第1段の推敲部BSTS-1を含む。
第4の実施形態の草稿生成部ASTSは、第2および第3の実施形態の草稿生成部ASTSと同様である。
第4の実施形態の推敲部BSTS-1は、第3の実施形態の推敲部BSTS-1と同様に、ゲートG1を備える。
ゲートG1は、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とに基づいて、原文エンコーダAEの各単語インデックスの隠れ層の状態hi srcをフィルタリングして、アテンション層BA1に送る。
ゲートG1は、単語の並び(k=1~m)に沿って展開されたゲート層およびゲートベクトル演算層と、演算部COM1とを備える。
演算部COM1は、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とを用いて、式(E1)および(E2)によって、rsrc、rdftを算出する。原文エンコーダAEの隠れ層の最終出力は、原文エンコーダAEの単語のインデックス(k=1)の隠れ層の逆方向の状態1 srcと、原文エンコーダAEの単語インデックス(k=n)の隠れ層の順方向の状態n srcである。草稿エンコーダBE1の隠れ層の最終出力は、草稿エンコーダBE1の単語のインデックス(k=1)の隠れ層の逆方向の状態1 dftと、草稿エンコーダBE1の単語のインデックス(k=m)の隠れ層の順方向の状態m dftである。なお明細書では、上付き矢印が表記できないため、以後も、m dft 等と表記する。
ゲートベクトル演算層は、単語のインデックスiにおいて、原文エンコーダAEの単語インデックスiの隠れ層の状態hi srcと、rsrc、rdftを用いて、式(E3)に従って、ゲートベクトルgiを算出する。
ゲート層は、単語インデックスiにおいて、式(E4)に従って、隠れ層の状態hi srcを置換する状態hi gateを算出する。第3の実施形態では、推敲デコーダBD1およびアテンション層BA1は、式(B7)、(B8)において、hi srcに代えて、hi gateを用いる。
以上のように、第4の実施形態では、推敲部が、ゲートG1を備えることによって、草稿生成部から出力される草稿を改善することができる。
[第5の実施形態]
図8は、第5の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。草稿改善部CSは、第1段の推敲部BSTS-1を含む。
第5の実施形態の草稿生成部ASTSは、第2~第4の実施形態の草稿生成部ASTSと同様である。
第5の実施形態の推敲部BSTS-1は、第4の実施形態の推敲部BSTS-1の演算部COM1に代えて、演算部COM2を備える。
演算部COM2は、演算部COM1と同様に、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とを用いて、式(E1)および(E2)によって、rsrc、rdftを算出する。
演算部COM2は、さらに、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とに基づいて、推敲デコーダBD1のリカレントニューラルネットワークの隠れ層の初期状態s′0 revを算出する。なお、本実施の形態以外の場合には、s0 revは、以下の計算式に基づき作成される。
Figure 0007130233000011
より具体的には、演算部COM2は、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とを用いて、式(F1)に従って、推敲デコーダBD1のリカレントニューラルネットワークの隠れ層の初期状態s′0 revを算出する。
原文エンコーダAEの隠れ層の最終出力は、原文エンコーダAEの単語のインデックス(k=1)の隠れ層の逆方向の状態1 srcと、原文エンコーダAEの単語のインデックス(k=n)の隠れ層の順方向の状態n srcである。草稿エンコーダBE1の隠れ層の最終出力は、草稿エンコーダBE1の単語のインデックス(k=1)の隠れ層の逆方向の状態1 dftと、草稿エンコーダBE1の単語インデックス(k=m)の隠れ層の順方向の状態m dftである。
Figure 0007130233000012
以上のように、第5の実施形態では、原文エンコーダAEの隠れ層の最終出力と、草稿エンコーダBE1の隠れ層の最終出力とに基づいて、推敲デコーダBD1のリカレントニューラルネットワークの隠れ層の初期状態s 0 revを算出するので、草稿生成部から出力される草稿を改善することができる。
なお、第5の実施形態では、上述の推敲デコーダBD1のリカレントニューラルネットワークの隠れ層の初期状態s′0 revを算出する機能を第4の実施形態に対して追加したが、第2または第3の実施形態に対して追加するものとしてもよい。
[第6の実施形態]
図9は、第6の実施形態の草稿生成部ASTSおよび草稿改善部CSの詳細を表わす図である。草稿改善部CSは、第1段の推敲部BSTS-1を含む。
第6の実施形態の草稿生成部ASTSは、第2の実施形態の草稿生成部ASTSの構成要素に加えて、一致判定部MAと、第2の原文エンコーダAE2とを備える。
一致判定部MAは、式(G1)~(G3)に示すように、単語wiが草稿デコーダADが出力する草稿の単語y′1~y′mに含まれるか否かを表わす一致情報liを生成する。Y′は、草稿の単語の集合を表わす。dは、単語wiが草稿の集合Y′に含まれることを示すシンボルである。ndは、単語wiが草稿の集合Y′に含まれないことを示すシンボルである。
Figure 0007130233000013
第2の原文エンコーダAE2は、単語の並び(k=1~n)に沿って展開されたエンベディング層と、双方向のGRUを有するリカレントニューラルネットワークとを備える。
エンベディング層は、式(G14)に示すように、単語のインデックスiにおいて、原文の単語wiと一致情報liとを含む固定長の実数値ベクトルで表されるe′(wi)を出力する。v(li)は、liに対応するランダムに初期化されたベクトルである。Wは、一定の行列である。
Figure 0007130233000014
単語インデックスiにおいて、原文エンコーダAE2のリカレントニューラルネットワークの隠れ層の状態h′i srcは、式(G5)~(G7)によって表される。
Figure 0007130233000015
第6の実施形態では、推敲デコーダBD1およびアテンション層BA1は、hi srcに代えてh′i srcを用いる。
以上のように、第6の実施形態によれば、単語wiとともに、単語wiが草稿デコーダADが出力する草稿の単語y′1~y′mに含まれるか否かを表わす一致情報liを含めてエンコードした結果を推敲部BSTS-1のアテンション層BA1に送るので、草稿生成部から出力される草稿を改善することができる。
なお、第6の実施形態では、上述の一致情報を含めてエンコードする機能を第2の実施形態に対して追加したが、第3~第5の実施形態に対して追加するものとしてもよい。第3~第5の実施形態に対して追加する場合は、第2の原文エンコーダAE2の出力が、図6~図8におけるゲートG1におけるゲート層およびゲートベクトル演算層に入力される。また、草稿生成部ASTSが、原文エンコーダAEを含むときには、草稿生成部ASTSの出力とは、原文エンコーダAEの出力を意味する。草稿生成部ASTSが、原文エンコーダAEに加えて、第2の原文エンコーダAE2を含むときには、草稿生成部ASTSの出力とは、第2の原文エンコーダAE2の出力を意味する。
[第7の実施形態]
上述の実施形態に係る学習装置10および要約生成装置20は、コンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。
図10は、学習装置10および要約生成装置20の内部構成を表わす図である。
図10を参照して、学習装置10および要約生成装置20は、バス1300と、CPU(Central Processing Unit)1301と、ROM(Read Only Memory)1302と、RAM(Random Access Memory)1303と、HDD(Hard Disk Drive)1304と、DVD(Digital Versatile Disk)1307が接続されたDVDドライブ1306と、ネットワークI/F1309と、キーボード1310と、マウス1311と、リムーバブルメモリ1313が接続されるメモリポート1312と、ディスプレイ1308とを備える。
キーボード1310およびマウス1311は、開発側の人員またはユーザからの入力を受け付ける。上述の実施形態で説明した機能をコンピュータで実現するための要約学習プログラムまたは要約生成プログラムは、DVD1307、リムーバブルメモリ1313、ネットワークI/F1309からHDD1304に転送される。ROM1302は、たとえば起動プログラム等を記憶する。RAM1303は、実行中のプログラムの作業データなどを記憶する。ネットワークI/F1309は、インターネット1400に接続され、Web1000上のデータを取得することができる。
[実験結果]
以下に、上記の実施形態の効果について説明する。
図11は、原文からコンパクトな回答を生成する実験の結果を表わす図である。図12は、原文から解決策の要約を生成する実験の結果を表わす図である。図11および図12において、Nは、単語の生成に使用するベクトルの大きさを表わす。
PGは、論文A"Abigail See, Peter J. Liu, and Christopher D. Manning. 2017. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pages 1073-1083"に記載されている方法である。
Baseは、論文B"Ryo Ishida, Kentaro Torisawa, Jong-Hoon Oh, Ryu Iida, Canasai Kruengkrai, and Julien Kloetzer. 2018. Semi-distantly supervised neural model for generating compact answers to open-domain why questions. In Proceedings of the 32nd AAAI Conference on Artificial Intelligence."に記載されている方法である。
Base+gatedは、論文C"Qingyu Zhou, Nan Yang, Furu Wei, and Ming Zhou. 2017. Selective encoding for abstractive sentence summarization. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pages 1095-1104."に記載されているゲートエンコード方法と、論文Bに記載されている方法を組み合わせた方法である。
Proposed(A)は、原文エンコーダの隠れ層の状態と、草稿エンコーダの隠れ層の状態の両方を用いて、推敲部のアテンション層のアテンションの重みベクトルを求める手法である。この手法は、第2の実施形態に記載されている。
Proposed(B)は、ゲートを用いる手法である。この手法は、第3の実施形態で記載されている。
Proposed(C)は、推敲デコーダのリカレントニューラルネットワークの隠れ層の初期状態を算出する方法である。この手法は、第5の実施形態において、推敲部のアテンション層のアテンションの重みベクトルを、原文エンコーダの隠れ層の状態と、草稿エンコーダの隠れ層の状態の両方を用いて計算するのではなく、原文エンコーダの隠れ層の状態を用いて計算する方法に置き換えたものである。
Proposed(A+B)は、上記Proposed(A)とProposed(B)とを組み合わせた方法である。この方法は、第4の実施形態に記載されている。Proposed(A+C)は、上記Proposed(A)とProposed(C)とを組み合わせた方法である。Proposed(B+C)は、上記Proposed(B)とProposed(C)とを組み合わせた方法である。Proposed(A+B+C)は、上記Proposed(A)とProposed(B)とProposed(C)とを組み合わせた方法である。この方法は、第5の実施形態に記載されている。
R-1、R-2.R-Lは、生成された要約の品質を評価する手法である。R-1、R-2、R-Lは、論文D"Chin-Yew Lin. 2004. ROUGE: A package for automatic evaluation of summaries. In Proceedings of the ACL-04 Workshop on Text Summarization Branches Out, pages 74-81"に記載されているROUGE-1、ROUGE-2、ROUGE-LのFスコアを表わす。Avg.Lは、出力した要約文の平均単語数を表す。
図11および図12に示すように、全体として、本実施の形態の方法は、従来の方法よりも品質の高い要約が生成されるといえる。
[変形例]
本発明は、上記の実施形態に限定されるものではない。本発明は、以下のような変形例も含まれる。
(1)上記の実施形態のエンコーダAE、BE1~BEX、AE2、デコーダAD、BD1~BDXは、GRUを有するリカレントニューラルネットワークによって構成されるものとしたが、これに限定されるものではない。たとえば、エンコーダAE、BE1~BEX、AE2、デコーダAD、BD1~BDXは、LSTM(Long Short-Term Memory)を有するリカレントニューラルネットワークによって構成されるものとしてもよい。
(2)推敲デコーダBDXから出力される要約の単語ytを論文Aに記載された式によって、求めることとしてもよい。
(3)上記の実施形態では、草稿エンコーダBEx(x=2~X)には、推敲デコーダBD(x-1)の出力結果が入力されるものとしたが、これに限定されるものではない。草稿エンコーダBEx(x=2~X)には、推敲デコーダBD1~BD(x-1)の出力のうちのいずれか1つが独立に入力される、あるいはすべてが重み付き線形和で入力されるものとしてもよい。
(4)学習
上記の実施形態では、第1の学習と第2の学習の2段階の学習を実行したが、これに限定されるものではない。第2の学習のみを実行するものとしてもよい。
また、推敲デコーダBD1~BDXの出力と、徐々に品質が増加する学習用の草稿との誤差が最小となるように学習することによって、推敲デコーダBD1~BDXから出力される草稿の品質が徐々に増加するようにしてもよい。
(5)パラメータを学習する機能と、学習されたパラメータを用いて原文から草稿を生成する機能とが1台の装置で実行されるものとしてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10 学習装置、13 学習データ記憶部、15 学習結果記憶部、20 要約生成装置、ASTS 草稿生成部、CS 草稿改善部、BSTS-1~BSTS-X 推敲部、AE,AE2 原文エンコーダ、AD 草稿デコーダ、BE1~BEX 草稿エンコーダ、BD1~BDX 推敲デコーダ、G1~GX ゲート、AA,BA1~BAX アテンション層、COM1,COM2 演算部、MA 一致判定部、1300 バス、1301 CPU、1302 ROM、1303 RAM、1304 HDD、1306 DVDドライブ、1307 DVD、1308 ディスプレイ、1309 ネットワークI/F、1310 キーボード、1311 マウス、1312 メモリポート、1313 リムーバブルメモリ、1400 インターネット。

Claims (8)

  1. 原文が入力される原文エンコーダと、前記原文エンコーダと接続される草稿デコーダとを含む草稿生成部と、
    前記草稿生成部と接続され複数段の推敲部を含む草稿改善部とを備え、
    前記推敲部は、草稿エンコーダと、前記草稿エンコーダと接続される推敲デコーダと、アテンション層とを含み、1段目の前記推敲部の前記草稿エンコーダは、前記草稿生成部の前記草稿デコーダの出力を受け、2段目以降の前記推敲部の前記草稿エンコーダは、前段の前記推敲部の前記推敲デコーダの出力を受け、最後段以外の前記推敲部の前記推敲デコーダの出力は、後段の前記推敲部の前記草稿エンコーダの入力と接続され、最後段の前記推敲部の前記推敲デコーダは、要約を出力し、
    前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダのパラメータと、前記複数段の前記推敲部の前記草稿エンコーダ、前記推敲デコーダ、および前記アテンション層のパラメータとは、学習によって、前記草稿生成部の前記原文エンコーダに前記原文が入力されて、最後段の前記推敲部の前記推敲デコーダが前記要約を出力するように調整されている、要約生成装置。
  2. 原文が入力される原文エンコーダと、前記原文エンコーダと接続される草稿デコーダとを含む草稿生成部と、
    前記草稿生成部と接続された推敲部とを備え、
    前記推敲部は、草稿エンコーダと、前記草稿エンコーダと接続される推敲デコーダと、アテンション層とを含み、前記推敲部の前記草稿エンコーダは、前記草稿生成部の前記草稿デコーダの出力を受け、前記推敲部の前記推敲デコーダは、要約を出力し、
    前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダのパラメータと、前記推敲部の前記草稿エンコーダ、前記推敲デコーダ、および前記アテンション層のパラメータとは、学習によって、前記草稿生成部の前記原文エンコーダに前記原文が入力されて、前記推敲部の前記推敲デコーダが前記要約を出力するように調整されている、要約生成装置。
  3. 記推敲部の前記アテンション層は、前記草稿生成部の出力である前記原文エンコーダの出力と、記推敲部の前記草稿エンコーダの出力と、記推敲部の前記推敲デコーダの隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、記推敲部の前記推敲デコーダへ出力されてなる、請求項1または2記載の要約生成装置。
  4. 前記草稿生成部は、さらに、前記原文の単語が前記草稿デコーダの出力に含まれるか否かを表わす一致情報を生成するマッチ部と、前記原文と前記一致情報とが入力される第2の原文エンコーダとを備え、
    前記推敲部の前記アテンション層は、前記第2の原文エンコーダの出力と、前記推敲部の前記草稿エンコーダの出力と、前記推敲部の前記推敲デコーダの隠れ層の状態とを用いて、アテンションの重みベクトルを算出して、前記推敲部の前記推敲デコーダへ出力されてなる 、請求項1または2記載の要約生成装置。
  5. 記推敲部は、さらに、前記草稿生成部の前記原文エンコーダの隠れ層の最終出力と、記推敲部の前記草稿エンコーダの出力とに基づいて、前記草稿生成部の前記原文エンコーダの各単語インデックスの隠れ層の状態をフィルタリングして、記推敲部の前記アテンション層に送るゲートを含む、請求項1~のいずれか1項に記載の要約生成装置。
  6. 記推敲部は、さらに、前記草稿生成部の前記原文エンコーダの隠れ層の最終出力と、記推敲部の前記草稿エンコーダの出力とに基づいて、記推敲部の前記推敲デコーの初期状態を計算する演算部を含む、請求項1~のいずれか1項に記載の要約生成装置。
  7. 原文が入力される原文エンコーダと、前記原文エンコーダと接続される草稿デコーダとを含む草稿生成部と、前記草稿生成部と接続され複数段の推敲部を含む草稿改善部とを備えた要約生成装置のパラメータを学習する学習装置における学習方法であって、前記推敲部は、草稿エンコーダと、前記草稿エンコーダと接続される推敲デコーダと、アテンション層とを含み、1段目の前記推敲部の前記草稿エンコーダは、前記草稿生成部の前記草稿デコーダの出力を受け、2段目以降の前記推敲部の前記草稿エンコーダは、前段の前記推敲部の前記推敲デコーダの出力を受け、最後段以外の前記推敲部の前記推敲デコーダの出力は、後段の前記推敲部の前記草稿エンコーダの入力と接続され、最後段の前記推敲部の前記推敲デコーダは、要約を出力し、
    前記学習方法は、
    第1の学習において、M個のセットの原文と要約とからなる学習データを用いて、前記草稿生成部の前記原文エンコーダに前記原文が入力されて、前記草稿生成部の前記草稿デコーダが前記要約を出力するように、前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダのパラメータを学習するステップと、
    前記学習されたパラメータを第2の学習における前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダのパラメータの初期値に設定するステップと、
    前記第2の学習において、N個のセットの原文と要約とからなる学習データを用いて、前記草稿生成部の前記原文エンコーダに前記原文が入力されて、最後段の前記推敲部の前記推敲デコーダが前記要約を出力するように、前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダ、前記複数段の前記推敲部の前記草稿エンコーダ、前記推敲デコーダ、および前記アテンション層のパラメータを学習するステップとを備えた、学習方法。
  8. 原文が入力される原文エンコーダと、前記原文エンコーダと接続される草稿デコーダとを含む草稿生成部と、前記草稿生成部と接続された推敲部とを備えた要約生成装置のパラメータを学習する学習装置における学習方法であって、前記推敲部は、草稿エンコーダと、前記草稿エンコーダと接続される推敲デコーダと、アテンション層とを含み、前記推敲部の前記草稿エンコーダは、前記草稿生成部の前記草稿デコーダの出力を受け、前記推敲部の前記推敲デコーダは、要約を出力し、
    前記学習方法は、
    第1の学習において、M個のセットの原文と要約とからなる学習データを用いて、前記草稿生成部の前記原文エンコーダに前記原文が入力されて、前記草稿生成部の前記草稿デコーダが前記要約を出力するように、前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダのパラメータを学習するステップと、
    前記学習されたパラメータを第2の学習における前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダのパラメータの初期値に設定するステップと、
    前記第2の学習において、N個のセットの原文と要約とからなる学習データを用いて、前記草稿生成部の前記原文エンコーダに前記原文が入力されて、前記推敲部の前記推敲デコーダが前記要約を出力するように、前記草稿生成部の前記原文エンコーダおよび前記草稿デコーダ、前記推敲部の前記草稿エンコーダ、前記推敲デコーダ、および前記アテンション層のパラメータを学習するステップとを備えた、学習方法。
JP2018147458A 2018-08-06 2018-08-06 要約生成装置、および学習方法 Active JP7130233B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018147458A JP7130233B2 (ja) 2018-08-06 2018-08-06 要約生成装置、および学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147458A JP7130233B2 (ja) 2018-08-06 2018-08-06 要約生成装置、および学習方法

Publications (2)

Publication Number Publication Date
JP2020024488A JP2020024488A (ja) 2020-02-13
JP7130233B2 true JP7130233B2 (ja) 2022-09-05

Family

ID=69618700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147458A Active JP7130233B2 (ja) 2018-08-06 2018-08-06 要約生成装置、および学習方法

Country Status (1)

Country Link
JP (1) JP7130233B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111190A (ja) 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
US20180189274A1 (en) 2016-12-29 2018-07-05 Ncsoft Corporation Apparatus and method for generating natural language

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111190A (ja) 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
US20180189274A1 (en) 2016-12-29 2018-07-05 Ncsoft Corporation Apparatus and method for generating natural language

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
曹 国林,ニューラル機械翻訳モデルを用いたマルチソース文法誤り訂正,一般社団法人 人工知能学会 第32回全国大会論文集DVD [DVD-ROM] 2018年度 人工知能学会全国大会(第32回),一般社団法人 人工知能学会,2018年06月05日,4Pin1-23
梁 燦彬,専門用語の活用による学術論文の生成的要約手法,第10回データ工学と情報マネジメントに関するフォーラム (第16回日本データベース学会年次大会) [Online] ,電子情報通信学会データ工学研究専門委員会 日本データベース学会 情報処理学会データベースシステム研究会,2018年03月06日,DEIM Forum 2018 P9-5,Internet<URL:http://db-event.jpn.org/deim2018/data/papers/165.pdf>

Also Published As

Publication number Publication date
JP2020024488A (ja) 2020-02-13

Similar Documents

Publication Publication Date Title
Olmos et al. A practical guide for using propensity score weighting in R
US9922025B2 (en) Generating distributed word embeddings using structured information
Barrón-Cedeno et al. Convkn at semeval-2016 task 3: Answer and question selection for question answering on arabic and english fora
KR101923780B1 (ko) 일관된 주제의 텍스트 생성 방법 및 이를 수행하는 텍스트 생성 장치
Bostrom et al. Flexible generation of natural language deductions
Schuster et al. When a sentence does not introduce a discourse entity, transformer-based models still sometimes refer to it
Novák Mining information from time series in the form of sentences of natural language
Del Tredici et al. Question rewriting for open-domain conversational qa: Best practices and limitations
CN110795411B (zh) 一种基于类别门机制的文本分类方法
Burness et al. Long-distance phonological processes as tier-based strictly local functions
Dreyer et al. Evaluating the tradeoff between abstractiveness and factuality in abstractive summarization
JP7130233B2 (ja) 要約生成装置、および学習方法
Yang et al. Learning better masking for better language model pre-training
Chandlee et al. Computational universals in linguistic theory: Using recursive programs for phonological analysis
Linzen et al. The timecourse of generalization in phonotactic learning
CN112732879A (zh) 一种问答任务的下游任务处理方法及模型
Bouchard-Côté et al. Improved reconstruction of protolanguage word forms
CN110209962B (zh) 主题层次高影响力用户的获取方法和系统
EP4323909A1 (en) Character-level attention neural networks
JP2022050973A (ja) 情報処理装置、及びコンピュータプログラム
Thianniwet et al. Scaling up the fitness function for reverse engineering feature models
Glines Imposing Structure on Generated Sequences: Constrained Hidden Markov Processes
Rogers Causa Nostra: the potentially legitimate business of drawing causal inferences from observational data
Kim Sentence Comprehension with an LSTM Language Model
Vincent Towards personalised and document-level machine translation of dialogue

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7130233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150