JP7272060B2 - 生成方法、学習方法、生成プログラム、及び生成装置 - Google Patents
生成方法、学習方法、生成プログラム、及び生成装置 Download PDFInfo
- Publication number
- JP7272060B2 JP7272060B2 JP2019068553A JP2019068553A JP7272060B2 JP 7272060 B2 JP7272060 B2 JP 7272060B2 JP 2019068553 A JP2019068553 A JP 2019068553A JP 2019068553 A JP2019068553 A JP 2019068553A JP 7272060 B2 JP7272060 B2 JP 7272060B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- time
- decoder
- encoder
- hidden state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、実施例1に係るシステムに含まれる各装置の機能的構成を示すブロック図である。図1に示すシステム1では、学習用入力文および正解要約文を含む学習データを用いてモデルの機械学習を行う機械学習サービス、並びに、学習済みモデルを用いて入力文から要約文を生成する要約生成サービスが提供される。
図2は、記事要約ツールのユースケースの一例を示す図である。図2には、メディア事業者の関係者により使用される端末装置に表示される記事要約画面20の遷移の一例が示されている。
上記の学習装置10及び上記の生成装置30では、Pointer-Generatorが用いられる。このように、Pointer-Generatorは、RNNデコーダが要約文の単語を出力する際、入力文の単語を要約文の単語としてコピーすることができる。
上記の背景技術の欄でも説明した通り、Pointer-Generatorであっても、依然として、未知語を適切な表現で要約文へ含めることが困難である。
そこで、本実施例では、入力文の単語と固有表現のラベルで更新が繰り返された隠れ状態が入力されたデコーダで隠れ状態を1時刻前の単語と固有表現のラベルで更新しつつアテンション分布とボキャブラリ分布を算出して要約文の単語を出力する。
図1に示すように、学習装置10は、学習データ記憶部11と、モデル記憶部12と、取得部13と、固有表現抽出部15と、エンコーダ実行部16Eと、デコーダ実行部16Dと、算出部17と、損失計算部18と、更新部19とを有する。なお、学習装置10は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
図3は、モデル学習の一例を示す図である。図3には、学習サンプルに含まれる学習用入力文の一例として、“Germany win against Argentina”が取得される場合の例が示されている。さらに、図3には、学習サンプルに含まれる正解要約文の一例として、“Germany beat Argentina”が取得される例が示されている。この場合、図3に示すように、エンコーダ実行部16Eは、学習用入力文の単語数「4」に対応する4個のLSTM16E-t1~LSTM16E-t4をワークエリア上に展開する。
続いて、エンコーダ実行部16Eは、学習用入力文の先頭の単語“Germany”をベクトル化すると共に当該単語“Germany”に付与されたNEラベル<B-COUNTRY>をベクトル化する。そして、エンコーダ実行部16Eは、先頭の単語“Germany”のベクトル及びNEラベル<B-COUNTRY>のベクトルと共に、隠れ状態のベクトルの初期値h0をLSTM16E-t1へ入力する。すると、LSTM16E-t1は、初期値の隠れ状態h0のベクトルに先頭の単語“Germany”のベクトル及びNEラベル<B-COUNTRY>のベクトルを足し合わせることにより、初期値の隠れ状態h0をエンコーダ時刻t1の隠れ状態h1へ更新する。このように更新されたエンコーダ時刻t1の隠れ状態h1がLSTM16E-t1からLSTM16E-t2へ入力される。
次に、エンコーダ実行部16Eは、学習用入力文の先頭から2番目の単語“win”をベクトル化すると共に当該単語“win”に付与されたNEラベル<OTHER>をベクトル化する。その上で、エンコーダ実行部16Eは、2番目の単語“win”のベクトル及びNEラベル<OTHER>のベクトルをLSTM16E-t2へ入力する。すると、LSTM16E-t2は、エンコーダ時刻t1の隠れ状態h1のベクトルに2番目の単語“win”のベクトル及びNEラベル<OTHER>のベクトルを足し合わせることにより、エンコーダ時刻t1の隠れ状態h1をエンコーダ時刻t2の隠れ状態h2へ更新する。このように更新されたエンコーダ時刻t2の隠れ状態h2がLSTM16E-t2からLSTM16E-t3へ入力される。
続いて、エンコーダ実行部16Eは、学習用入力文の先頭から3番目の単語“against”をベクトル化すると共に当該単語“against”に付与されたNEラベル<OTHER>をベクトル化する。その上で、エンコーダ実行部16Eは、3番目の単語“against”のベクトル及びNEラベル<OTHER>のベクトルをLSTM16E-t3へ入力する。すると、LSTM16E-t3は、エンコーダ時刻t2の隠れ状態h2のベクトルに3番目の単語“against”のベクトル及びNEラベル<OTHER>のベクトルを足し合わせることにより、エンコーダ時刻t2の隠れ状態h2をエンコーダ時刻t3の隠れ状態h3へ更新する。このように更新されたエンコーダ時刻t3の隠れ状態h3がLSTM16E-t3からLSTM16E-t4へ入力される。
最後に、エンコーダ実行部16Eは、学習用入力文の先頭から4番目の単語“Argentina”をベクトル化すると共に当該単語“Argentina”に付与されたNEラベル<OTHER>をベクトル化する。その上で、エンコーダ実行部16Eは、4番目の単語“Argentina”のベクトル及びNEラベル<OTHER>のベクトルをLSTM16E-t4へ入力する。すると、LSTM16E-t4は、エンコーダ時刻t3の隠れ状態h3のベクトルに4番目の単語“Argentina”のベクトル及びNEラベル<OTHER>のベクトルを足し合わせることにより、エンコーダ時刻t3の隠れ状態h3をエンコーダ時刻t4の隠れ状態h4へ更新する。このように更新されたエンコーダ時刻t4の隠れ状態h4がRNNエンコーダからRNNデコーダへ入力される。
図3には、デコーダ時刻T2におけるLSTM16D-T2の動作例が示されている。図3に示すように、LSTM16D-T2には、LSTM16D-T1によりエンコーダ時刻t4の隠れ状態h4から更新されたデコーダ時刻T1の隠れ状態H1が入力される。さらに、LSTM16D-T2には、デコーダ時刻T1の正解要約文の単語“Germany”のベクトルおよびデコーダ時刻T1に選択されたデコーダ時刻T2のNEラベル<B-COUNTRY>のベクトルが入力される。その後、LSTM16D-T2は、デコーダ時刻T1の隠れ状態H1にデコーダ時刻T1の正解要約文の単語“B-COUNTRY”のベクトルおよびデコーダ時刻T2のNEラベル<B-COUNTRY>のベクトルを足し合わせる。これによって、デコーダ時刻T1の隠れ状態H1がデコーダ時刻2の隠れ状態H2へ更新される。
図1に示すように、生成装置30は、取得部31と、固有表現抽出部35と、エンコーダ実行部36Eと、デコーダ実行部36Dと、算出部37と、生成部38とを有する。なお、生成装置30は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
図4は、要約文生成の一例を示す図である。図4には、あくまで説明の便宜上、入力文の一例として、“Germany win against Argentina”が取得される場合の例が示されている。この場合、図4に示すように、エンコーダ実行部36Eは、入力文の単語数「4」に対応する4個のLSTM36E-t1~LSTM36E-t4をワークエリア上に展開する。
続いて、エンコーダ実行部36Eは、入力文の先頭の単語“Germany”をベクトル化すると共に当該単語“Germany”に付与されたNEラベル<B-COUNTRY>をベクトル化する。そして、エンコーダ実行部36Eは、先頭の単語“Germany”のベクトル及びNEラベル<B-COUNTRY>のベクトルと共に、隠れ状態のベクトルの初期値h0をLSTM36E-t1へ入力する。すると、LSTM36E-t1は、初期値の隠れ状態h0のベクトルに先頭の単語“Germany”のベクトル及びNEラベル<B-COUNTRY>のベクトルを足し合わせることにより、初期値の隠れ状態h0をエンコーダ時刻t1の隠れ状態h1へ更新する。このように更新されたエンコーダ時刻t1の隠れ状態h1がLSTM36E-t1からLSTM36E-t2へ入力される。
次に、エンコーダ実行部36Eは、入力文の先頭から2番目の単語“win”をベクトル化すると共に当該単語“win”に付与されたNEラベル<OTHER>をベクトル化する。その上で、エンコーダ実行部36Eは、2番目の単語“win”のベクトル及びNEラベル<OTHER>のベクトルをLSTM36E-t2へ入力する。すると、LSTM36E-t2は、エンコーダ時刻t1の隠れ状態h1のベクトルに2番目の単語“win”のベクトル及びNEラベル<OTHER>のベクトルを足し合わせることにより、エンコーダ時刻t1の隠れ状態h1をエンコーダ時刻t2の隠れ状態h2へ更新する。このように更新されたエンコーダ時刻t2の隠れ状態h2がLSTM36E-t2からLSTM36E-t3へ入力される。
続いて、エンコーダ実行部36Eは、入力文の先頭から3番目の単語“against”をベクトル化すると共に当該単語“against”に付与されたNEラベル<OTHER>をベクトル化する。その上で、エンコーダ実行部36Eは、3番目の単語“against”のベクトル及びNEラベル<OTHER>のベクトルをLSTM36E-t3へ入力する。すると、LSTM36E-t3は、エンコーダ時刻t2の隠れ状態h2のベクトルに3番目の単語“against”のベクトル及びNEラベル<OTHER>のベクトルを足し合わせることにより、エンコーダ時刻t2の隠れ状態h2をエンコーダ時刻t3の隠れ状態h3へ更新する。このように更新されたエンコーダ時刻t3の隠れ状態h3がLSTM36E-t3からLSTM36E-t4へ入力される。
最後に、エンコーダ実行部36Eは、入力文の先頭から4番目の単語“Argentina”をベクトル化すると共に当該単語“Argentina”に付与されたNEラベル<OTHER>をベクトル化する。その上で、エンコーダ実行部36Eは、4番目の単語“Argentina”のベクトル及びNEラベル<OTHER>のベクトルをLSTM36E-t4へ入力する。すると、LSTM36E-t4は、エンコーダ時刻t3の隠れ状態h3のベクトルに4番目の単語“Argentina”のベクトル及びNEラベル<OTHER>のベクトルを足し合わせることにより、エンコーダ時刻t3の隠れ状態h3をエンコーダ時刻t4の隠れ状態h4へ更新する。このように更新されたエンコーダ時刻t4の隠れ状態h4がRNNエンコーダからRNNデコーダへ入力される。
図4には、デコーダ時刻T2におけるLSTM36D-T2の動作例が示されている。図4に示すように、LSTM36D-T2には、LSTM36D-T1によりエンコーダ時刻t4の隠れ状態h4から更新されたデコーダ時刻T1の隠れ状態H1が入力される。さらに、LSTM36D-T2には、デコーダ時刻T1に生成された要約文の単語“Germany”のベクトルおよびデコーダ時刻T1で選択されたデコーダ時刻T2のNEラベル<B-COUNTRY>のベクトルが入力される。その後、LSTM36D-T2は、デコーダ時刻T1の隠れ状態H1にデコーダ時刻T1の要約文の単語“Germany”のベクトルおよびデコーダ時刻T2のNEラベル<B-COUNTRY>のベクトルを足し合わせる。これによって、デコーダ時刻T1の隠れ状態H1がデコーダ時刻2の隠れ状態H2へ更新される。
以下、図5及び図6を用いて、従来技術および本実施例における要約文の生成事例を対比する。
図7は、実施例1に係る学習処理の手順を示すフローチャートである。この学習処理は、一例として、モデル学習のリクエストを受け付けた場合に開始される。図7に示すように、取得部13は、学習データに含まれるJ個の学習サンプルjごとに、下記のステップS101から下記のステップS108までの処理が実行される。
図8は、実施例1に係る生成処理の手順を示すフローチャートである。この生成処理は、一例として、要約文生成のリクエストを受け付けた場合に開始される。図8に示すように、取得部33は、任意の情報ソースから入力文を取得する(ステップS301)。
上述してきたように、本実施例に係る生成装置30は、入力文の単語と固有表現のラベルで更新が繰り返された隠れ状態が入力されたデコーダで隠れ状態を1時刻前の単語と固有表現のラベルで更新しつつアテンション分布とボキャブラリ分布を算出して要約文の単語を出力する。したがって、本実施例に係る生成装置30によれば、未知語を適切な表現で要約文へ含めることが可能になる。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、取得部13、固有表現抽出部15、エンコーダ実行部16E、デコーダ実行部16D、算出部17、損失計算部18または更新部19を学習装置10の外部装置としてネットワーク経由で接続するようにしてもよい。あるいは、取得部31、固有表現抽出部35、エンコーダ実行部36E、デコーダ実行部36D、算出部37または生成部38を生成装置30の外部装置としてネットワーク経由で接続するようにしてもよい。また、取得部13、固有表現抽出部15、エンコーダ実行部16E、デコーダ実行部16D、算出部17、損失計算部18または更新部19を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の学習装置10の機能を実現するようにしてもよい。あるいは、取得部31、固有表現抽出部35、エンコーダ実行部36E、デコーダ実行部36D、算出部37または生成部38を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の生成装置30の機能を実現するようにしてもよい。
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図9を用いて、上記の実施例と同様の機能を有する生成プログラムを実行するコンピュータの一例について説明する。
前記入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する入力文の単語および固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記デコーダが出力する要約文の単語列に対応するデコーダ時刻ごとに、1つ前のデコーダ時刻に生成された要約文の単語および固有表現のラベルに基づいて1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布を算出し、
前記第1の確率分布および前記第2の確率分布に基づいて前記デコーダ時刻における要約文の単語を生成する、
処理をコンピュータが実行することを特徴とする生成方法。
前記1つ前のデコーダ時刻で算出された第3の確率分布に基づいて前記デコーダ時刻における固有表現のラベルを選択する処理を前記コンピュータがさらに実行し、
前記デコーダ時刻の隠れ状態は、1つ前のデコーダ時刻に選択された固有表現のラベルに基づいて算出されることを特徴とする付記1に記載の生成方法。
前記学習用入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する学習用入力文の単語および固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記正解要約文の単語列に対応するデコーダ時刻ごとに、前記デコーダ時刻に対応する正解要約文の単語および固有表現のラベルに基づいて1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記学習用入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布と、前記デコーダ時刻の次のデコーダ時刻に固有表現の各ラベルが選択される第3の確率分布とを算出し、
前記第1の確率分布および前記第2の確率分布と、前記デコーダ時刻における正解要約文の単語との間で第1の損失を算出すると共に、前記1つ前のデコーダ時刻で算出された前記デコーダ時刻における第3の確率分布と、前記デコーダ時刻における正解要約文の単語が持つ固有表現のラベルとの間で第2の損失を算出し、
前記第1の損失および前記第2の損失に基づいて前記モデルのパラメータを更新する、
処理をコンピュータが実行することを特徴とする学習方法。
前記入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する入力文の単語および固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記デコーダが出力する要約文の単語列に対応するデコーダ時刻ごとに、1つ前のデコーダ時刻に生成された要約文の単語および固有表現のラベルに基づいて1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布を算出し、
前記第1の確率分布および前記第2の確率分布に基づいて前記デコーダ時刻における要約文の単語を生成する、
処理をコンピュータに実行させることを特徴とする生成プログラム。
前記1つ前のデコーダ時刻で算出された第3の確率分布に基づいて前記デコーダ時刻における固有表現のラベルを選択する処理を前記コンピュータがさらに実行し、
前記デコーダ時刻の隠れ状態は、1つ前のデコーダ時刻に選択された固有表現のラベルに基づいて算出されることを特徴とする付記4に記載の生成プログラム。
前記学習用入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する学習用入力文の単語および固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記正解要約文の単語列に対応するデコーダ時刻ごとに、前記デコーダ時刻に対応する正解要約文の単語および固有表現のラベルに基づいて1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記学習用入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布と、前記デコーダ時刻の次のデコーダ時刻に固有表現の各ラベルが選択される第3の確率分布とを算出し、
前記第1の確率分布および前記第2の確率分布と、前記デコーダ時刻における正解要約文の単語との間で第1の損失を算出すると共に、前記1つ前のデコーダ時刻で算出された前記デコーダ時刻における第3の確率分布と、前記デコーダ時刻における正解要約文の単語が持つ固有表現のラベルとの間で第2の損失を算出し、
前記第1の損失および前記第2の損失に基づいて前記モデルのパラメータを更新する、
処理をコンピュータに実行させることを特徴とする学習プログラム。
前記入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する入力文の単語および固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出する第1算出部と、
前記エンコーダにより出力される隠れ状態をデコーダへ入力する入力部と、
前記デコーダが出力する要約文の単語列に対応するデコーダ時刻ごとに、1つ前のデコーダ時刻に生成された要約文の単語および固有表現のラベルに基づいて1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出する第2算出部と、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出する第3算出部と、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布を算出する第4算出部と、
前記第1の確率分布および前記第2の確率分布に基づいて前記デコーダ時刻における要約文の単語を生成する生成部と、
を有することを特徴とする生成装置。
前記1つ前のデコーダ時刻で算出された第3の確率分布に基づいて前記デコーダ時刻における固有表現のラベルを選択する選択部をさらに有し、
前記デコーダ時刻の隠れ状態は、1つ前のデコーダ時刻に選択された固有表現のラベルに基づいて算出されることを特徴とする付記7に記載の生成装置。
前記学習用入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する学習用入力文の単語および固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出する第1算出部と、
前記エンコーダにより出力される隠れ状態をデコーダへ入力する入力部と、
前記正解要約文の単語列に対応するデコーダ時刻ごとに、前記デコーダ時刻に対応する正解要約文の単語および固有表現のラベルに基づいて1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出する第2算出部と、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記学習用入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出する第3算出部と、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布と、前記デコーダ時刻の次のデコーダ時刻に固有表現の各ラベルが選択される第3の確率分布とを算出する第4算出部と、
前記第1の確率分布および前記第2の確率分布と、前記デコーダ時刻における正解要約文の単語との間で第1の損失を算出すると共に、前記1つ前のデコーダ時刻で算出された前記デコーダ時刻における第3の確率分布と、前記デコーダ時刻における正解要約文の単語が持つ固有表現のラベルとの間で第2の損失を計算する損失計算部と、
前記第1の損失および前記第2の損失に基づいて前記モデルのパラメータを更新する更新部と、
を有することを特徴とする学習装置。
11 学習データ記憶部
12 モデル記憶部
13 取得部
15 固有表現抽出部
16E エンコーダ実行部
16D デコーダ実行部
17 算出部
18 損失計算部
19 更新部
30 生成装置
33 取得部
35 固有表現抽出部
36E エンコーダ実行部
36D デコーダ実行部
37 算出部
38 生成部
Claims (4)
- 入力文を取得し、
前記入力文に含まれる単語ごとに、前記単語が固有表現であるか否かを表す固有表現のラベルを付与し、
前記入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する入力文の単語および前記単語に付与された固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記デコーダが出力する要約文の単語列に対応するデコーダ時刻ごとに、1つ前のデコーダ時刻に生成された要約文の単語および前記1つ前のデコーダ時刻で選択された固有表現のラベルに基づいて前記1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記デコーダ時刻の次のデコーダ時刻に生成される単語が前記固有表現の各ラベルに該当し得る第3の確率分布を算出し、
前記第3の確率分布に基づいて、前記次のデコーダ時刻における固有表現のラベルを選択し、
前記第1の確率分布および前記第2の確率分布に基づいて前記デコーダ時刻における要約文の単語を生成する、
処理をコンピュータが実行することを特徴とする生成方法。 - 学習用入力文および正解要約文を取得し、
前記学習用入力文に含まれる単語ごとに、前記単語が固有表現であるか否かを表す固有表現のラベルを付与し、
前記学習用入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する学習用入力文の単語および前記単語に付与された固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記正解要約文に含まれる単語ごとに、前記単語が固有表現であるか否かを表すラベルを付与し、
前記正解要約文の単語列に対応するデコーダ時刻ごとに、前記デコーダ時刻に対応する正解要約文の単語および前記単語に付与された固有表現のラベルに基づいて1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記学習用入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布と、前記デコーダ時刻の次のデコーダ時刻に固有表現の各ラベルが選択される第3の確率分布とを算出し、
前記第1の確率分布および前記第2の確率分布と、前記デコーダ時刻における正解要約文の単語との間で第1の損失を算出すると共に、前記1つ前のデコーダ時刻で算出された前記デコーダ時刻における第3の確率分布と、前記デコーダ時刻における正解要約文の単語に付与された固有表現のラベルとの間で第2の損失を算出し、
前記第1の損失および前記第2の損失に基づいて前記モデルのパラメータを更新する、
処理をコンピュータが実行することを特徴とする学習方法。 - 入力文を取得し、
前記入力文に含まれる単語ごとに、前記単語が固有表現であるか否かを表す固有表現のラベルを付与し、
前記入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する入力文の単語および前記単語に付与された固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記デコーダが出力する要約文の単語列に対応するデコーダ時刻ごとに、1つ前のデコーダ時刻に生成された要約文の単語および前記1つ前のデコーダ時刻で選択された固有表現のラベルに基づいて前記1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記デコーダ時刻の次のデコーダ時刻に生成される単語が前記固有表現の各ラベルに該当し得る第3の確率分布を算出し、
前記第3の確率分布に基づいて、前記次のデコーダ時刻における固有表現のラベルを選択し、
前記第1の確率分布および前記第2の確率分布に基づいて前記デコーダ時刻における要約文の単語を生成する、
処理をコンピュータに実行させることを特徴とする生成プログラム。 - 入力文を取得し、
前記入力文に含まれる単語ごとに、前記単語が固有表現であるか否かを表す固有表現のラベルを付与し、
前記入力文の単語列に対応するエンコーダ時刻ごとに、前記エンコーダ時刻に対応する入力文の単語および前記単語に付与された固有表現のラベルに基づいて1つ前のエンコーダ時刻の隠れ状態から前記エンコーダ時刻の隠れ状態を算出し、
前記エンコーダにより出力される隠れ状態をデコーダへ入力し、
前記デコーダが出力する要約文の単語列に対応するデコーダ時刻ごとに、1つ前のデコーダ時刻に生成された要約文の単語および前記1つ前のデコーダ時刻で選択された固有表現のラベルに基づいて前記1つ前のデコーダ時刻の隠れ状態から前記デコーダ時刻の隠れ状態を算出し、
前記デコーダ時刻の隠れ状態と各エンコーダ時刻の隠れ状態とに基づいて前記入力文の単語列の各単語が前記デコーダ時刻における要約文の単語としてコピーされる第1の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記エンコーダ及び前記デコーダを含むモデルの辞書の各単語が前記デコーダ時刻における要約文の単語として生成される第2の確率分布を算出し、
前記デコーダ時刻の隠れ状態に基づいて、前記デコーダ時刻の次のデコーダ時刻に生成される単語が前記固有表現の各ラベルに該当し得る第3の確率分布を算出し、
前記第3の確率分布に基づいて、前記次のデコーダ時刻における固有表現のラベルを選択し、
前記第1の確率分布および前記第2の確率分布に基づいて前記デコーダ時刻における要約文の単語を生成する、
処理を実行する制御部を有することを特徴とする生成装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019068553A JP7272060B2 (ja) | 2019-03-29 | 2019-03-29 | 生成方法、学習方法、生成プログラム、及び生成装置 |
US16/830,364 US20200311350A1 (en) | 2019-03-29 | 2020-03-26 | Generating method, learning method, generating apparatus, and non-transitory computer-readable storage medium for storing generating program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019068553A JP7272060B2 (ja) | 2019-03-29 | 2019-03-29 | 生成方法、学習方法、生成プログラム、及び生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020166735A JP2020166735A (ja) | 2020-10-08 |
JP7272060B2 true JP7272060B2 (ja) | 2023-05-12 |
Family
ID=72605873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019068553A Active JP7272060B2 (ja) | 2019-03-29 | 2019-03-29 | 生成方法、学習方法、生成プログラム、及び生成装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200311350A1 (ja) |
JP (1) | JP7272060B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11093217B2 (en) * | 2019-12-03 | 2021-08-17 | International Business Machines Corporation | Supervised environment controllable auto-generation of HTML |
US11797590B2 (en) * | 2020-09-02 | 2023-10-24 | Microsoft Technology Licensing, Llc | Generating structured data for rich experiences from unstructured data streams |
US11755637B2 (en) * | 2021-08-20 | 2023-09-12 | Salesforce, Inc. | Multi-attribute control for text summarization using multiple decoder heads |
-
2019
- 2019-03-29 JP JP2019068553A patent/JP7272060B2/ja active Active
-
2020
- 2020-03-26 US US16/830,364 patent/US20200311350A1/en not_active Abandoned
Non-Patent Citations (3)
Title |
---|
Abigail See 他2名,Get To The Point: Summarization with Pointer-Generator Networks[online],2017年04月25日,(検索日2022年10月25日),URL:https://arxiv.org/abs/1704.04368 |
Thiago Castro Ferreira 他3名,NeuralREG: An end-to-end approach to referring expression generation,2018年05月21日,(検索日2022年10月25日),URL:https://arxiv.org/abs/1805.08093 |
鵜川新 他4名,固有表現情報を用いたニューラル機械翻訳,言語処理学会第24回年次大会 発表論文集[online],日本,言語処理学会,2018年03月05日,25-28頁 |
Also Published As
Publication number | Publication date |
---|---|
JP2020166735A (ja) | 2020-10-08 |
US20200311350A1 (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7346609B2 (ja) | 自然言語理解(nlu)フレームワークを使用して意味探索を実行するシステムおよび方法 | |
JP7211045B2 (ja) | 要約文生成方法、要約文生成プログラム及び要約文生成装置 | |
CN109299228B (zh) | 计算机执行的文本风险预测方法及装置 | |
US20220222489A1 (en) | Generation of training data for machine learning based models for named entity recognition for natural language processing | |
JP7272060B2 (ja) | 生成方法、学習方法、生成プログラム、及び生成装置 | |
JP2004355483A (ja) | 形態素解析装置、形態素解析方法及び形態素解析プログラム | |
JP2010537286A (ja) | 領域辞書の作成 | |
JP2008084064A (ja) | テキスト分類処理方法、テキスト分類処理装置ならびにテキスト分類処理プログラム | |
Swain et al. | Study of feature combination using HMM and SVM for multilingual Odiya speech emotion recognition | |
JP2020135135A (ja) | 対話コンテンツ作成支援方法およびシステム | |
JP2019121139A (ja) | 要約装置、要約方法、及び要約プログラム | |
CN115114919A (zh) | 呈现提示信息的方法和装置以及存储介质 | |
US20220165257A1 (en) | Neural sentence generator for virtual assistants | |
George et al. | Comparison of LDA and NMF topic modeling techniques for restaurant reviews | |
Saha et al. | Emoji prediction using emerging machine learning classifiers for text-based communication | |
JP7211011B2 (ja) | 学習方法、学習プログラム及び生成方法 | |
JP7135730B2 (ja) | 要約生成方法及び要約生成プログラム | |
JP2023181819A (ja) | 言語処理装置、機械学習方法、推定方法及びプログラム | |
JP2023540514A (ja) | 自然言語解釈に基づく推論 | |
JP6067616B2 (ja) | 発話生成手法学習装置、発話生成手法選択装置、発話生成手法学習方法、発話生成手法選択方法、プログラム | |
Lee | N-Gram Language Model | |
JP5506482B2 (ja) | 固有表現抽出装置、文字列−固有表現クラス対データベース作成装置、固有表現抽出方法、文字列−固有表現クラス対データベース作成方法、プログラム | |
Mao et al. | A neural joint model with BERT for Burmese syllable segmentation, word segmentation, and POS tagging | |
Rajkumar et al. | An efficient feature extraction with bidirectional long short term memory based deep learning model for Tamil document classification | |
Corbara et al. | Investigating topic-agnostic features for authorship tasks in Spanish political speeches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7272060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |