JP7211011B2 - 学習方法、学習プログラム及び生成方法 - Google Patents
学習方法、学習プログラム及び生成方法 Download PDFInfo
- Publication number
- JP7211011B2 JP7211011B2 JP2018205376A JP2018205376A JP7211011B2 JP 7211011 B2 JP7211011 B2 JP 7211011B2 JP 2018205376 A JP2018205376 A JP 2018205376A JP 2018205376 A JP2018205376 A JP 2018205376A JP 7211011 B2 JP7211011 B2 JP 7211011B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- score
- rnn
- learning
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、実施例1に係るシステムに含まれる各装置の機能的構成を示すブロック図である。図1に示すシステム1では、学習用入力文および正解要約文を含む学習データを用いてモデルの機械学習を行う機械学習サービス、並びに、学習済みモデルを用いて入力文から要約文を生成する要約生成サービスが提供される。
図2は、記事要約ツールのユースケースの一例を示す図である。図2には、メディア事業者の関係者により使用される端末装置に表示される記事要約画面20の遷移の一例が示されている。
上記の背景技術の欄でも説明した通り、モデルが出力する単語の生成確率に影響を与えるのは、あくまで要約文の上限文字数までの残り文字数であってモデルが生成する単語の長さそのものではない。したがって、要約文の上限文字数の近傍であっても残り文字数を超える長さの単語が生成されるのに歯止めが掛からない場合がある。
そこで、本実施例に係る学習装置10は、モデルが辞書の単語ごとに出力する第1スコアに、モデルの辞書の単語ごとに単語の長さおよび要約文の上限文字数までの残り文字数から求まる第2スコアを合成して単語の生成確率の分布を算出する。
図1に示すように、学習装置10は、学習データ記憶部11と、モデル記憶部12と、入力制御部13と、モデル実行部15と、算出部16と、合成部17と、生成部18と、更新部19とを有する。なお、学習装置10は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
以下、モデルのパラメータ更新の前後で単語の生成確率の分布を対比する。ここで、Tラウンド目のモデル学習に用いられる単語の生成確率の分布が算出される例を図5に示す一方で、T+1ラウンド目のモデル学習に用いられる単語の生成確率の分布が算出される例を図6に示す。
図1に示すように、生成装置30は、入力制御部31と、モデル実行部32と、算出部33と、合成部34と、生成部35とを有する。なお、生成装置30は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
以下、図7及び図8を用いて、従来技術および本実施例における要約文生成の具体例を説明する。
図7に示すように、1時刻目には、入力制御部31の制御にしたがって、RNNエンコーダの末尾のLSTMから入力文の中間表現が先頭のLSTM32D1へ入力される。これと共に、先頭のLSTM32D1には、入力制御部31からBOSのタグと共に、RNNデコーダにEOSを出力させるまでの残り文字数の初期値として指定の上限文字数「53」が入力される。このような入力の結果、LSTM32D1は、学習済みモデルの辞書に登録された単語、すなわち学習サンプル全体で学習用入力文に出現する単語ごとに確率を計算することにより1時刻目(t=1)における単語の確率分布を算出すると共に、入力文40の中間表現を更新する。その上で、LSTM32D1は、1時刻目における単語の確率分布を生成部35へ出力すると共に、1時刻目に更新された中間表現を次段のLSTM32D2へ出力する。
図8に示すように、1時刻目には、入力制御部31の制御にしたがって、RNNエンコーダの末尾のLSTMから入力文の中間表現が先頭のLSTM32D1へ入力される。これと共に、先頭のLSTM32D1には、入力制御部31からBOSのタグと共に、RNNデコーダにEOSを出力させるまでの残り文字数の初期値として指定の上限文字数「53」が入力される。このような入力の結果、LSTM32D1は、学習済みモデルの辞書に登録された単語の要素ごとに第1スコアを出力すると共に、入力文の隠れ状態を更新して1時刻目に更新された更新状態を次段のLSTM32D2へ出力する。さらに、算出部33により単語の要素ごとに第2スコアが算出される。その上で、合成部34は、第1スコアおよび第2スコアが合成された合成スコアを正規化することにより1時刻目(t=1)における単語の生成確率の分布を算出する。そして、合成部34は、1時刻目における単語の確率分布を生成部35へ出力する。
上記(イ)および上記(ロ)を対比すると、9時刻目の結果に差が現れていることがわかる。例えば、上記(イ)では、9時刻目にモデルが単語“vacation”を出力されることにより、残り文字数「7」から単語“vacation”の文字数「8」が減算されている。この結果、上限文字数から1文字超える要約文が生成されてしまう。一方、例えば、上記(ロ)では、9時刻目にモデルが単語“vacation”と意味が類似する単語“holiday”を出力されることにより、残り文字数「7」から単語“holiday”の文字数「7」が減算されている。この結果、上限文字数を超えず、上限文字数にぴったり収まる要約文が生成される。したがって、本実施例に係る生成装置30によれば、要約文の上限文字数の近傍でモデルが生成する単語の文字数を残りの文字数に近付け、上限文字数を超えない要約生成を実現できる。
次に、本実施例に係るシステムの処理の流れについて説明する。ここでは、学習装置10により実行される(A)学習処理について説明した後に、生成装置30により実行される(B)生成処理について説明することとする。
図9は、実施例1に係る学習処理の手順を示すフローチャートである。この学習処理は、一例として、モデル学習のリクエストを受け付けた場合に開始される。図9に示すように、入力制御部13は、モデルに生成させる要約文の上限文字数を設定する(ステップS101)。続いて、学習データに含まれるD個の学習サンプルdごとに、ステップS102~ステップS111の処理が実行される。
図10は、実施例1に係る生成処理の手順を示すフローチャートである。この学習処理は、一例として、要約文生成のリクエストを受け付けた場合に開始される。図10に示すように、入力制御部31は、入力文を取得すると共に、学習済みモデルに生成させる要約文の上限文字数の指定を受け付ける(ステップS301及びステップS302)。その後、入力制御部31は、入力文をRNNエンコーダへ入力する(ステップS303)。これによって、入力文の単語列が中間表現へ変換される。
上述してきたように、本実施例に係る学習装置10及び生成装置30は、モデルが辞書の単語ごとに出力する第1スコアに、モデルの辞書の単語ごとに単語の長さおよび要約文の上限文字数までの残り文字数から求まる第2スコアを合成して単語の生成確率の分布を算出する。したがって、本実施例に係る学習装置10及び生成装置30によれば、要約文の上限文字数の近傍でモデルが生成する単語の文字数を残りの文字数に近付けることが可能である。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、入力制御部13、モデル実行部15、算出部16、合成部17、生成部18及び更新部19を学習装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、入力制御部13、モデル実行部15、算出部16、合成部17、生成部18及び更新部19を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の学習装置10の機能を実現するようにしてもよい。
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図11を用いて、上記の実施例と同様の機能を有する学習プログラムを実行するコンピュータの一例について説明する。
11 学習データ記憶部
12 モデル記憶部
13 入力制御部
15 モデル実行部
16 算出部
17 合成部
18 生成部
19 更新部
30 生成装置
31 入力制御部
32 モデル実行部
33 算出部
34 合成部
35 生成部
Claims (5)
- 学習用入力文をRNNへ入力し、
前記RNNのデコーダのセルごとに、前記学習用入力文が入力された前記RNNのエンコーダが出力する隠れ状態、または、前記RNNのデコーダのセルのうち1つ前に出力された要約文の要素に対応するセルにより更新された隠れ状態に基づいて、前記RNNの訓練に用いる前記学習用入力文を含むデータセットから獲得された語彙が登録された辞書の単語の第1スコアを算出し、
前記RNNのデコーダのセルごとに、前記単語の長さおよび要約文の上限文字数までの残り文字数の類似度に基づいて前記辞書の単語の第2スコアを算出し、
前記第1スコアおよび前記第2スコアが合成された合成スコアに基づいて前記辞書の単語の生成確率の分布を算出する、
処理をコンピュータが実行することを特徴とする学習方法。 - 前記RNNは、入力文として記事が入力されると前記記事の要約文を生成する記事要約プログラムに組み込まれることを特徴とする請求項1に記載の学習方法。
- 前記第2スコアを算出する処理は、前記RNNのデコーダのセルごとに、前記辞書の単語の長さの分散表現および前記要約文の上限文字数までの残り文字数の分散表現の内積に基づいて前記辞書の単語の第2スコアを算出する処理を含む、
ことを特徴とする請求項1または2に記載の学習方法。 - 学習用入力文をRNNへ入力し、
前記RNNのデコーダのセルごとに、前記学習用入力文が入力された前記RNNのエンコーダが出力する隠れ状態、または、前記RNNのデコーダのセルのうち1つ前に出力された要約文の要素に対応するセルにより更新された隠れ状態に基づいて、前記RNNの訓練に用いる前記学習用入力文を含むデータセットから獲得された語彙が登録された辞書の単語の第1スコアを算出し、
前記RNNのデコーダのセルごとに、前記単語の長さおよび要約文の上限文字数までの残り文字数の類似度に基づいて前記辞書の単語の第2スコアを算出し、
前記第1スコアおよび前記第2スコアが合成された合成スコアに基づいて前記辞書の単語の生成確率の分布を算出する、
処理をコンピュータに実行させることを特徴とする学習プログラム。 - 入力文をRNNへ入力し、
前記RNNのデコーダのセルごとに、前記入力文が入力された前記RNNのエンコーダが出力する隠れ状態、または、前記RNNのデコーダのセルのうち1つ前に出力された要約文の要素に対応するセルにより更新された隠れ状態に基づいて、前記RNNの訓練に用いられた学習用入力文を含むデータセットから獲得された語彙が登録された辞書の単語の第1スコアを算出し、
前記RNNのデコーダのセルごとに、前記単語の長さおよび要約文の上限文字数までの残り文字数の類似度に基づいて前記辞書の単語の第2スコアを算出し、
前記第1スコアおよび前記第2スコアが合成された合成スコアに基づいて前記辞書の単語の生成確率の分布を算出する、
処理をコンピュータが実行することを特徴とする生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018205376A JP7211011B2 (ja) | 2018-10-31 | 2018-10-31 | 学習方法、学習プログラム及び生成方法 |
US16/665,067 US11386272B2 (en) | 2018-10-31 | 2019-10-28 | Learning method and generating apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018205376A JP7211011B2 (ja) | 2018-10-31 | 2018-10-31 | 学習方法、学習プログラム及び生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020071677A JP2020071677A (ja) | 2020-05-07 |
JP7211011B2 true JP7211011B2 (ja) | 2023-01-24 |
Family
ID=70326792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018205376A Active JP7211011B2 (ja) | 2018-10-31 | 2018-10-31 | 学習方法、学習プログラム及び生成方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11386272B2 (ja) |
JP (1) | JP7211011B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11593556B2 (en) * | 2020-05-26 | 2023-02-28 | Mastercard International Incorporated | Methods and systems for generating domain-specific text summarizations |
JP2022098219A (ja) * | 2020-12-21 | 2022-07-01 | 富士通株式会社 | 学習プログラム、学習方法、および学習装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005324A (ja) | 2016-06-28 | 2018-01-11 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4250024B2 (ja) | 2003-05-23 | 2009-04-08 | 日本電信電話株式会社 | テキスト要約装置、およびテキスト要約プログラム |
JP5921457B2 (ja) | 2013-02-05 | 2016-05-24 | 日本電信電話株式会社 | 文書要約方法、装置、及びプログラム |
JP2015103101A (ja) * | 2013-11-26 | 2015-06-04 | 日本電信電話株式会社 | テキスト要約装置、方法、及びプログラム |
US10325091B2 (en) * | 2016-08-25 | 2019-06-18 | International Business Machines Corporation | Generation of secure passwords in real-time using personal data |
-
2018
- 2018-10-31 JP JP2018205376A patent/JP7211011B2/ja active Active
-
2019
- 2019-10-28 US US16/665,067 patent/US11386272B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005324A (ja) | 2016-06-28 | 2018-01-11 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
Non-Patent Citations (1)
Title |
---|
菊池悠太 他4名,Encoder-Decoderモデルにおける出力長制御,情報処理学会研究報告 自然言語処理(NL)[online],日本,情報処理学会,2016年07月22日,2016-NL-227,ISSN 2188-8779 |
Also Published As
Publication number | Publication date |
---|---|
US11386272B2 (en) | 2022-07-12 |
US20200134023A1 (en) | 2020-04-30 |
JP2020071677A (ja) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363790A (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
WO2021037113A1 (zh) | 一种图像描述的方法及装置、计算设备和存储介质 | |
CN110264991A (zh) | 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质 | |
JP2019028839A (ja) | 分類器、分類器の学習方法、分類器における分類方法 | |
JP2020087353A (ja) | 要約文生成方法、要約文生成プログラム及び要約文生成装置 | |
CN116072098B (zh) | 音频信号生成方法、模型训练方法、装置、设备和介质 | |
WO2020147409A1 (zh) | 一种文本分类方法、装置、计算机设备及存储介质 | |
JP7343566B2 (ja) | 言語モデルを利用したデータ生成方法、コンピュータ装置、およびコンピュータプログラム | |
WO2021034376A1 (en) | Example based entity extraction, slot filling and value recommendation | |
CN111177350A (zh) | 智能语音机器人的话术形成方法、装置和系统 | |
CN110968725B (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
CN111985243B (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
JP7272060B2 (ja) | 生成方法、学習方法、生成プログラム、及び生成装置 | |
EP4060548A1 (en) | Method and device for presenting prompt information and storage medium | |
JP2020135135A (ja) | 対話コンテンツ作成支援方法およびシステム | |
JP7211011B2 (ja) | 学習方法、学習プログラム及び生成方法 | |
JP6082657B2 (ja) | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム | |
CN111161703A (zh) | 带语气的语音合成方法、装置、计算设备及存储介质 | |
JP7135730B2 (ja) | 要約生成方法及び要約生成プログラム | |
CN115357720A (zh) | 基于bert的多任务新闻分类方法及装置 | |
JP7099254B2 (ja) | 学習方法、学習プログラム及び学習装置 | |
CN115512374A (zh) | 针对表格文本的深度学习特征提取分类方法及装置 | |
CN114091447A (zh) | 一种文本识别方法、装置和设备 | |
CN112446206A (zh) | 一种菜谱标题的生成方法及装置 | |
JP6309852B2 (ja) | 強調位置予測装置、強調位置予測方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7211011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |