JP2019149030A - 学習品質推定装置、方法、及びプログラム - Google Patents
学習品質推定装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP2019149030A JP2019149030A JP2018033719A JP2018033719A JP2019149030A JP 2019149030 A JP2019149030 A JP 2019149030A JP 2018033719 A JP2018033719 A JP 2018033719A JP 2018033719 A JP2018033719 A JP 2018033719A JP 2019149030 A JP2019149030 A JP 2019149030A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- discrete
- sequence
- quality score
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000013016 learning Effects 0.000 title claims abstract description 170
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000004364 calculation method Methods 0.000 claims abstract description 38
- 239000013598 vector Substances 0.000 claims description 71
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 abstract description 20
- 238000003058 natural language processing Methods 0.000 abstract description 13
- 238000006243 chemical reaction Methods 0.000 description 14
- 230000002411 adverse Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000002441 reversible effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000001915 proofreading effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
Abstract
Description
本実施形態では、上述の非特許文献2に記載のAttention付き離散系列-離散系列変換器を用いて対訳学習用データに品質スコアを付与して選択する場合について説明する。この離散系列-離散系列変換器には、上記以外にも様々な手法(例えば、非特許文献3を参照。)が考えられるが、本実施形態においてはどの変換器を使用してもよい。
Dzmitry Bahdanau, Kyunghyun Cho and Yoshua Bengio, Neural Machine Translation by Jointly Learning to Align and Translate. Proceedings of the 3rd International Conference on Learning Representations, 2015.
誤りを含んでいる可能性のある対訳学習用ペアの入力を受け付ける。
既存の単語分割器を用いて、対訳学習用ペアの入力文及び出力文の各々を単語系列に分割する。
事前に学習して得られた離散系列-離散系列変換器の学習済みモデルを用いて、出力文の品質スコアを計算する。
上記手順を対訳学習用ペア全てについて繰り返し、全ての対訳学習用ペアについて品質スコアを得る。
得られた対訳学習用ペアの品質スコアに基づいて、対訳学習用ペアの並べ替えを行い、品質スコアが高い順に予め定められた数の対訳学習用ペアを選択する。
ここでは、上述のように誤りを含んでいない対訳学習用ペアに基づいて離散系列-離散系列変換器を学習する。
図1に示すように、本実施形態に係る学習品質推定装置90は、機能的には、演算部10と、入力部20と、出力部30と、を備えている。
図2に示すように、本実施形態に係る品質スコア計算部14は、符号化器14A、復号化器14B、及び尤度算出部14Cを含んで構成されている。なお、これらの符号化器14A及び復号化器14Bは、離散系列変換器を構成している。
上記第1の実施形態では、誤りを含まない第1学習用ペアの文章群(CF、CE)を利用して離散系列変換器の入力文から出力文への順方向のパラメタθfeを学習して利用した。本実施形態では、離散系列変換器の出力文から入力文への逆方向のパラメタθefも学習して利用する。これにより更なる精度向上を図ることが可能となる。この場合、例えば、両方向で得られた品質スコアJwの和を取り、それを選択に利用することができる。
図4に示すように、本実施形態に係る学習品質推定装置92は、機能的には、演算部10と、入力部20と、出力部30と、を備えている。なお、第1の実施形態に係る学習品質推定装置90と同一の機能を有する構成要素には、同一の符号を付しここでの繰り返しの説明は省略する。
これに対して、上記各実施形態を用いることにより学習用データの品質を推定することができ、それを基に学習用データを選択することで、機械学習に悪影響を与える誤ったデータを取り除くことができる。ゆえに、本実施形態を適用することで機械学習の学習精度を向上させることができる。
12 分割部
14 品質スコア計算部
14A 符号化器
14B 復号化器
14C 尤度算出部
16、16A、16B 記憶部
18 選択部
20 入力部
30 出力部
90、92 学習品質推定装置
Claims (7)
- 離散系列の入力を示す第1離散系列と出力を示す第2離散系列とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の第1離散系列を第2離散系列に変換する離散系列変換器の順方向学習済みモデルを記憶した記憶部と、
対応関係に誤りを含んでいる可能性のある離散系列の入力及び出力からなる第2学習用ペアについて、前記順方向学習済みモデルを用いて品質スコアを計算する品質スコア計算部と、
を備えた学習品質推定装置。 - 前記離散系列変換器は、ニューラルネットワークであり、
前記入力に含まれる各離散シンボルを、固定長のベクトルに変換し、変換した各離散シンボルの固定長のベクトルを符号化して固定長のベクトル系列を得る符号化器と、
前記符号化器により得られた固定長のベクトル系列に基づいて、隠れベクトルを求め、前記隠れベクトルに基づいて、前記入力に対する出力を得る復号化器と、
を含み、
前記品質スコア計算部は、前記第2学習用ペアに含まれる出力について、前記第2学習用ペアに含まれる入力から前記符号化器により得られた固定長のベクトル系列を入力として、前記復号化器により得られた固定長のベクトル系列に基づいて前記復号化器から前記出力が得られる際の負の対数尤度を用いて、前記品質スコアを計算する請求項1に記載の学習品質推定装置。 - 前記品質スコア計算部は、前記負の対数尤度を前記出力に含まれる離散シンボル数で除することで得られる離散シンボル当たりの負の対数尤度を、前記品質スコアとして出力する請求項2に記載の学習品質推定装置。
- 前記品質スコア計算部は、複数の第2学習用ペアの各々について、前記品質スコアを計算し、
前記複数の第2学習用ペアの中から、前記品質スコア計算部により計算された品質スコアが高い順に予め定められた数の第2学習用ペアを選択する選択部を更に備えた請求項1〜3のいずれか1項に記載の学習品質推定装置。 - 前記記憶部は、前記複数の第1学習用ペアに基づいて予め学習された、離散系列の第2離散系列を第1離散系列に変換する離散系列変換器の逆方向学習済みモデルを更に記憶しており、
前記品質スコア計算部は、前記第2学習用ペアについて、前記順方向学習済みモデル及び前記逆方向学習済みモデルの各々を用いて前記品質スコアを計算する請求項1〜4のいずれか1項に記載の学習品質推定装置。 - 離散系列の入力を示す第1離散系列と出力を示す第2離散系列とが正しい対応関係である複数の第1学習用ペアに基づいて予め学習された、離散系列の第1離散系列を第2離散系列に変換する離散系列変換器の順方向学習済みモデルを記憶した記憶部を備えた学習品質推定装置による学習品質推定方法であって、
品質スコア計算部が、対応関係に誤りを含んでいる可能性のある離散系列の入力及び出力からなる第2学習用ペアについて、前記順方向学習済みモデルを用いて品質スコアを計算するステップ、
を含む学習品質推定方法。 - コンピュータを、請求項1〜5のいずれか1項に記載の学習品質推定装置が備える品質スコア計算部として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018033719A JP6969443B2 (ja) | 2018-02-27 | 2018-02-27 | 学習品質推定装置、方法、及びプログラム |
PCT/JP2019/006555 WO2019167794A1 (ja) | 2018-02-27 | 2019-02-21 | 学習品質推定装置、方法、及びプログラム |
US16/975,679 US20200410345A1 (en) | 2018-02-27 | 2019-02-21 | Learning quality estimation device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018033719A JP6969443B2 (ja) | 2018-02-27 | 2018-02-27 | 学習品質推定装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019149030A true JP2019149030A (ja) | 2019-09-05 |
JP6969443B2 JP6969443B2 (ja) | 2021-11-24 |
Family
ID=67804942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018033719A Active JP6969443B2 (ja) | 2018-02-27 | 2018-02-27 | 学習品質推定装置、方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200410345A1 (ja) |
JP (1) | JP6969443B2 (ja) |
WO (1) | WO2019167794A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021140957A1 (ja) * | 2020-01-08 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
WO2021193025A1 (ja) * | 2020-03-25 | 2021-09-30 | パナソニックIpマネジメント株式会社 | データ生成方法、判定方法、プログラム、及び、データ生成システム |
WO2022038785A1 (ja) | 2020-08-21 | 2022-02-24 | 富士通株式会社 | 訓練データ生成プログラム、訓練データ生成方法および訓練データ生成装置 |
JP7476578B2 (ja) | 2020-03-06 | 2024-05-01 | 富士フイルムビジネスイノベーション株式会社 | 学習装置及びプログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114971425B (zh) * | 2022-07-27 | 2022-10-21 | 深圳市必提教育科技有限公司 | 数据库信息监控方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110099133A1 (en) * | 2009-10-28 | 2011-04-28 | Industrial Technology Research Institute | Systems and methods for capturing and managing collective social intelligence information |
CN102945232A (zh) * | 2012-11-16 | 2013-02-27 | 沈阳雅译网络技术有限公司 | 面向统计机器翻译的训练语料质量评价及选取方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109074242A (zh) * | 2016-05-06 | 2018-12-21 | 电子湾有限公司 | 在神经机器翻译中使用元信息 |
US10402495B1 (en) * | 2016-09-01 | 2019-09-03 | Facebook, Inc. | Abstractive sentence summarization |
WO2018203147A2 (en) * | 2017-04-23 | 2018-11-08 | Voicebox Technologies Corporation | Multi-lingual semantic parser based on transferred learning |
US10733380B2 (en) * | 2017-05-15 | 2020-08-04 | Thomson Reuters Enterprise Center Gmbh | Neural paraphrase generator |
US10867595B2 (en) * | 2017-05-19 | 2020-12-15 | Baidu Usa Llc | Cold fusing sequence-to-sequence models with language models |
CN107357775A (zh) * | 2017-06-05 | 2017-11-17 | 百度在线网络技术(北京)有限公司 | 基于人工智能的循环神经网络的文本纠错方法及装置 |
EP3454260A1 (en) * | 2017-09-11 | 2019-03-13 | Tata Consultancy Services Limited | Bilstm-siamese network based classifier for identifying target class of queries and providing responses thereof |
US20190095961A1 (en) * | 2017-09-22 | 2019-03-28 | Facebook, Inc. | Applying a trained model for predicting quality of a content item along a graduated scale |
US10380236B1 (en) * | 2017-09-22 | 2019-08-13 | Amazon Technologies, Inc. | Machine learning system for annotating unstructured text |
KR102462426B1 (ko) * | 2017-12-14 | 2022-11-03 | 삼성전자주식회사 | 발화의 의미를 분석하기 위한 전자 장치 및 그의 동작 방법 |
US10489792B2 (en) * | 2018-01-05 | 2019-11-26 | Asapp, Inc. | Maintaining quality of customer support messages |
-
2018
- 2018-02-27 JP JP2018033719A patent/JP6969443B2/ja active Active
-
2019
- 2019-02-21 US US16/975,679 patent/US20200410345A1/en active Pending
- 2019-02-21 WO PCT/JP2019/006555 patent/WO2019167794A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110099133A1 (en) * | 2009-10-28 | 2011-04-28 | Industrial Technology Research Institute | Systems and methods for capturing and managing collective social intelligence information |
CN102945232A (zh) * | 2012-11-16 | 2013-02-27 | 沈阳雅译网络技术有限公司 | 面向统计机器翻译的训练语料质量评价及选取方法 |
Non-Patent Citations (2)
Title |
---|
今村 賢治、隅田 英一郎: "疑似原文生成によるニューラル機械翻訳への単言語コーパスの導入", 言語処理学会第23回年次大会 発表論文集 [ONLINE], JPN6021005519, 6 March 2017 (2017-03-06), JP, pages 1026 - 1029, ISSN: 0004448684 * |
松村 雪桜 外2名: "逆翻訳によるニューラル機械翻訳の最適化", 言語処理学会第23回年次大会 発表論文集 [ONLINE], JPN6021005521, 6 March 2017 (2017-03-06), JP, pages 986 - 989, ISSN: 0004448685 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021140957A1 (ja) * | 2020-01-08 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP7476578B2 (ja) | 2020-03-06 | 2024-05-01 | 富士フイルムビジネスイノベーション株式会社 | 学習装置及びプログラム |
WO2021193025A1 (ja) * | 2020-03-25 | 2021-09-30 | パナソニックIpマネジメント株式会社 | データ生成方法、判定方法、プログラム、及び、データ生成システム |
WO2022038785A1 (ja) | 2020-08-21 | 2022-02-24 | 富士通株式会社 | 訓練データ生成プログラム、訓練データ生成方法および訓練データ生成装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6969443B2 (ja) | 2021-11-24 |
US20200410345A1 (en) | 2020-12-31 |
WO2019167794A1 (ja) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019167794A1 (ja) | 学習品質推定装置、方法、及びプログラム | |
US11106714B2 (en) | Summary generating apparatus, summary generating method and computer program | |
CN109871529B (zh) | 语言处理方法和设备 | |
US11487950B2 (en) | Autonomous evolution intelligent dialogue method, system, and device based on a game with a physical environment | |
CN111401084B (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN107729322B (zh) | 分词方法及装置、建立句子向量生成模型方法及装置 | |
CN108090218B (zh) | 基于深度强化学习的对话系统生成方法和装置 | |
CN111291166A (zh) | 基于Bert的语言模型的训练方法及装置 | |
CN112686058A (zh) | Bert嵌入语音翻译模型训练方法、系统及语音翻译方法和设备 | |
CN111008266B (zh) | 文本分析模型的训练方法及装置、文本分析方法及装置 | |
CN110689048A (zh) | 用于样本分类的神经网络模型的训练方法和装置 | |
JPWO2019163718A1 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
CN113822054A (zh) | 基于数据增强的中文语法纠错方法及装置 | |
CN112364659B (zh) | 一种无监督的语义表示自动识别方法及装置 | |
CN110287487B (zh) | 主谓语识别方法、装置、设备及计算机可读存储介质 | |
CN110399619B (zh) | 面向神经机器翻译的位置编码方法及计算机存储介质 | |
CN114707518B (zh) | 面向语义片段的目标情感分析方法、装置、设备及介质 | |
JP2017142746A (ja) | 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム | |
CN113486160B (zh) | 基于跨语言知识的对话方法及系统 | |
WO2019171537A1 (ja) | 意味推定システム、方法およびプログラム | |
JP6633999B2 (ja) | 符号器学習装置、変換装置、方法、及びプログラム | |
Heymann et al. | Improving CTC using stimulated learning for sequence modeling | |
CN113011149B (zh) | 一种文本纠错方法及系统 | |
WO2019171538A1 (ja) | 意味推定システム、方法およびプログラム | |
KR102645628B1 (ko) | 선다형 질문에 대한 정답 선택 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6969443 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |