JP7203153B2 - 機械翻訳モデルの訓練方法、装置、電子デバイス及び記憶媒体 - Google Patents
機械翻訳モデルの訓練方法、装置、電子デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP7203153B2 JP7203153B2 JP2021099159A JP2021099159A JP7203153B2 JP 7203153 B2 JP7203153 B2 JP 7203153B2 JP 2021099159 A JP2021099159 A JP 2021099159A JP 2021099159 A JP2021099159 A JP 2021099159A JP 7203153 B2 JP7203153 B2 JP 7203153B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- probability
- domain
- machine translation
- translation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Description
Claims (15)
- コンピュータにより実行される目標分野の機械翻訳モデルの訓練方法であって、
パラレルコーパスから、翻訳品質が予め設定された要求を満たし、且つ共通分野の特徴および/または目標分野の特徴を有する一セットのサンプルを選択して第1訓練サンプルセットを構成し、目標分野の特徴を有するサンプルが共通分野に属する確率は特定の第1確率閾値よりも低く、共通分野の特徴を有するサンプルが共通分野に属する確率は特定の第2確率閾値よりも高く、
前記パラレルコーパスから、翻訳品質が予め設定された要求を満たし、共通分野の特徴と目標分野の特徴を備えていない一セットのサンプルを選択して第2訓練サンプルセットを構成し、目標分野の特徴を備えていないサンプルが共通分野に属する確率は前記第1確率閾値以上であり、共通分野の特徴を備えていないサンプルが共通分野に属する確率は前記第2確率閾値以下であり、前記第1訓練サンプルセットを使用して目標分野の機械翻訳モデルのエンコーダと、前記エンコーダの各符号化層に配置され訓練時に入力されたサンプルが属する分野を識別する判別器とを訓練し、前記第2訓練サンプルセットを使用して目標分野の機械翻訳モデルのエンコーダ及び判別器を訓練する、
ことを含む方法。 - パラレルコーパスから翻訳品質が予め設定された要求を満たし、共通分野の特徴および/または目標分野の特徴を有する一セットのサンプルを選択して第1訓練サンプルセットを構成することは、
前記判別器を用いて前記パラレルコーパスにおける各前記サンプルが共通分野と目標分野とのうち前記共通分野または目標分野に属する確率を識別し、
前記パラレルコーパスから、確率が前記第1確率閾値よりも低くおよび/または確率が前記第1確率閾値よりも大きい前記第2確率閾値よりも高く、且つ翻訳確率が予め設定された確率閾値よりも高い一セットのサンプルを選択して前記第1訓練サンプルセットを構成する、
ことを含む請求項1に記載の方法。 - 前記パラレルコーパスから翻訳品質が予め設定された要求を満たし、共通分野の特徴及び目標分野の特徴を備えない一セットのサンプルを選択して第2訓練サンプルセットを構成することは、
前記パラレルコーパスから、確率が前記第1確率閾値以上かつ前記第2確率閾値以下であり、且つ翻訳確率が予め設定された確率閾値よりも大きい一セットのサンプルを選択して前記第2訓練サンプルセットを構成する、
ことを含む請求項2に記載の方法。 - 前記判別器を用いて前記パラレルコーパスにおける各前記サンプルが共通分野と目標分野とのうち前記共通分野または目標分野に属する確率を識別することは、
前記目標分野の機械翻訳モデルのエンコーダの最上位層の符号化層に配置された前記判別器を用いて、前記パラレルコーパスにおける各前記サンプルが前記共通分野または目標分野に属する確率を識別する、
ことを含む請求項2に記載の方法。 - 前記第1訓練サンプルセットを使用して目標分野の機械翻訳モデルのエンコーダと、前記エンコーダの各符号化層に配置され訓練時に入力されたサンプルが属する分野を識別する判別器とを訓練し、前記第2訓練サンプルセットを使用して目標分野の機械翻訳モデルのエンコーダ及び判別器を訓練することは、
前記目標分野の機械翻訳モデルのデコーダを固定し、前記第1訓練サンプルセットを用いて前記目標分野の機械翻訳モデルのエンコーダ、及び前記エンコーダの各符号化層に配置された前記判別器を訓練し、
前記エンコーダの各符号化層に配置された前記判別器を固定し、前記第2訓練サンプルセットを用いて前記目標分野の機械翻訳モデルのエンコーダおよびデコーダを訓練する、
ことを含む請求項1に記載の方法。 - 前記第1訓練サンプルセットおよび前記第2訓練サンプルセットをそれぞれ使用して、目標分野の機械翻訳モデルのエンコーダおよび前記エンコーダの各符号化層に配置された判別器と、前記目標分野の機械翻訳モデルのエンコーダおよびデコーダとを順次に訓練する前に、
ディープラーニング技術に基づいて予め訓練された共通分野の機械翻訳モデルを前記目標分野の機械翻訳モデルとして取得する、
ことを含む請求項1~5のいずれか1項に記載の方法。 - 目標分野の機械翻訳モデルの訓練装置であって、
パラレルコーパスから、翻訳品質が予め設定された要求を満たし、共通分野の特徴および/または目標分野の特徴を有する一セットのサンプルを選択して第1訓練サンプルセットを構成し、目標分野の特徴を有するサンプルが共通分野に属する確率は特定の第1確率閾値よりも低く、共通分野の特徴を有するサンプルが共通分野に属する確率は特定の第2確率閾値よりも高い第1選択モジュールと、
前記パラレルコーパスから、翻訳品質が予め設定された要求を満たし、共通分野の特徴及び目標分野の特徴を備えていない一セットのサンプルを選択して第2訓練サンプルセットを構成し、目標分野の特徴を備えていないサンプルが共通分野に属する確率は前記第1確率閾値以上であり、共通分野の特徴を備えていないサンプルが共通分野に属する確率は前記第2確率閾値以下である第2選択モジュールと、
前記第1訓練サンプルセットおよび前記第2訓練サンプルセットをそれぞれ使用して、目標分野の機械翻訳モデルのエンコーダ、および、前記エンコーダの各符号化層に配置された訓練時に入力されたサンプルが属する分野を識別する判別器と、前記目標分野の機械翻訳モデルのエンコーダおよびデコーダとを順次に訓練し、前記第1訓練サンプルセットを使用して目標分野の機械翻訳モデルのエンコーダと、前記エンコーダの各符号化層に配置され訓練時に入力されたサンプルが属する分野を識別する判別器とを訓練し、前記第2訓練サンプルセットを使用して目標分野の機械翻訳モデルのエンコーダ及び判別器を訓練する訓練モジュールと、
を備える装置。 - 前記第1選択モジュールは、
前記判別器を用いて、前記パラレルコーパスにおける各前記サンプルが共通分野と目標分野とのうち前記共通分野又は前記目標分野に属する確率を識別する確率識別ユニットと、
前記パラレルコーパスから、確率が前記第1確率閾値よりも低くおよび/または確率が前記第1確率閾値よりも大きい前記第2確率閾値よりも高く、且つ翻訳確率が予め設定された確率閾値よりも高い一セットのサンプルを選択して前記第1訓練サンプルセットを構成する選択ユニットと
を備える請求項7に記載の装置。 - 前記第2選択モジュールは、
前記パラレルコーパスから、確率が前記第1確率閾値以上かつ前記第2確率閾値以下であり、且つ翻訳確率が予め設定された確率閾値よりも大きい一セットのサンプルを選択して前記第2訓練サンプルセットを構成する、
請求項8に記載の装置。 - 前記確率識別ユニットは、
前記目標分野の機械翻訳モデルのエンコーダの最上位層の符号化層に配置された前記判別器を用いて、前記パラレルコーパスにおける各前記サンプルが前記共通分野または目標分野に属する確率を識別する、
請求項8に記載の装置。 - 前記訓練モジュールは、
前記目標分野の機械翻訳モデルのデコーダを固定し、前記第1訓練サンプルセットを用いて前記目標分野の機械翻訳モデルのエンコーダと、前記エンコーダの各符号化層に配置された前記判別器とを訓練する第1訓練ユニットと、
前記エンコーダの各符号化層に配置された前記判別器を固定し、前記第2訓練サンプルセットを用いて前記目標分野の機械翻訳モデルのエンコーダ及びデコーダを訓練する第2訓練ユニットと、
を備える請求項7に記載の装置。 - ディープラーニング技術に基づいて予め訓練された共通分野の機械翻訳モデルを前記目標分野の機械翻訳モデルとして取得する取得モジュールを備える、
請求項7~11のいずれか1項に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリと、を備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~6のいずれか1項に記載の方法を実行させる電子デバイス。 - コンピュータに請求項1~6のいずれか1項に記載の方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体。
- コンピュータに請求項1~6のいずれか1項に記載の方法を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010550588.3A CN111859995B (zh) | 2020-06-16 | 2020-06-16 | 机器翻译模型的训练方法、装置、电子设备及存储介质 |
CN202010550588.3 | 2020-06-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021197188A JP2021197188A (ja) | 2021-12-27 |
JP7203153B2 true JP7203153B2 (ja) | 2023-01-12 |
Family
ID=72986680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021099159A Active JP7203153B2 (ja) | 2020-06-16 | 2021-06-15 | 機械翻訳モデルの訓練方法、装置、電子デバイス及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210200963A1 (ja) |
EP (1) | EP3926516A1 (ja) |
JP (1) | JP7203153B2 (ja) |
KR (1) | KR102641398B1 (ja) |
CN (1) | CN111859995B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112614479B (zh) * | 2020-11-26 | 2022-03-25 | 北京百度网讯科技有限公司 | 训练数据的处理方法、装置及电子设备 |
CN112380883B (zh) * | 2020-12-04 | 2023-07-25 | 北京有竹居网络技术有限公司 | 模型训练方法、机器翻译方法、装置、设备及存储介质 |
CN112966530B (zh) * | 2021-04-08 | 2022-07-22 | 中译语通科技股份有限公司 | 一种机器翻译领域自适应方法、系统、介质、计算机设备 |
CN113705628B (zh) * | 2021-08-06 | 2024-02-06 | 北京百度网讯科技有限公司 | 预训练模型的确定方法、装置、电子设备以及存储介质 |
JP7107609B1 (ja) | 2021-10-28 | 2022-07-27 | 株式会社川村インターナショナル | 言語資産管理システム、言語資産管理方法、及び、言語資産管理プログラム |
CN114282555A (zh) * | 2022-03-04 | 2022-04-05 | 北京金山数字娱乐科技有限公司 | 翻译模型训练方法及装置、翻译方法及装置 |
KR20240016593A (ko) | 2022-07-29 | 2024-02-06 | 삼성에스디에스 주식회사 | 임베딩 변환 방법 및 그 시스템 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190114545A1 (en) | 2017-10-13 | 2019-04-18 | Electronics And Telecommunications Research Institute | Apparatus and method of constructing neural network translation model |
CN110472251A (zh) | 2018-05-10 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 翻译模型训练的方法、语句翻译的方法、设备及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10331793B2 (en) * | 2012-10-17 | 2019-06-25 | Proz.Com | Method and apparatus to facilitate high-quality translation of texts by multiple translators |
CN105550174A (zh) * | 2015-12-30 | 2016-05-04 | 哈尔滨工业大学 | 基于样本重要性的自动机器翻译领域自适应方法 |
RU2692049C1 (ru) * | 2017-12-29 | 2019-06-19 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система перевода исходного предложения на первом языке целевым предложением на втором языке |
JP7199683B2 (ja) * | 2018-02-27 | 2023-01-06 | 国立研究開発法人情報通信研究機構 | ニューラル機械翻訳モデルの訓練方法及び装置並びにそのためのコンピュータプログラム |
JP7170984B2 (ja) * | 2018-03-02 | 2022-11-15 | 国立研究開発法人情報通信研究機構 | 疑似対訳データ生成装置、機械翻訳処理装置、および疑似対訳データ生成方法 |
CN108897740A (zh) * | 2018-05-07 | 2018-11-27 | 内蒙古工业大学 | 一种基于对抗神经网络的蒙汉机器翻译方法 |
US10762114B1 (en) * | 2018-10-26 | 2020-09-01 | X Mobile Co. | Ecosystem for providing responses to user queries entered via a conversational interface |
CN110309516B (zh) * | 2019-05-30 | 2020-11-24 | 清华大学 | 机器翻译模型的训练方法、装置与电子设备 |
CN110442878B (zh) * | 2019-06-19 | 2023-07-21 | 腾讯科技(深圳)有限公司 | 翻译方法、机器翻译模型的训练方法、装置及存储介质 |
CN110472255B (zh) * | 2019-08-20 | 2021-03-02 | 腾讯科技(深圳)有限公司 | 神经网络机器翻译方法、模型、电子终端以及存储介质 |
CN111008533B (zh) * | 2019-12-09 | 2021-07-23 | 北京字节跳动网络技术有限公司 | 一种翻译模型的获取方法、装置、设备和存储介质 |
-
2020
- 2020-06-16 CN CN202010550588.3A patent/CN111859995B/zh active Active
-
2021
- 2021-03-12 US US17/200,588 patent/US20210200963A1/en not_active Abandoned
- 2021-03-22 EP EP21163862.2A patent/EP3926516A1/en not_active Ceased
- 2021-06-10 KR KR1020210075722A patent/KR102641398B1/ko active IP Right Grant
- 2021-06-15 JP JP2021099159A patent/JP7203153B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190114545A1 (en) | 2017-10-13 | 2019-04-18 | Electronics And Telecommunications Research Institute | Apparatus and method of constructing neural network translation model |
CN110472251A (zh) | 2018-05-10 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 翻译模型训练的方法、语句翻译的方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3926516A1 (en) | 2021-12-22 |
US20210200963A1 (en) | 2021-07-01 |
CN111859995B (zh) | 2024-01-23 |
JP2021197188A (ja) | 2021-12-27 |
KR20210156223A (ko) | 2021-12-24 |
CN111859995A (zh) | 2020-10-30 |
KR102641398B1 (ko) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7203153B2 (ja) | 機械翻訳モデルの訓練方法、装置、電子デバイス及び記憶媒体 | |
JP7250052B2 (ja) | 自然言語及び知識グラフに基づく表現学習方法及び装置 | |
US20220383190A1 (en) | Method of training classification model, method of classifying sample, and device | |
JP7098853B2 (ja) | ラベルラベリングモデルを確立する方法、装置、電子機器、プログラム及び可読記憶媒体 | |
JP7214719B2 (ja) | 質問と要求とを自律エージェントが区別できるようにすること | |
US10832658B2 (en) | Quantized dialog language model for dialog systems | |
JP7293543B2 (ja) | 自然言語処理モデルの訓練方法、装置、電子デバイス、コンピュータ可読記憶媒体及びプログラム | |
JP2021082308A (ja) | マルチモーダルコンテンツ処理方法、装置、機器及び記憶媒体 | |
JP7179123B2 (ja) | 言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体 | |
US10607142B2 (en) | Responding to user input based on confidence scores assigned to relationship entries in a knowledge graph | |
US20230237277A1 (en) | Aspect prompting framework for language modeling | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
CN111667056A (zh) | 用于搜索模型结构的方法和装置 | |
JP7192192B2 (ja) | 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 | |
KR102517927B1 (ko) | 언어 생성 방법, 장치 및 전자 기기 | |
JP7286737B2 (ja) | テキスト誤り訂正方法、装置、電子デバイス、記憶媒体及びプログラム | |
US12086274B2 (en) | Variant inconsistency attack (VIA) as a simple and effective adversarial attack method | |
US20240062021A1 (en) | Calibrating confidence scores of a machine learning model trained as a natural language interface | |
JP2022008207A (ja) | トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体 | |
WO2023155678A1 (zh) | 用于确定信息的方法和装置 | |
WO2022072237A1 (en) | Lifecycle management for customized natural language processing | |
CN111738015A (zh) | 文章情感极性分析方法、装置、电子设备及存储介质 | |
US20240281446A1 (en) | Enhanced searching using fine-tuned machine learning models | |
US11921768B1 (en) | Iterative theme discovery and refinement in text | |
US20240061834A1 (en) | Detecting out-of-domain, out-of-scope, and confusion-span (oocs) input for a natural language to logical form model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7203153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |