JP7222162B2 - 機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体 - Google Patents
機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体 Download PDFInfo
- Publication number
- JP7222162B2 JP7222162B2 JP2020192793A JP2020192793A JP7222162B2 JP 7222162 B2 JP7222162 B2 JP 7222162B2 JP 2020192793 A JP2020192793 A JP 2020192793A JP 2020192793 A JP2020192793 A JP 2020192793A JP 7222162 B2 JP7222162 B2 JP 7222162B2
- Authority
- JP
- Japan
- Prior art keywords
- sample
- samples
- model
- semantic similarity
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/49—Data-driven translation using very large corpora, e.g. the web
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/51—Translation evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Description
第1のトレーニングサンプルセットを採用して、機械翻訳モデルをトレーニングし、
パラレルコーパスに基づいて、機械翻訳モデル及び語意類似度モデルを採用して、1グループのサンプル内の各サンプルのネガティブサンプルをマイニングし、第2のトレーニングサンプルセットを作成し、
第2のサンプルトレーニングセットを採用して、語意類似度モデルをトレーニングすることを含む。
パラレルコーパスに基づいて、機械翻訳モデル及び語意類似度モデルを採用して、1グループのサンプルの類似ターゲットセンテンスをマイニングし、第1のトレーニングサンプルセットを作成するための第1の作成モジュールと、
第1のトレーニングサンプルセットを採用して、機械翻訳モデルをトレーニングするための第1のトレーニングモジュールと、
パラレルコーパスに基づいて、機械翻訳モデル及び語意類似度モデルを採用して、1グループのサンプル内の各サンプルのネガティブサンプルをマイニングし、第2のトレーニングサンプルセットを作成するための第2の作成モジュールと、
第2のサンプルトレーニングセットを採用して、語意類似度モデルをトレーニングするための第2のトレーニングモジュールと、を含む。
少なくとも1つのプロセッサと、
少なくとも1つのプロセッサと通信接続されるメモリとを含んでおり、
メモリには、少なくとも1つのプロセッサに実行可能なコマンドが記憶されており、少なくとも1つのプロセッサが上記に記載の方法を実行できるように、コマンドが少なくとも1つのプロセッサによって実行される。
なお、各サンプルにおけるソースセンテンスを機械翻訳モデルに入力し、機械翻訳モデルは該当するソースセンテンスに対する全ての翻訳センテンスを出力でき、サンプルにおけるターゲットセンテンス及び複数の候補ターゲットセンテンスを含み、同時に、各ターゲットセンテンスの翻訳確率をさらに出力する。機械翻訳モデルはパラレルコーパスを採用してプレトレーニングされるので、ターゲットセンテンスの翻訳確率は最も高く、その他の候補ターゲットセンテンスの翻訳確率は相対的に低い。
本実施例にかかる語意類似度モデルも予めトレーニングされ、該当するサンプルにおけるソースセンテンス及び各候補ターゲットセンテンスを一つの拡張サンプルとして、語意類似度モデルに入力し、語意類似度モデルは拡張サンプルの語意類似度を出力することもできる 。
(A)該当するグループのサンプルの各サンプルについて、機械翻訳モデルによって、機械翻訳モデルがサンプルにおけるソースセンテンスを翻訳して得られたサンプルにおけるターゲットセンテンス、複数の候補ターゲットセンテンス及び各候補ターゲットセンテンスの翻訳確率を取得する。
(B)各候補ターゲットセンテンスの翻訳確率に応じて、複数の候補ターゲットセンテンスから、翻訳確率が予め設定された翻訳確率閾値よりも小さい複数のバックアップターゲットセンテンスを選択する。
つまり、本実施例において、好ましくは、翻訳確率が低い候補ターゲットセンテンスでネガティブサンプルを生成し、高い語意類似度のネガティブサンプルを選択することを回避する。
(C)語意類似度モデルを採用してソースセンテンスと各バックアップターゲットセンテンスとの語意類似度をそれぞれ算出する。
(D)複数のバックアップターゲットセンテンスから、語意類似度が予め設定された類似度閾値以上であるバックアップターゲットセンテンスを、ネガティブサンプルのターゲットセンテンスとして取得し、サンプルのソースセンテンスとともにネガティブサンプルを構成する。
パラレルコーパスに基づいて、機械翻訳モデル及び語意類似度モデルを採用して、1グループのサンプルの類似ターゲットセンテンスをマイニングし、第1のトレーニングサンプルセットを作成するための第1の作成モジュール401と、
第1のトレーニングサンプルセットを採用して、機械翻訳モデルをトレーニングするための第1のトレーニングモジュール402と、
パラレルコーパスに基づいて、機械翻訳モデル及び語意類似度モデルを採用して、1グループのサンプル内の各サンプルのネガティブサンプルをマイニングし、第2のトレーニングサンプルセットを作成するための第2の作成モジュール403と、
第2のサンプルトレーニングセットを採用して、語意類似度モデルをトレーニングするための第2のトレーニングモジュール404と、を含む。
パラレルコーパスから、1グループのサンプルを抽出するための第1の抽出ユニット4011と、
該当するグループのサンプルの各サンプルについて、機械翻訳モデル、及び語意類似度モデルによって、各サンプルの類似ターゲットセンテンスをマイニングするための第1のマイニングユニット4012と、
該当するグループのサンプルの各サンプルについて、サンプルのソースセンテンス及び類似ターゲットセンテンスを拡張サンプルとして、サンプルとともにサンプルペアを構成し、第1のトレーニングサンプルセットに追加するための第1の処理ユニット4013とを含む。
該当するグループのサンプルの各サンプルについて、機械翻訳モデルによって、機械翻訳モデルがサンプルにおけるソースセンテンスを翻訳して得られたサンプルにおけるターゲットセンテンス、及び複数の候補ターゲットセンテンスを取得し、
語意類似度モデルを採用して、ソースセンテンスと各候補ターゲットセンテンスとの語意類似度をそれぞれ算出し、
複数の候補ターゲットセンテンスから、語意類似度が最も大きい候補ターゲットセンテンスを、サンプルの類似ターゲットセンテンスとして取得するために用いられる。
パラレルコーパスから、1グループのサンプルを抽出するための第2の抽出ユニット4031と、
該当するグループのサンプル内の各サンプルについて、機械翻訳モデル、及び語意類似度モデルによって、各サンプルに対応する翻訳確率が予め設定された翻訳確率閾値よりも小さく、語意類似度が予め設定された類似度閾値以上であるネガティブサンプルをマイニングするための第2のマイニングユニット4032と、
該当するグループのサンプル内の各サンプルについて、サンプルをネガティブサンプルとともにサンプルペアを構成し、第2のトレーニングサンプルセットに追加するための第2の処理ユニット4033とを含む。
該当するグループのサンプル内の各サンプルについて、機械翻訳モデルによって、機械翻訳モデルがサンプルにおけるソースセンテンスを翻訳して得られたサンプルにおけるターゲットセンテンス、複数の候補ターゲットセンテンス及び各候補ターゲットセンテンスの翻訳確率を取得し、
各候補ターゲットセンテンスの翻訳確率に応じて、複数の候補ターゲットセンテンスから、翻訳確率が予め設定された翻訳確率閾値よりも小さい複数のバックアップターゲットセンテンスを選択し、
語意類似度モデルを採用して、ソースセンテンスと各バックアップターゲットセンテンスとの語意類似度をそれぞれ算出し、
複数のバックアップターゲットセンテンスから、語意類似度が予め設定された類似度閾値以上であるバックアップターゲットセンテンスを、ネガティブサンプルのターゲットセンテンスとして取得し、サンプルのソースセンテンスとともにネガティブサンプルを構成するために用いられる。
Claims (13)
- 機械翻訳におけるモデルトレーニング方法であって、
パラレルコーパスから1グループのサンプルを抽出し、機械翻訳モデル及び語意類似度モデルを採用して、当該1グループのサンプルにおける各サンプルの拡張サンプルをマイニングし、各サンプルとその拡張サンプルで第1のトレーニングサンプルセットを作成し、
前記第1のトレーニングサンプルセットを採用して、前記機械翻訳モデルをトレーニングし、
前記パラレルコーパスから1グループのサンプルを抽出し、前記機械翻訳モデル及び前記語意類似度モデルを採用して、当該1グループのサンプル内の各サンプルのネガティブサンプルをマイニングし、各サンプルとそのネガティブサンプルで第2のトレーニングサンプルセットを作成し、
前記第2のトレーニングサンプルセットを採用して、前記語意類似度モデルによるポジティブサンプルに対するスコアがネガティブサンプルに対するスコアよりも高くするように、前記語意類似度モデルをトレーニングすることを含み、
前記機械翻訳モデルは、ソースセンテンスを翻訳して、ターゲットセンテンスと、翻訳確率が前記ターゲットセンテンスより小さい複数の候補ターゲットセンテンスを得るモデルであり、
前記語意類似度モデルは、ソースセンテンスと各候補ターゲットセンテンスとの語意類似度をそれぞれ算出するモデルであり、
前記類似ターゲットセンテンスは、前記複数の候補ターゲットセンテンスにおけるソースセンテンスとの語意類似度が最も大きい候補センテンスであり、
前記拡張サンプルは、対応するサンプルのソースセンテンス、及び、当該ソースセンテンスに対応する語意類似度が最も高い候補ターゲットセンテンスからなり、
前記ネガティブサンプルは、対応するサンプルのソースセンテンス、及び、当該ソースセンテンスに対応する翻訳確率が予め設定された翻訳確率閾値よりも小さく語意類似度が予め設定された類似度閾値以上である候補ターゲットセンテンスからなる、方法。 - 前記第1のトレーニングサンプルセットを作成することは、
前記パラレルコーパスから、1グループのサンプルを抽出し、
前記1グループのサンプルの各サンプルについて、前記機械翻訳モデル、及び前記語意類似度モデルによって、前記各サンプルの類似ターゲットセンテンスをマイニングし、
前記1グループのサンプルの前記各サンプルについて、前記サンプルのソースセンテンス及び前記類似ターゲットセンテンスを拡張サンプルとして、前記サンプルとともにサンプルペアを構成し、前記第1のトレーニングサンプルセットに追加することを含む請求項1に記載の方法。 - 前記各サンプルの類似ターゲットセンテンスをマイニングすることは、
前記1グループのサンプルの前記各サンプルについて、前記機械翻訳モデルによって、前記機械翻訳モデルが前記サンプルにおけるソースセンテンスを翻訳して得られたサンプルにおける複数の候補ターゲットセンテンスを取得し、
前記語意類似度モデルを採用して、前記ソースセンテンスと前記複数の候補ターゲットセンテンスにおける各候補ターゲットセンテンスとの語意類似度をそれぞれ算出し、
前記複数の候補ターゲットセンテンスから、ソースセンテンスとの語意類似度が最も大きい候補ターゲットセンテンスを、前記サンプルの類似ターゲットセンテンスとして取得することを含む請求項2に記載の方法。 - 前記第2のトレーニングサンプルセットを作成することは、
前記パラレルコーパスから、1グループのサンプルを抽出し、
前記1グループのサンプル内の前記各サンプルについて、前記機械翻訳モデル、及び前記語意類似度モデルによって、前記各サンプルに対応する翻訳確率が予め設定された翻訳確率閾値よりも小さく、語意類似度が予め設定された類似度閾値以上であるネガティブサンプルをマイニングし、
前記1グループの前記サンプル内の前記各サンプルについて、前記サンプルと前記ネガティブサンプルとでサンプルペアを構成し、前記第2のトレーニングサンプルセットに追加することを含む請求項1~3のいずれか一項に記載の方法。 - 前記各サンプルに対応する翻訳確率が予め設定された翻訳確率閾値よりも小さく、語意類似度が予め設定された類似度閾値以上であるネガティブサンプルをマイニングすることは、
前記1グループの前記サンプル内の前記各サンプルについて、前記機械翻訳モデルによって、前記機械翻訳モデルが前記サンプルにおけるソースセンテンスを翻訳して得られたサンプルにおけるターゲットセンテンス、複数の候補ターゲットセンテンス及び前記複数の候補ターゲットセンテンスにおける各候補ターゲットセンテンスの翻訳確率を取得し、
前記各候補ターゲットセンテンスの翻訳確率に応じて、前記複数の候補ターゲットセンテンスから、翻訳確率が前記翻訳確率閾値よりも小さい複数のバックアップターゲットセンテンスを選択し、
前記語意類似度モデルを採用して、前記サンプルにおける前記ソースセンテンスと前記複数のバックアップターゲットセンテンスにおける各バックアップターゲットセンテンスとの語意類似度をそれぞれ算出し、
前記複数のバックアップターゲットセンテンスから、前記語意類似度が前記類似度閾値以上であるバックアップターゲットセンテンスを、前記ネガティブサンプルのターゲットセンテンスとして取得し、前記サンプルにおける前記ソースセンテンスとともに前記ネガティブサンプルを構成することを含む請求項4に記載の方法。 - 機械翻訳におけるモデルトレーニング装置であって、
パラレルコーパスから1グループのサンプルを抽出し、機械翻訳モデル及び語意類似度モデルを採用して、当該1グループのサンプルにおける各サンプルの拡張サンプルをマイニングし、各サンプルとその拡張サンプルで第1のトレーニングサンプルセットを作成する第1の作成モジュールと、
前記第1のトレーニングサンプルセットを採用して、前記語意類似度モデルによるポジティブサンプルに対するスコアがネガティブサンプルに対するスコアよりも高くするように、前記機械翻訳モデルをトレーニングする第1のトレーニングモジュールと、
前記パラレルコーパスから1グループのサンプルを抽出し、前記機械翻訳モデル及び前記語意類似度モデルを採用して、当該1グループのサンプル内の各サンプルのネガティブサンプルをマイニングし、各サンプルとそのネガティブサンプルで第2のトレーニングサンプルセットを作成する第2の作成モジュールと、
前記第2のトレーニングサンプルセットを採用して、前記語意類似度モデルをトレーニングする第2のトレーニングモジュールと、
を含み、
前記機械翻訳モデルは、ソースセンテンスを翻訳して、ターゲットセンテンスと、翻訳確率が前記ターゲットセンテンスより小さい複数の候補ターゲットセンテンスを得るモデルであり、
前記語意類似度モデルは、ソースセンテンスと各候補ターゲットセンテンスとの語意類似度をそれぞれ算出するモデルであり、
前記類似ターゲットセンテンスは、前記複数の候補ターゲットセンテンスにおけるソースセンテンスとの語意類似度が最も大きい候補センテンスであり、
前記拡張サンプルは、対応するサンプルのソースセンテンス、及び、当該ソースセンテンスに対応する語意類似度が最も高い候補ターゲットセンテンスからなり、
前記ネガティブサンプルは、対応するサンプルのソースセンテンス、及び、当該ソースセンテンスに対応する翻訳確率が予め設定された翻訳確率閾値よりも小さく語意類似度が予め設定された類似度閾値以上である候補ターゲットセンテンスからなる、モデルトレーニング装置。 - 前記第1の作成モジュールは、
前記パラレルコーパスから、1グループのサンプルを抽出する第1の抽出ユニットと、
前記1グループの前記サンプルの各サンプルについて、前記機械翻訳モデル、及び前記語意類似度モデルによって、前記各サンプルの類似ターゲットセンテンスをマイニングする第1のマイニングユニットと、
前記1グループの前記サンプルの前記各サンプルについて、前記サンプルのソースセンテンス及び前記類似ターゲットセンテンスを拡張サンプルとして、前記サンプルとともにサンプルペアを構成し、前記第1のトレーニングサンプルセットに追加する第1の処理ユニットと、
を含む請求項6に記載のモデルトレーニング装置。 - 前記第1のマイニングユニットは、
前記1グループの前記サンプルの前記各サンプルについて、前記機械翻訳モデルによって、前記機械翻訳モデルが前記サンプルにおけるソースセンテンスを翻訳して得られたサンプルにおける複数の候補ターゲットセンテンスを取得し、
前記語意類似度モデルを採用して、前記ソースセンテンスと前記複数の候補ターゲットセンテンスにおける各候補ターゲットセンテンスとの語意類似度をそれぞれ算出し、
前記複数の候補ターゲットセンテンスから、ソースセンテンスとの語意類似度が最も大きい候補ターゲットセンテンスを、前記サンプルの類似ターゲットセンテンスとして取得する、請求項7に記載のモデルトレーニング装置。 - 前記第2の作成モジュールは、
前記パラレルコーパスから、1グループのサンプルを抽出する第2の抽出ユニットと、
前記1グループのサンプル内の各サンプルについて、前記機械翻訳モデル、及び前記語意類似度モデルによって、前記各サンプルに対応する翻訳確率が予め設定された翻訳確率閾値よりも小さく、語意類似度が予め設定された類似度閾値以上であるネガティブサンプルをマイニングする第2のマイニングユニットと、
前記1グループの前記サンプル内の各前記サンプルについて、前記サンプルと前記ネガティブサンプルとでサンプルペアを構成し、前記第2のトレーニングサンプルセットに追加する第2の処理ユニットと、
を含む請求項6~8のいずれか一項に記載のモデルトレーニング装置。 - 前記第2のマイニングユニットは、
前記1グループの前記サンプル内の前記各サンプルについて、前記機械翻訳モデルによって、前記機械翻訳モデルが前記サンプルにおけるソースセンテンスを翻訳して得られたサンプルにおけるターゲットセンテンス、複数の候補ターゲットセンテンス及び前記複数の候補ターゲットセンテンスにおける各候補ターゲットセンテンスの翻訳確率を取得し、
前記各候補ターゲットセンテンスの翻訳確率に応じて、前記複数の候補ターゲットセンテンスから、翻訳確率が前記翻訳確率閾値よりも小さい複数のバックアップターゲットセンテンスを選択し、
前記語意類似度モデルを採用して、前記ソースセンテンスと前記複数のバックアップターゲットセンテンスにおける各バックアップターゲットセンテンスとの語意類似度をそれぞれ算出し、
前記複数のバックアップターゲットセンテンスから、前記語意類似度が前記類似度閾値以上であるバックアップターゲットセンテンスを、前記ネガティブサンプルのターゲットセンテンスとして取得し、前記サンプルのソースセンテンスとともに前記ネガティブサンプルを構成する、請求項9に記載のモデルトレーニング装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリとを含み、
前記メモリには、前記少なくとも1つのプロセッサに実行可能なコマンドが記憶されており、前記少なくとも1つのプロセッサが請求項1~5のいずれか一項に記載の方法を実行できるように、前記コマンドが前記少なくとも1つのプロセッサによって実行される電子機器。 - 請求項1~5のいずれか一項に記載の方法をコンピュータに実行させるコンピュータコマンドを記憶している非一時的コンピュータ可読記憶媒体。
- 請求項1~5のいずれか一項に記載の方法をコンピュータに実行させるためのコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010550591.5A CN111859997B (zh) | 2020-06-16 | 2020-06-16 | 机器翻译中的模型训练方法、装置、电子设备及存储介质 |
CN202010550591.5 | 2020-06-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021197131A JP2021197131A (ja) | 2021-12-27 |
JP7222162B2 true JP7222162B2 (ja) | 2023-02-15 |
Family
ID=72987286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020192793A Active JP7222162B2 (ja) | 2020-06-16 | 2020-11-19 | 機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11704498B2 (ja) |
EP (1) | EP3926513A1 (ja) |
JP (1) | JP7222162B2 (ja) |
KR (1) | KR102554758B1 (ja) |
CN (1) | CN111859997B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329475B (zh) * | 2020-11-03 | 2022-05-20 | 海信视像科技股份有限公司 | 语句处理方法及装置 |
CN112417895B (zh) * | 2020-12-15 | 2024-09-06 | 广州博冠信息科技有限公司 | 弹幕数据处理方法、装置、设备以及存储介质 |
CN113609863B (zh) * | 2021-02-04 | 2024-05-07 | 腾讯科技(深圳)有限公司 | 一种训练、使用数据转换模型的方法、装置及计算机设备 |
CN114282551B (zh) * | 2021-11-15 | 2023-02-24 | 北京百度网讯科技有限公司 | 翻译方法、装置、电子设备及存储介质 |
CN114238580A (zh) * | 2021-12-21 | 2022-03-25 | 沈阳东软智能医疗科技研究院有限公司 | 文本处理方法、装置、存储介质及电子设备 |
CN114548261A (zh) * | 2022-02-18 | 2022-05-27 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备以及存储介质 |
CN114757203A (zh) * | 2022-04-27 | 2022-07-15 | 北京智谱华章科技有限公司 | 基于对比学习的中文句子精简方法和系统 |
CN114757214B (zh) * | 2022-05-12 | 2023-01-31 | 北京百度网讯科技有限公司 | 用于优化翻译模型的样本语料的选取方法、相关装置 |
CN115081462A (zh) * | 2022-06-15 | 2022-09-20 | 京东科技信息技术有限公司 | 翻译模型训练、翻译方法和装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150286632A1 (en) * | 2014-04-03 | 2015-10-08 | Xerox Corporation | Predicting the quality of automatic translation of an entire document |
CN106484682B (zh) * | 2015-08-25 | 2019-06-25 | 阿里巴巴集团控股有限公司 | 基于统计的机器翻译方法、装置及电子设备 |
US10185713B1 (en) * | 2015-09-28 | 2019-01-22 | Amazon Technologies, Inc. | Optimized statistical machine translation system with rapid adaptation capability |
CN105808530B (zh) * | 2016-03-23 | 2019-11-08 | 苏州大学 | 一种统计机器翻译中的翻译方法和装置 |
US10504004B2 (en) * | 2016-09-16 | 2019-12-10 | General Dynamics Mission Systems, Inc. | Systems and methods for deep model translation generation |
CN108304390B (zh) * | 2017-12-15 | 2020-10-16 | 腾讯科技(深圳)有限公司 | 基于翻译模型的训练方法、训练装置、翻译方法及存储介质 |
CN110472251B (zh) * | 2018-05-10 | 2023-05-30 | 腾讯科技(深圳)有限公司 | 翻译模型训练的方法、语句翻译的方法、设备及存储介质 |
US11151334B2 (en) * | 2018-09-26 | 2021-10-19 | Huawei Technologies Co., Ltd. | Systems and methods for multilingual text generation field |
US11037028B2 (en) * | 2018-12-31 | 2021-06-15 | Charles University Faculty of Mathematics and Physics | Computer-implemented method of creating a translation model for low resource language pairs and a machine translation system using this translation model |
CN110033022A (zh) * | 2019-03-08 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 文本的处理方法、装置和存储介质 |
CN110263349B (zh) * | 2019-03-08 | 2024-09-13 | 腾讯科技(深圳)有限公司 | 语料评估模型训练方法、装置、存储介质和计算机设备 |
CN110110337B (zh) * | 2019-05-08 | 2023-04-18 | 网易有道信息技术(北京)有限公司 | 翻译模型训练方法、介质、装置和计算设备 |
CN110210041B (zh) * | 2019-05-23 | 2023-04-18 | 北京百度网讯科技有限公司 | 互译句对齐方法、装置及设备 |
CN110674260B (zh) * | 2019-09-27 | 2022-05-24 | 北京百度网讯科技有限公司 | 语义相似模型的训练方法、装置、电子设备和存储介质 |
CN110807332B (zh) * | 2019-10-30 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、语义处理方法、装置及存储介质 |
TWI753325B (zh) * | 2019-11-25 | 2022-01-21 | 國立中央大學 | 產生機器翻譯模型的計算裝置及方法及機器翻譯裝置 |
CN110941964B (zh) * | 2019-12-11 | 2023-08-15 | 北京小米移动软件有限公司 | 双语语料筛选方法、装置及存储介质 |
-
2020
- 2020-06-16 CN CN202010550591.5A patent/CN111859997B/zh active Active
- 2020-11-19 JP JP2020192793A patent/JP7222162B2/ja active Active
-
2021
- 2021-03-11 EP EP21162113.1A patent/EP3926513A1/en not_active Ceased
- 2021-03-12 US US17/200,551 patent/US11704498B2/en active Active
- 2021-03-18 KR KR1020210035528A patent/KR102554758B1/ko active IP Right Grant
Non-Patent Citations (1)
Title |
---|
Mandy Guo 他10名,Effective Parallel Corpus Mining using Bilingual Sentence Embeddings[online],2018年08月02日,(検索日2022年01月25日),URL:https://arxiv.org/pdf/1807.11906/pdf |
Also Published As
Publication number | Publication date |
---|---|
EP3926513A1 (en) | 2021-12-22 |
JP2021197131A (ja) | 2021-12-27 |
CN111859997B (zh) | 2024-01-26 |
US11704498B2 (en) | 2023-07-18 |
KR102554758B1 (ko) | 2023-07-11 |
KR20210156202A (ko) | 2021-12-24 |
CN111859997A (zh) | 2020-10-30 |
US20210390266A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222162B2 (ja) | 機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体 | |
JP7126542B2 (ja) | データセット処理方法、装置、電子機器及び記憶媒体 | |
KR102497945B1 (ko) | 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체 | |
US11574133B2 (en) | Method, electronic device, and storage medium for training text generation model | |
JP2022028887A (ja) | テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体 | |
US12106052B2 (en) | Method and apparatus for generating semantic representation model, and storage medium | |
JP7267342B2 (ja) | 語義表現モデルの訓練方法、装置、デバイス及びコンピュータ記憶媒体 | |
US11410084B2 (en) | Method and apparatus for training machine reading comprehension model, and storage medium | |
US11537792B2 (en) | Pre-training method for sentiment analysis model, and electronic device | |
CN111709234B (zh) | 文本处理模型的训练方法、装置及电子设备 | |
US11443100B2 (en) | Method and apparatus for correcting character errors, electronic device and storage medium | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
JP7192192B2 (ja) | 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 | |
US11461549B2 (en) | Method and apparatus for generating text based on semantic representation, and medium | |
CN112633017A (zh) | 翻译模型训练、翻译处理方法、装置、设备和存储介质 | |
JP7286737B2 (ja) | テキスト誤り訂正方法、装置、電子デバイス、記憶媒体及びプログラム | |
JP7308903B2 (ja) | ストリーミング音声認識結果の表示方法、装置、電子機器及び記憶媒体 | |
CN113160822A (zh) | 语音识别处理方法、装置、电子设备以及存储介质 | |
JP2023027194A (ja) | 翻訳方法、装置、電子機器、可読記憶媒体、及びコンピュータープログラム | |
CN111310481B (zh) | 语音翻译方法、装置、计算机设备和存储介质 | |
US11893977B2 (en) | Method for recognizing Chinese-English mixed speech, electronic device, and storage medium | |
JP7268113B2 (ja) | 音声認識方法、装置、電子機器及び記憶媒体 | |
JP7146986B2 (ja) | 情報抽出方法、情報抽出装置及び電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7222162 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |