JP7179273B2 - 翻訳モデルのトレーニング方法、語句翻訳の方法、機器、記憶媒体及びコンピュータプログラム - Google Patents
翻訳モデルのトレーニング方法、語句翻訳の方法、機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7179273B2 JP7179273B2 JP2020545261A JP2020545261A JP7179273B2 JP 7179273 B2 JP7179273 B2 JP 7179273B2 JP 2020545261 A JP2020545261 A JP 2020545261A JP 2020545261 A JP2020545261 A JP 2020545261A JP 7179273 B2 JP7179273 B2 JP 7179273B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- disturbance
- samples
- sample
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30181—Instruction operation extension or modification
- G06F9/30196—Instruction operation extension or modification using decoder, e.g. decoder per instruction set, adaptable or programmable decoders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Description
コンピュータ機器が、複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するステップと、
コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するステップであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高いステップと、
コンピュータ機器が、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するステップを含む。
端末機器が第1言語で表現される第1翻訳対象語句を受信するステップと、
端末機器がターゲット翻訳モデルを利用して前記第1翻訳対象語句を翻訳することで、第2言語で表現される翻訳結果語句を取得するステップであって、前記ターゲット翻訳モデルは複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用してトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高いステップと、
端末機器が前記第2言語で表現される翻訳結果語句を出力するステップとを含む。
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するように配置される取得ユニットと、
前記取得ユニットにより取得した前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するように配置される決定ユニットであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い決定ユニットと、
前記取得ユニットにより取得した前記複数のトレーニングサンプル及び前記決定ユニットにより決定した前記各々トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するように配置されるモデルトレーニングユニットと、を含む。
第1言語で表現される第1翻訳対象語句を受信するように配置される受信ユニットと、
ターゲット翻訳モデルを利用して前記受信ユニットにより受信した前記第1翻訳対象語句を翻訳することで、第2言語で表現される翻訳結果語句を取得するように配置される翻訳ユニットであって、前記ターゲット翻訳モデルは複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用してトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い翻訳ユニットと、
前記翻訳ユニットにより翻訳した第2言語で表現される翻訳結果語句を出力するように配置される出力ユニットと、を備える。
前記プロセッサはメモリに記憶されるプログラム命令を実行することで、第1の態様に記載の方法を実行する。
前記プロセッサはメモリに記憶されるプログラム命令を実行することで、第2の態様に記載の方法を実行する。
101、コンピュータ機器は複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得する。
トレーニングサンプル:「彼らは困難を恐れず、囲碁AIを作成する」。
外乱サンプル:「彼らは困難を怖がらず、囲碁AIを作成する」。
前記各トレーニングサンプルは、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対であり、
対応するように、前記コンピュータ機器は、各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定することは、
各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを決定することを含み、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であり、
対応するように、コンピュータ機器は、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによって初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得ることは、
複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得ることを含む。
前記各トレーニング入力サンプルにおける第1単語を決定し、前記第1単語は置換対象となる単語であり、
少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを得て、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高い。
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定することと、
毎回に、前記各単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、前記外乱サンプルセットを得ることと、を含む。
前記分類ターゲット関数には、前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、
前記トレーニングターゲット関数には、前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には、前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる。
Linv(x、x′)を導入することで、xとx′に対して類似の表示を出力するように、エンコーダを激励し、これによって、外乱があっても不変のエンコーダを実現し、敵対的学習を介して該ターゲットを実現する。
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力し、
勾配降下という方式で前記モデルターゲット関数を最適化することで、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定し、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかける。
201、端末機器は第1言語で表現される第1翻訳対象語句を受信する。
端末機器は前記第1言語で表現される第2翻訳対象語句を受信し、前記第2翻訳対象語句が前記第1翻訳対象語句の外乱語句であり、前記第2翻訳対象語句と、前記第1翻訳対象語句との類似度が第1プリセット値より高く、
端末機器はターゲット翻訳モデルによって前記第2翻訳対象語句を翻訳することで、前記第1翻訳対象語句に対応する前記翻訳結果語句を得て、
端末機器は前記翻訳結果語句を出力する。
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するように配置される取得ユニット301と、
前記取得ユニット301により取得した前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するように配置される決定ユニット302であって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い決定ユニット302と、
前記取得ユニット301により取得した前記複数のトレーニングサンプル及び前記決定ユニット302により決定した前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得るように配置されるモデルトレーニングユニット303と、を含む。
モデルトレーニングユニット303は、複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得るように配置される。
前記各トレーニング入力サンプルにおける第1単語を決定し、前記第1単語は置換対象単語であり、
少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを得て、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高い。
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定し、
毎回、前記各単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、前記外乱サンプルセットを得る。
前記エンコーダは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類器は、前記第1中間表現結果と前記第2中間表現結果とを区別し、
前記デコーダは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する。
前記分類ターゲット関数には前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、
前記トレーニングターゲット関数には前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる。
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力し、
勾配降下という方式で前記モデルターゲット関数を最適化することで、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定し、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかける。
第1言語で表現される第1翻訳対象語句を受信するように配置される受信ユニット401と、
ターゲット翻訳モデルによって前記受信ユニット401により受信された前記第1翻訳対象語句を翻訳することで、第2言語で表現される翻訳結果語句を得るように配置される翻訳ユニット402であって、前記ターゲット翻訳モデルは複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによってトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い翻訳ユニット402と、
前記翻訳ユニット402により翻訳され、第2言語で表現される翻訳結果語句を出力するように配置される出力ユニット403と、を含む。
前記翻訳ユニット402はさらに、ターゲット翻訳モデルによって前記第2翻訳対象語句を翻訳することで、前記第1翻訳対象語句に対応する前記翻訳結果語句を得るように配置され、
前記出力ユニット403はさらに、前記翻訳結果語句を出力するように配置される。
本出願の実施例において、地面標識の決定過程で、メモリ540に記憶される操作命令(該操作命令はオペレーティングシステムに記憶されてもよい)を呼び出すことで、
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得し、
前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定し、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高く、
前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットによって初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得る。
前記各トレーニングサンプルが、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対である場合、各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを決定し、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であり、
複数のトレーニングサンプル対、前記各々トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルによって、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを得る。
前記各トレーニング入力サンプルにおける第1単語を決定し、前記第1単語は置換対象単語であり、
少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを得て、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高い。
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定し、
毎回、前記単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、前記外乱サンプルセットを得る。
前記エンコーダは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類器は、前記第1中間表現結果と前記第2中間表現結果とを区別し、
前記デコーダは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する。
前記分類ターゲット関数には前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、
前記トレーニングターゲット関数には前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる。
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力し、
勾配降下という方式で前記モデルターゲット関数を最適化し、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定し、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかける。
図12は本出願の実施例における端末機器の1つの実施例の模式図であり、以下は該端末機器が携帯電話であることを例として説明する。図12を参照し、携帯電話は、無線周波(Radio Frequency、RF)、回路1110、メモリ1120、入力ユニット1130、表示ユニット1140、センサ1150、オーディオ回路1160、ワイヤレスフィデリティ(wireless fidelity、WiFi)モジュール1170、プロセッサ1180、及びカメラ1190などの部材を有する。当業者が理解できるように、図12に示した携帯電話の構成は、携帯電話に対する限定を構成せず、図示より多いまたは少ない部材を有するか、またはいくつかの部材、或いは異なる部材を組み合わせて配置してもよい。
RF回路1110は、情報の送受信または通話過程で、信号の受信及び送信に用いられ、RF回路1110は送受信機である。特に、基地局のダウンリンクの情報を受信した後、プロセッサ1180に処理させる、また、アップリンクになるように設計されるデータを基地局に送信する。一般的に、RF回路1110は、アンテナ、少なくとも1つの増幅器、送受信機、カプラ、ローノイズアンプ(Low Noise Amplifier、LNA)、デュプレクサなどを含むが、これらに限定されない。また、RF回路1110はさらに無線通信を介してネットワーク及び他の機器と通信することができる。前記無線通信はいずれかの通信規格またはプロトコルを利用でき、グローバルモバイル通信システム(Global System of Mobile communication、GSM)、汎用パケット無線サービス(General Packet Radio Service、GPRS)、符号分割多元接続(Code Division Multiple Access、CDMA)、広帯域符号分割多元接続(Wideband Code Division Multiple Access,WCDMA(登録商標))、ロングタームエボリューション(Long Term Evolution、LTE)、電子メール、ショートメッセージサービス(Short Messaging Service、SMS)などを含むが、これらに限定されない。
第1言語で表現される第1翻訳対象語句を受信し、
ターゲット翻訳モデルによって前記第1翻訳対象語句を翻訳し、第2言語で表現される翻訳結果語句を得て、前記ターゲット翻訳モデルが複数のトレーニングサンプル及び前記複数のトレーニングサンプルにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用してトレーニングすることで得られて、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高く、
前記第2言語で表現される翻訳結果語句を出力する。
前記第1言語で表現される第2翻訳対象語句を受信し、前記第2翻訳対象語句が前記第1翻訳対象語句の外乱語句であり、前記第2翻訳対象語句と前記第1翻訳対象語句との類似度が第1プリセット値より高く、
ターゲット翻訳モデルを利用して前記第2翻訳対象語句を翻訳することで、前記第1翻訳対象語句に対応する前記翻訳結果語句を得て、
前記翻訳結果語句を出力する。
301 取得ユニット
302 決定ユニット
303 モデルトレーニングユニット
40 語句翻訳装置
401 受信ユニット
402 翻訳ユニット
403 出力ユニット
50 コンピュータ機器
510 プロセッサ
530 I/Oインターフェース
540 メモリ
1110 RF回路
1120 メモリ
1130 入力ユニット
1131 タッチパネル
1132 他の入力機器
1140 表示ユニット
1141 表示パネル
1150 センサ
1160 オーディオ回路
1161 スピーカ
1162 マイクロフォン
1170 WiFiモジュール
1180 プロセッサ
1190 カメラ
Claims (8)
- コンピュータ機器が実行する翻訳モデルのトレーニング方法であって、
前記コンピュータ機器が、複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するステップと、
前記コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するステップであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、トレーニングサンプルの単語を置き換えることによって、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い前記外乱サンプルが採用される、ステップと、
前記コンピュータ機器が、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するステップとを含む方法であって、
前記各トレーニングサンプルは、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対であり、
前記コンピュータ機器が、各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定する前記ステップは、
各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び外乱出力サンプルセットの対応する外乱出力サンプルを決定するステップであって、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であるステップを含み、
前記コンピュータ機器が、前記複数のトレーニングサンプルと前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得する前記ステップは、
複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するステップを含み、
前記コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットを決定する前記ステップは、
前記各トレーニング入力サンプルにおける第1単語を決定するステップであって、前記第1単語は置換対象単語であるステップと、
前記第1単語の単語ベクトルに基づいて、少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを取得するステップであって、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高いステップとを含む、方法であって、
前記初期翻訳モデルは、エンコーダと、分類器と、デコーダとを含み、
前記エンコーダは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類器は、前記第1中間表現結果と前記第2中間表現結果とを区別し、第1中間表現結果と前記第2中間表現結果に基づいて分類値を出力して前記第1中間表現結果と前記第2中間表現結果とが類似の表示となるよう前記エンコーダを激励し、
前記デコーダは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する
方法。 - 前記コンピュータ機器が、前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットを決定する前記ステップは、
前記各トレーニング入力サンプルにおける各単語の単語ベクトルを決定するステップと、
毎回、前記各単語の単語ベクトルに1つの異なるガウシノイズベクトルを重畳することで、ガウシノイズが付けられた後の単語の単語ベクトルを得て、前記ガウシノイズが付けられた後の単語の単語ベクトルを用いて単語の語義情報を捕捉することにより、該当する語義情報を有する単語を得て前記外乱サンプルセットを取得するステップとを含む請求項1に記載の方法。 - 前記初期翻訳モデルのモデルターゲット関数は、前記分類器と前記エンコーダに関する分類ターゲット関数と、前記エンコーダと前記デコーダに関するトレーニングターゲット関数と、外乱ターゲット関数とを含み、
前記分類ターゲット関数には、前記トレーニング入力サンプルと、前記対応する外乱入力サンプルと、前記エンコーダのパラメータと、前記分類器のパラメータとが含まれ、前記分類値を計算し、
前記トレーニングターゲット関数には、前記トレーニング入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれ、
前記外乱ターゲット関数には、前記外乱入力サンプルと、前記トレーニング出力サンプルと、前記エンコーダのパラメータと、前記デコーダのパラメータとが含まれる請求項1に記載の方法。 - 前記コンピュータ機器が、複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得する前記ステップは、
各トレーニング入力サンプル、対応する外乱入力サンプル及び対応するトレーニング出力サンプルを前記モデルターゲット関数に入力するステップと、
勾配降下という方式で前記モデルターゲット関数を最適化し、前記エンコーダのパラメータの値、前記デコーダのパラメータの値及び前記分類器のパラメータの値を決定するステップであって、分類ターゲット関数におけるエンコーダのパラメータの勾配に-1をかけるステップとを含む請求項3に記載の方法。 - 1つ又は複数のプロセッサと、プログラムユニットを記憶するための1つ又は複数のメモリとを含む翻訳モデルのトレーニング装置であって、前記プログラムユニットは前記プロセッサによって実行され、前記プログラムユニットは、
複数のトレーニングサンプルが含まれるトレーニングサンプルセットを取得するように配置される取得ユニットと、
前記取得ユニットにより取得した前記トレーニングサンプルセットにおける各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを決定するように配置される決定ユニットであって、前記外乱サンプルセットには少なくとも1つの外乱サンプルが含まれ、トレーニングサンプルの単語を置き換えることによって、前記外乱サンプルと対応するトレーニングサンプルとの語義の類似度が第1プリセット値より高い前記外乱サンプルが採用される、決定ユニットと、
前記取得ユニットにより取得した前記複数のトレーニングサンプル及び前記決定ユニットにより決定した前記各トレーニングサンプルにそれぞれ対応する外乱サンプルセットを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するように配置されるモデルトレーニングユニットと、を含む装置であって、
前記決定ユニットは、前記各トレーニングサンプルが、トレーニング入力サンプルとトレーニング出力サンプルとが含まれる1つのトレーニングサンプル対である場合、各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び外乱出力サンプルセットの対応する外乱出力サンプルを決定するように配置され、前記外乱入力サンプルセットには少なくとも1つの外乱入力サンプルが含まれ、前記外乱出力サンプルと前記トレーニング出力サンプルとが同様であり、
前記モデルトレーニングユニットは、複数のトレーニングサンプル対、前記各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセット、及び前記外乱出力サンプルセットの対応する外乱出力サンプルを利用して、初期翻訳モデルをトレーニングすることで、ターゲット翻訳モデルを取得するように配置される、
前記決定ユニットは、前記トレーニングサンプルセットにおける各トレーニング入力サンプルにそれぞれ対応する外乱入力サンプルセットの決定の際に、前記各トレーニング入力サンプルにおける第1単語を決定するものであり、前記第1単語は置換対象単語であり、前記第1単語の単語ベクトルに基づいて、少なくとも1つの第2単語で前記第1単語をそれぞれ置き換えることで、前記外乱入力サンプルセットを取得するものであり、前記第2単語と前記第1単語との語義の類似度が第2プリセット値より高いものである、装置であって、
前記初期翻訳モデルは、エンコーダユニットと、分類ユニットと、デコーダユニットとを含み、
前記エンコーダユニットは、前記トレーニング入力サンプルと対応する外乱入力サンプルを受信するとともに、第1中間表現結果と第2中間表現結果を出力し、前記第1中間表現結果は前記トレーニング入力サンプルの中間表現結果であり、前記第2中間表現結果は前記対応する外乱入力サンプルの中間表現結果であり、
前記分類ユニットは、前記第1中間表現結果と前記第2中間表現結果とを区別し、第1中間表現結果と前記第2中間表現結果に基づいて分類値を出力して前記第1中間表現結果と前記第2中間表現結果とが類似の表示となるよう前記エンコーダユニットを激励し、
前記デコーダユニットは、第1中間表現結果に基づいて前記トレーニング出力サンプルを出力し、前記第2中間表現結果に基づいて前記トレーニング出力サンプルを出力する
装置。 - 入力/出力(I/O)インターフェースと、プロセッサと、メモリとを有するコンピュータ機器であって、前記メモリにはプログラム命令が記憶され、
前記プロセッサはメモリに記憶されるプログラム命令を実行することで、請求項1~4のいずれか1項に記載の方法を実行するコンピュータ機器。 - 命令を含む非一時的なコンピュータ読み取り可能な記憶媒体であって、前記命令がコンピュータ機器で実行される場合、前記コンピュータ機器に請求項1~4のいずれか1項に記載の方法を実行させる記憶媒体。
- 命令を含むコンピュータプログラムであって、前記命令がコンピュータ機器で実行される場合、前記コンピュータ機器に請求項1~4のいずれか1項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810445783.2A CN110472251B (zh) | 2018-05-10 | 2018-05-10 | 翻译模型训练的方法、语句翻译的方法、设备及存储介质 |
CN201810445783.2 | 2018-05-10 | ||
PCT/CN2019/080411 WO2019214365A1 (zh) | 2018-05-10 | 2019-03-29 | 翻译模型训练的方法、语句翻译的方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021515322A JP2021515322A (ja) | 2021-06-17 |
JP7179273B2 true JP7179273B2 (ja) | 2022-11-29 |
Family
ID=68466679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020545261A Active JP7179273B2 (ja) | 2018-05-10 | 2019-03-29 | 翻訳モデルのトレーニング方法、語句翻訳の方法、機器、記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11900069B2 (ja) |
EP (1) | EP3792789A4 (ja) |
JP (1) | JP7179273B2 (ja) |
CN (1) | CN110472251B (ja) |
WO (1) | WO2019214365A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283249A (zh) * | 2020-02-19 | 2021-08-20 | 阿里巴巴集团控股有限公司 | 机器翻译方法、装置及计算机可读存储介质 |
CN111859995B (zh) * | 2020-06-16 | 2024-01-23 | 北京百度网讯科技有限公司 | 机器翻译模型的训练方法、装置、电子设备及存储介质 |
CN111859997B (zh) * | 2020-06-16 | 2024-01-26 | 北京百度网讯科技有限公司 | 机器翻译中的模型训练方法、装置、电子设备及存储介质 |
CN111723550A (zh) * | 2020-06-17 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 语句改写方法、装置、电子设备以及计算机存储介质 |
CN111753556B (zh) * | 2020-06-24 | 2022-01-04 | 掌阅科技股份有限公司 | 双语对照阅读的方法、终端及计算机存储介质 |
CN112257459B (zh) * | 2020-10-16 | 2023-03-24 | 北京有竹居网络技术有限公司 | 语言翻译模型的训练方法、翻译方法、装置和电子设备 |
CN112364999B (zh) * | 2020-10-19 | 2021-11-19 | 深圳市超算科技开发有限公司 | 冷水机调节模型的训练方法、装置及电子设备 |
CN112328348A (zh) * | 2020-11-05 | 2021-02-05 | 深圳壹账通智能科技有限公司 | 应用程序多语言支持方法、装置、计算机设备及存储介质 |
CN112380883B (zh) * | 2020-12-04 | 2023-07-25 | 北京有竹居网络技术有限公司 | 模型训练方法、机器翻译方法、装置、设备及存储介质 |
CN112528637B (zh) * | 2020-12-11 | 2024-03-29 | 平安科技(深圳)有限公司 | 文本处理模型训练方法、装置、计算机设备和存储介质 |
CN112417895A (zh) * | 2020-12-15 | 2021-02-26 | 广州博冠信息科技有限公司 | 弹幕数据处理方法、装置、设备以及存储介质 |
CN112541557B (zh) * | 2020-12-25 | 2024-04-05 | 北京百度网讯科技有限公司 | 生成式对抗网络的训练方法、装置及电子设备 |
US12001798B2 (en) * | 2021-01-13 | 2024-06-04 | Salesforce, Inc. | Generation of training data for machine learning based models for named entity recognition for natural language processing |
CN113110843B (zh) * | 2021-03-05 | 2023-04-11 | 卓尔智联(武汉)研究院有限公司 | 合约生成模型训练方法、合约生成方法及电子设备 |
CN112598091B (zh) * | 2021-03-08 | 2021-09-07 | 北京三快在线科技有限公司 | 一种训练模型和小样本分类的方法及装置 |
CN113204977B (zh) * | 2021-04-29 | 2023-09-26 | 北京有竹居网络技术有限公司 | 信息翻译方法、装置、设备和存储介质 |
CN113221581A (zh) * | 2021-05-13 | 2021-08-06 | 北京小米移动软件有限公司 | 文本翻译的方法、装置及存储介质 |
CN113609157B (zh) * | 2021-08-09 | 2023-06-30 | 平安科技(深圳)有限公司 | 语言转换模型训练、语言转换方法、装置、设备及介质 |
CN113688245B (zh) * | 2021-08-31 | 2023-09-26 | 中国平安人寿保险股份有限公司 | 基于人工智能的预训练语言模型的处理方法、装置及设备 |
CN113762397B (zh) * | 2021-09-10 | 2024-04-05 | 北京百度网讯科技有限公司 | 检测模型训练、高精度地图更新方法、设备、介质及产品 |
CN114241268A (zh) * | 2021-12-21 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | 一种模型的训练方法、装置及设备 |
CN115081462A (zh) * | 2022-06-15 | 2022-09-20 | 京东科技信息技术有限公司 | 翻译模型训练、翻译方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122525A (ja) | 2005-10-29 | 2007-05-17 | National Institute Of Information & Communication Technology | 言い換え処理方法及び装置 |
JP2012527701A (ja) | 2009-05-22 | 2012-11-08 | マイクロソフト コーポレーション | 構造化されていないリソースからの句対のマイニング |
JP2018055670A (ja) | 2016-09-27 | 2018-04-05 | パナソニックIpマネジメント株式会社 | 類似文生成方法、類似文生成プログラム、類似文生成装置及び類似文生成システム |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9201871B2 (en) * | 2010-06-11 | 2015-12-01 | Microsoft Technology Licensing, Llc | Joint optimization for machine translation system combination |
JP5506569B2 (ja) * | 2010-06-29 | 2014-05-28 | 株式会社Kddi研究所 | サポートベクトルマシンの再学習方法及び装置 |
US8515736B1 (en) * | 2010-09-30 | 2013-08-20 | Nuance Communications, Inc. | Training call routing applications by reusing semantically-labeled data collected for prior applications |
US8972240B2 (en) * | 2011-05-19 | 2015-03-03 | Microsoft Corporation | User-modifiable word lattice display for editing documents and search queries |
CN102799579B (zh) * | 2012-07-18 | 2015-01-21 | 西安理工大学 | 具有错误自诊断和自纠错功能的统计机器翻译方法 |
CN104239286A (zh) * | 2013-06-24 | 2014-12-24 | 阿里巴巴集团控股有限公司 | 同义短语的挖掘方法和装置及搜索相关内容的方法和装置 |
US9026551B2 (en) * | 2013-06-25 | 2015-05-05 | Hartford Fire Insurance Company | System and method for evaluating text to support multiple insurance applications |
CN104933038A (zh) * | 2014-03-20 | 2015-09-23 | 株式会社东芝 | 机器翻译方法和机器翻译装置 |
US9443513B2 (en) * | 2014-03-24 | 2016-09-13 | Educational Testing Service | System and method for automated detection of plagiarized spoken responses |
US10055485B2 (en) * | 2014-11-25 | 2018-08-21 | International Business Machines Corporation | Terms for query expansion using unstructured data |
KR102048918B1 (ko) * | 2014-12-18 | 2020-01-08 | 에이에스엠엘 네델란즈 비.브이. | 기계 학습에 의한 피처 검색 |
US10115055B2 (en) * | 2015-05-26 | 2018-10-30 | Booking.Com B.V. | Systems methods circuits and associated computer executable code for deep learning based natural language understanding |
US9984068B2 (en) * | 2015-09-18 | 2018-05-29 | Mcafee, Llc | Systems and methods for multilingual document filtering |
CN105279252B (zh) * | 2015-10-12 | 2017-12-26 | 广州神马移动信息科技有限公司 | 挖掘相关词的方法、搜索方法、搜索系统 |
CN105512679A (zh) * | 2015-12-02 | 2016-04-20 | 天津大学 | 一种基于极限学习机的零样本分类方法 |
JP6671027B2 (ja) * | 2016-02-01 | 2020-03-25 | パナソニックIpマネジメント株式会社 | 換言文生成方法、該装置および該プログラム |
JP6655788B2 (ja) * | 2016-02-01 | 2020-02-26 | パナソニックIpマネジメント株式会社 | 対訳コーパス作成方法、該装置および該プログラムならびに機械翻訳システム |
US20170286376A1 (en) * | 2016-03-31 | 2017-10-05 | Jonathan Mugan | Checking Grammar Using an Encoder and Decoder |
CN107526720A (zh) * | 2016-06-17 | 2017-12-29 | 松下知识产权经营株式会社 | 意思生成方法、意思生成装置以及程序 |
US10268686B2 (en) * | 2016-06-24 | 2019-04-23 | Facebook, Inc. | Machine translation system employing classifier |
CN107608973A (zh) * | 2016-07-12 | 2018-01-19 | 华为技术有限公司 | 一种基于神经网络的翻译方法及装置 |
KR102565275B1 (ko) * | 2016-08-10 | 2023-08-09 | 삼성전자주식회사 | 병렬 처리에 기초한 번역 방법 및 장치 |
US20180061408A1 (en) * | 2016-08-24 | 2018-03-01 | Semantic Machines, Inc. | Using paraphrase in accepting utterances in an automated assistant |
WO2018046412A1 (en) * | 2016-09-07 | 2018-03-15 | Koninklijke Philips N.V. | Semi-supervised classification with stacked autoencoder |
KR102589638B1 (ko) * | 2016-10-31 | 2023-10-16 | 삼성전자주식회사 | 문장 생성 장치 및 방법 |
CN107180026B (zh) * | 2017-05-02 | 2020-12-29 | 苏州大学 | 一种基于词嵌入语义映射的事件短语学习方法及装置 |
CN107273503B (zh) * | 2017-06-19 | 2020-07-10 | 北京百度网讯科技有限公司 | 用于生成同语言平行文本的方法和装置 |
CN107463879A (zh) * | 2017-07-05 | 2017-12-12 | 成都数联铭品科技有限公司 | 基于深度学习的人体行为识别方法 |
CN107766577B (zh) * | 2017-11-15 | 2020-08-21 | 北京百度网讯科技有限公司 | 一种舆情监测方法、装置、设备及存储介质 |
JP7149560B2 (ja) * | 2018-04-13 | 2022-10-07 | 国立研究開発法人情報通信研究機構 | リクエスト言換システム、リクエスト言換モデル及びリクエスト判定モデルの訓練方法、及び対話システム |
CN113761950A (zh) * | 2021-04-28 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 一种翻译模型的测试方法及装置 |
-
2018
- 2018-05-10 CN CN201810445783.2A patent/CN110472251B/zh active Active
-
2019
- 2019-03-29 JP JP2020545261A patent/JP7179273B2/ja active Active
- 2019-03-29 EP EP19800044.0A patent/EP3792789A4/en active Pending
- 2019-03-29 WO PCT/CN2019/080411 patent/WO2019214365A1/zh active Application Filing
-
2020
- 2020-08-07 US US16/987,565 patent/US11900069B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122525A (ja) | 2005-10-29 | 2007-05-17 | National Institute Of Information & Communication Technology | 言い換え処理方法及び装置 |
JP2012527701A (ja) | 2009-05-22 | 2012-11-08 | マイクロソフト コーポレーション | 構造化されていないリソースからの句対のマイニング |
JP2018055670A (ja) | 2016-09-27 | 2018-04-05 | パナソニックIpマネジメント株式会社 | 類似文生成方法、類似文生成プログラム、類似文生成装置及び類似文生成システム |
Non-Patent Citations (1)
Title |
---|
山内真樹 他3名,自動コーパス生成とフィードバックによる少量コーパスからの統計機械翻訳,2016年度 人工知能学会全国大会(第30回)論文集[CD-ROM],日本,社団法人 人工知能学会,2016年06月06日 |
Also Published As
Publication number | Publication date |
---|---|
US11900069B2 (en) | 2024-02-13 |
US20200364412A1 (en) | 2020-11-19 |
JP2021515322A (ja) | 2021-06-17 |
WO2019214365A1 (zh) | 2019-11-14 |
CN110472251A (zh) | 2019-11-19 |
CN110472251B (zh) | 2023-05-30 |
EP3792789A1 (en) | 2021-03-17 |
EP3792789A4 (en) | 2021-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7179273B2 (ja) | 翻訳モデルのトレーニング方法、語句翻訳の方法、機器、記憶媒体及びコンピュータプログラム | |
KR102270394B1 (ko) | 이미지를 인식하기 위한 방법, 단말, 및 저장 매체 | |
KR102360659B1 (ko) | 기계번역 방법, 장치, 컴퓨터 기기 및 기억매체 | |
KR102646667B1 (ko) | 이미지 영역을 찾기 위한 방법, 모델 훈련 방법 및 관련 장치 | |
CN110334360B (zh) | 机器翻译方法及装置、电子设备及存储介质 | |
CN106710596B (zh) | 回答语句确定方法及装置 | |
US20210182504A1 (en) | Text translation method and apparatus, and storage medium | |
CN108984535B (zh) | 语句翻译的方法、翻译模型训练的方法、设备及存储介质 | |
WO2014190732A1 (en) | Method and apparatus for building a language model | |
CN104462058B (zh) | 字符串识别方法及装置 | |
WO2020147369A1 (zh) | 自然语言处理方法、训练方法及数据处理设备 | |
CN110162600B (zh) | 一种信息处理的方法、会话响应的方法及装置 | |
CN104281568B (zh) | 一种释义显示方法和装置 | |
CN111597804B (zh) | 一种实体识别模型训练的方法以及相关装置 | |
CN112214605A (zh) | 一种文本分类方法和相关装置 | |
CN111159338A (zh) | 一种恶意文本的检测方法、装置、电子设备及存储介质 | |
CN111145734A (zh) | 一种语音识别方法及电子设备 | |
CN111338598B (zh) | 一种消息处理方法及电子设备 | |
CN112002313B (zh) | 交互方法及装置、音箱、电子设备和存储介质 | |
CN113569043A (zh) | 一种文本类别确定方法和相关装置 | |
CN113806533B (zh) | 比喻句式特征词语提取方法、装置、介质及设备 | |
CN113806532B (zh) | 比喻句式判断模型的训练方法、装置、介质及设备 | |
CN113707132B (zh) | 一种唤醒方法及电子设备 | |
CN109101586B (zh) | 电影信息获取方法、装置及移动终端 | |
CN113761952A (zh) | 一种文本翻译方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200828 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220914 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220914 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220922 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7179273 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |