JP7278309B2 - 文章レベルテキストの翻訳方法及び装置 - Google Patents
文章レベルテキストの翻訳方法及び装置 Download PDFInfo
- Publication number
- JP7278309B2 JP7278309B2 JP2020563948A JP2020563948A JP7278309B2 JP 7278309 B2 JP7278309 B2 JP 7278309B2 JP 2020563948 A JP2020563948 A JP 2020563948A JP 2020563948 A JP2020563948 A JP 2020563948A JP 7278309 B2 JP7278309 B2 JP 7278309B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- translated
- encoding
- sentence
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/131—Fragmentation of text files, e.g. creating reusable text-blocks; Linking to fragments, e.g. using XInclude; Namespaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Description
翻訳の対象となる文章レベルテキスト内の単位テキストである翻訳対象テキストを取得するステップと、
前記翻訳対象テキストの、上文原テキストと、下文原テキストと、上文目標テキストとのうち少なくとも1つを含む関連テキストを取得するステップと、
前記上文原テキストは、前記文章レベルテキスト内における前記翻訳対象テキストの前の少なくとも1つの単位テキストであり、前記下文原テキストは、前記文章レベルテキスト内における前記翻訳対象テキストの後の少なくとも1つの単位テキストであり、前記上文目標テキストは、前記上文原テキストを翻訳した後のテキストであり、
前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップとを含む。
予め構築された符号化復号化モデルを利用し、前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップを含む。
前記翻訳対象テキストを符号化することにより、前記翻訳対象テキストの意味情報を表現するために用いられる初期符号化結果を得るステップと、
前記関連テキストを符号化することにより、前記関連テキストの意味情報を表現するために用いられる関連符号化結果を得るステップと、
前記関連符号化結果内の符号化結果の全部又は一部を利用し、前記初期符号化結果を処
理することにより、前記翻訳対象テキストの意味情報を表現するために用いられ、かつ前記関連テキストの意味情報の全部又は一部を含める目標符号化結果を得るステップと、
前記目標符号化結果を復号化することにより、前記翻訳対象テキストの翻訳を実現するステップとを含む。
前記翻訳対象テキストの各単語を符号化し、初期符号化結果を得るステップを含み、
それに対し、前記関連テキストを符号化して関連符号化結果を得るステップは、
前記関連テキスト内における各テキスト単位の各単語を符号化し、それぞれ各テキスト単位に対応する符号化結果を得て、これらの符号化結果を関連符号化結果とするステップを含む。
前記翻訳対象テキストの各単語の符号化結果を累積し、前記翻訳対象テキストに対応する累積結果を得るステップをさらに含み、
それに対し、前記関連テキスト内の各テキスト単位の各単語を符号化した後のステップは、
前記関連テキストに前記上文原テキストが含まれている場合、前記上文原テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップと、
前記関連テキストに前記下文原テキストが含まれている場合、前記下文原テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップと、
前記関連テキストに前記上文目標テキストが含まれている場合、前記上文目標テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップとをさらに含む。
前記関連テキストに前記上文原テキストが含まれた場合、前記関連符号化結果のうち、前記上文原テキストに該当する符号化結果を決定するステップと、
前記関連テキストに前記下文原テキストが含まれた場合、前記関連符号化結果のうち、前記下文原テキストに該当する符号化結果を決定するステップと、
決定された符号化結果に応じて、前記初期符号化結果を処理するステップとを含む。
前記関連テキストに前記上文原テキストが含まれた場合、前記翻訳対象テキストの初期符号化結果と前記上文原テキストの符号化結果に応じて、前記翻訳対象テキストと前記上文原テキストの間の関連度を決定するステップと、
前記関連テキストに前記下文原テキストが含まれた場合、前記翻訳対象テキストの初期符号化結果と前記下文原テキストの符号化結果に応じて、前記翻訳対象テキストと前記下文原テキストの間の関連度を決定するステップと、
決定された符号化結果及び決定された関連度に応じて、前記初期符号化結果を処理するステップとを含む。
前記関連テキストに前記上文目標テキストが含まれた場合、前記関連符号化結果のうち、前記上文目標テキストに該当する符号化結果を利用し、前記目標符号化結果を復号化す
るステップを含む。
前記翻訳対象テキストと前記上文目標テキストの間の関連度を決定するステップと、
決定された関連度及び前記上文目標テキストの符号化結果に応じて、前記目標符号化結果を復号化するステップとを含む。
前記翻訳対象テキストと前記上文原テキストの間の関連度を、前記翻訳対象テキストと前記上文目標テキストの間の関連度とするステップを含む。
翻訳の対象となる文章レベルテキスト内の単位テキストである翻訳対象テキストを取得する翻訳対象テキスト取得ユニットと、
前記翻訳対象テキストの、前記文章レベルテキスト内における前記翻訳対象テキストの前の少なくとも1つの単位テキストである上文原テキストと、前記文章レベルテキスト内における前記翻訳対象テキストの後の少なくとも1つの単位テキストである下文原テキストと、前記上文原テキストを翻訳した後のテキストである上文目標テキストとのうち少なくとも1つを含む関連テキストを取得する関連テキスト取得ユニットと、
前記関連テキストに応じて前記翻訳対象テキストを翻訳する翻訳対象テキスト翻訳ユニットとを含む。
前記翻訳対象テキストを符号化することにより、前記翻訳対象テキストの意味情報を表現するために用いられる初期符号化結果を得る第1符号化サブユニットと、
前記関連テキストを符号化することにより、前記関連テキストの意味情報を表現するために用いられる関連符号化結果を得る第2符号化サブユニットと、
前記関連符号化結果内の符号化結果の全部又は一部を利用し、前記初期符号化結果を処理することにより、前記翻訳対象テキストの意味情報を表現するために用いられ、かつ前記関連テキスト内の意味情報の全部又は一部を含める目標符号化結果を得る結果処理サブユニットと、
前記目標符号化結果を復号化することにより、前記翻訳対象テキストの翻訳を実現する復号化実現サブユニットとを含む。
前記プロセッサ及び前記メモリは、前記システムバスを介して接続され、
前記メモリは1つ又は複数のプログラムを格納するために使用され、前記1つ又は複数のプログラムは命令を含み、前記命令は前記プロセッサで実行された時に、前記プロセッサに上記の文章レベルテキスト翻訳方法のうちいずれかの1つの実現方式を実行させる。
翻訳結果の精度を高め、ユーザーエクスペリエンスも向上させる。さらに、翻訳対象テキストを翻訳する時に、本出願の実施例は、翻訳対象テキストと上下文情報の関連性に応じて、上下文情報を動的に選択することで、翻訳モデルの受信情報内の冗長な情報を低減させるだけでなく、翻訳対象テキストの翻訳結果の精度もより一層高める。さらに、翻訳対象テキストを翻訳する時に、本出願の実施例は、翻訳対象テキストの上文翻訳結果を考慮するため、翻訳対象テキストの翻訳結果を上文の翻訳結果に結びつけることで、翻訳対象テキストの翻訳結果の精度がより向上し、翻訳テキストの流暢さも向上する。つまり、翻訳後の文章レベルテキストの各文間の連接性と一貫性が保証される。
図1は本出願の実施例に係る文章レベルテキスト翻訳方法のフローチャートであり、当該方法は以下のステップを含む。
翻訳の対象となる文章レベルテキスト、すなわち、翻訳前の文章レベルテキストは、便益を図るため、以下、文章レベルテキストと略す。本実施例は文章レベルテキストのタイプを制限するものではない。例えば、当該文章レベルテキストとしては、スピーチ原稿、雑誌記事、文学作品などが挙げられる。
本実施例は第1実施例のS103の具体的な実施形態を説明する。
翻訳するかを説明する。
で表し、ここで、
は順に文X-kの1番目の単語、2番目の単語…n番目の単語を表し、上文原テキストの他の文を類似の形式で表す。下文原テキスト内の文Xkの各単語を
で表し、ここで、
は順に文Xkの1番目の単語、2番目の単語…n番目の単語を表し、下文原テキストの他の文を類似の形式で表す。
で表し、ここで、
は順に文Y-kの1番目の単語、2番目の単語…n番目の単語を表す。上文目標テキスト内の文Y-1の各単語を
で表し、ここで、
は順に文Y-1の1番目の単語、2番目の単語…n番目の単語を表す。下文目標テキストの他の文を類似の形式で表す。
を符号化し、初期符号化結果を得ることが含むことができる。
双方向RNNの各隠れ層状態の計算式は次の通りである。
は、単語xiの単語ベクトルを表す。hi-1はi-1番目の隠れ層状態を示し、単語xi-1の意味情報を表す。hiはi番目の隠れ層状態を示し、単語xiの意味情報を表す。
を生成し、ここで、
は翻訳対象テキストXの順方向情報を表す。逆方向RNNは、翻訳対象テキストXの各単語の単語ベクトルを逆順に読み込んだ後、逆方向の隠れ層シーケンス
を生成し、ここで、
は翻訳対象テキストXの逆方向情報を表す。
と逆方向の隠れ層シーケンス
において、位置が互いに対応する隠れ層状態のユニットをつなぎ合わせて当該位置の単語に対応する状態のシーケンスを構成する。つまり、{x1,x2,…,xn}の各単語に対応する状態のシーケンスはそれぞれ、x1に対応する状態のシーケンスは
x2に対応する状態のシーケンスは
…xnに対応する状態のシーケンスは
である。これに基づいて、翻訳対象テキストXの意味情報はH={h1,h2,…,hn}で表され、Hは翻訳対象テキストを符号化して得られた初期符号化結果である。
を、新しい初期符号化結果とし、翻訳対象テキストXの意味情報を特徴付ける。ここで、
である。
で表し、…文X-kの意味情報を
で表し、H-1、…H-kは上文原テキストを符号化して得られた符号化結果である。ここで、
において、
であり、
において、
である。
で表し、…文Xkの意味情報を
で表し、H1、…Hkは下文原テキストを符号化して得られた符号化結果である。ここで
において、
であり、
において、
である。
で表し、…文X-kの意味情報を
で表し、
は上文目標テキストを符号化して得られた符号化結果である。ここで、
において、
であり、
において、
である。
を用いて文X-1の意味情報を特徴付け、…H-kの各状態シーケンスの累積結果
を用いて文X-kの意味情報を特徴付け、
を共に上文原テキストの符号化結果とし、ここで
である。
を用いて文X1の意味情報を特徴付け、…Hkの各状態シーケンスの累積結果
を用いて文Xkの意味情報を特徴付け、
を共に下文原テキストの符号化結果とし、ここで、
である。
を得た後、
の各状態シーケンスの累積結果
を用いて文Y-1の意味情報を特徴付け、…
の各状態シーケンスの累積結果
を用いて文Y-kの意味情報を特徴付け、
を共に上文目標テキストの符号化結果とし、ここで、
である。
については、そのいずれか1つ又は複数の符号化結果を用いて、翻訳対象テキストの初期符号化結果Hを処理し、処理後の符号化結果を目標符号化結果とする。
、下文原テキストの符号化結果
、及び上文目標テキストの符号化結果
については、そのいずれか1つ又は複数の符号化結果を用いて、翻訳対象テキストの初期符号化結果Hを処理し、処理後の符号化結果を目標符号化結果Hcとする。
本実施例は第2実施例のS403の具体的な実施形態を説明する。
である場合、下文原テキストの符号化結果は第2実施例の
であってもよい。
一実現方式において、ステップS503は具体的に、以下のステップA2~C2を含むことができる。
であってもよく、上文原テキスト内の各上文の文の符号化結果はそれぞれ、
であってもよく、ニューラルネットワーク構造Gate Networkを用いて、各上文の文に対応する相関係数を生成し、当該相関係数は、翻訳対象テキストと対応する上文の文との関連度を表す。
、及び各上文の文に対応する符号化結果
、をGate Networkの入力とする。その後、Gate Networkで各上文の文に対応する相関係数λ-iを計算し、計算式は次の通りである。
は翻訳対象テキストの初期符号化結果である。
は翻訳対象テキストの前のi番目の文の符号化結果である。λ-iは翻訳対象テキストの
前のi番目の文に対応する相関係数であり、翻訳対象テキストと翻訳対象テキストの前のi番目の文との間の関連度を表す。UとVはGate Networkのトレーニングパラメーターであり、予め大量のデータを収集し、トレーニングして得られ、その次元はすべてd×1である。
と
は次元が1×dの行列であり、dは双方向RNNを符号化する時に隠れ層のノード数を指し、予め設定される。したがって、式(2)は行列の乗算で次元が1であるスカラー値が得られ、次に非線形関数(すなわち、sigmoid関数)で変換し、数値範囲が0~1のスカ
ラー値λ-iを得る。ここで、λ-iの値が大きいほど、翻訳対象テキストと翻訳対象テキストの前のi番目の文間の関連度が大きくなり、その逆も同様である。
の関連度を決定することにより、関連度の決定結果を用いて、対応する下文の文の意味情報を動的に使用し、下文の文による情報の冗長を防止する。
であってもよく、下文原テキスト内の各上文の文の符号化結果はそれぞれ
であってもよく、ニューラルネットワーク構造Gate Networkを用いて、各上文の文に対応する相関係数を生成し、当該相関係数は、翻訳対象テキストと対応する上文の文との関連度を表す。
、及び各上文の文に対応する符号化結果
、をGate Networkの入力とする。その後、Gate Networkで各上文の文に対応する相関係数λiを計算し、計算式は次の通りである。
は翻訳対象テキストの初期符号化結果である。
は翻訳対象テキストの後のi番目の文の符号化結果である。λiは翻訳対象テキストの後
のi番目の文に対応する相関係数であり、翻訳対象テキストと翻訳対象テキストの後のi番目の文との間の関連度を表す。UとVはGate Networkのトレーニングパラメーターであり、予め大量のデータを収集し、トレーニングして得られ、その次元はすべてd×1である。
と
は次元が1×dの行列であり、dは双方向RNNを符号化する時に隠れ層のノード数を指し、予め設定される。したがって、式(3)は行列の乗算で次元が1であるスカラー値が得られ、次に非線形関数(すなわち、sigmoid関数)で変換し、数値範囲が0~1のスカ
ラー値λiを得る。ここで、λiの値が大きいほど、翻訳対象テキストと翻訳対象テキストの後のi番目の文間の関連度が大きくなり、その逆も同様である。
は各上文の文の符号化結果である。
は各下文の文の符号化結果である。
号化復号化モデルの受信情報内の冗長な情報を低減するとともに、翻訳対象テキストの翻訳結果の精度をさらに高めた。
本実施例は第2実施例のS404の具体的な実施形態を説明する。
又は、
であってもよく、これらの符号化結果を利用し、目標符号化結果Hcを補助的に復号化することにより、翻訳対象テキストの翻訳結果を得ることができる。
は復号化で使用される上文目標テキストの符号化結果を表し、目標符号化結果Hcを復号化する時に、RNNネットワークを用いて順次復号化し、本案は復号化の各時刻に
を加え、計算式は次の通りである。
る。W、U、Vは既存の復号化ネットワークのトレーニングパラメーターであってもよく、Pは本実施例における復号化ネットワークに追加されたトレーニングパラメーターである。sjは現在時刻jの隠れ層状態を表す。sj-1は前時刻j-1の隠れ層状態を表す。yj-1は前時刻の復号化結果の単語ベクトルである。cjはアテンションモデルの出力情報であり、アテンションモデルは共通の符号化復号化構造で使用されるネットワーク構造であってもよく、具体的な復号化計算方法は従来技術と同じであってもよい。
本実施例では文章レベルテキスト翻訳装置を説明し、関連内容については、上記方法の実施例を参照する。
前記翻訳対象テキストの、前記文章レベルテキスト内における前記翻訳対象テキストの前の少なくとも1つの単位テキストである上文原テキストと、前記文章レベルテキスト内における前記翻訳対象テキストの後の少なくとも1つの単位テキストである下文原テキストと、前記上文原テキストを翻訳した後のテキストである上文目標テキストとのうち少なくとも1つを含む関連テキストを取得する関連テキスト取得ユニット702と、
前記関連テキストに応じて前記翻訳対象テキストを翻訳する翻訳対象テキスト翻訳ユニ
ット703とを含む。
前記翻訳対象テキストを符号化することにより、前記翻訳対象テキストの意味情報を表現するために用いられる初期符号化結果を得る第1符号化サブユニットと、
前記関連テキストを符号化することにより、前記関連テキストの意味情報を表現するために用いられる関連符号化結果を得る第2符号化サブユニットと、
前記関連符号化結果内の符号化結果の全部又は一部を利用し、前記初期符号化結果を処理することにより、前記翻訳対象テキストの意味情報を表現するために用いられ、かつ前記関連テキスト内の意味情報の全部又は一部を含める目標符号化結果を得る結果処理サブユニットと、
前記目標符号化結果を復号化することにより、前記翻訳対象テキストの翻訳を実現する復号化実現サブユニットとを含む。
それに対し、前記第2符号化サブユニットは、具体的に、前記関連テキスト内における各テキスト単位の各単語を符号化し、それぞれ各テキスト単位に対応する符号化結果を得て、これらの符号化結果を関連符号化結果とするために用いられる。
翻訳対象テキスト内の各単語を符号化した後、前記翻訳対象テキストの各単語の符号化結果を累積し、前記翻訳対象テキストに対応する累積結果を得る第1累積サブユニットと、
前記関連テキスト内の各テキスト単位の各単語を符号化した後は、前記関連テキストに前記上文原テキストが含まれている場合、前記上文原テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得て、前記関連テキストに前記下文原テキストが含まれている場合、前記下文原テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得て、前記関連テキストに前記上文目標テキストが含まれている場合、前記上文目標テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得る第2累積サブユニットとをさらに含むことができる。
前記関連テキストに前記上文原テキストが含まれた場合、前記関連符号化結果のうち、前記上文原テキストに該当する符号化結果を決定する第1決定サブユニットと、
前記関連テキストに前記下文原テキストが含まれた場合、前記関連符号化結果のうち、前記下文原テキストに該当する符号化結果を決定する第2決定サブユニットと、
決定された符号化結果に応じて、前記初期符号化結果を処理し、目標符号化結果を得る結果取得サブユニットとを含む。
前記関連テキストに前記上文原テキストが含まれた場合、前記翻訳対象テキストの初期符号化結果と前記上文原テキストの符号化結果に応じて、前記翻訳対象テキストと前記上文原テキストの間の関連度を決定する第1関連度決定サブユニットと、
前記関連テキストに前記下文原テキストが含まれた場合、前記翻訳対象テキストの初期
符号化結果と前記下文原テキストの符号化結果に応じて、前記翻訳対象テキストと前記下文原テキストの間の関連度を決定する第2関連度決定サブユニットと、
決定された符号化結果及び決定された関連度に応じて、前記初期符号化結果を処理して目標符号化結果を得る目標結果取得サブユニットとを含む。
本実施例の一実現方式において、前記結果実現サブユニットは、
前記関連テキストに前記上文目標テキストが含まれた場合、前記翻訳対象テキストと前記上文目標テキスト間の関連度を決定する第3関連度決定サブユニットと、
決定された関連度及び前記上文目標テキストの符号化結果に応じて、前記目標符号化結果を復号化する符号化結果処理サブユニットとを含む。
本実施例では別の文章レベルテキスト翻訳装置を説明し、関連内容については、上記方法の実施例を参照する。
翻訳の対象となる文章レベルテキスト内の単位テキストである翻訳対象テキストを取得するステップと、
前記翻訳対象テキストの、上文原テキストと、下文原テキストと、上文目標テキストとのうち少なくとも1つを含む関連テキストを取得するステップと、
前記上文原テキストは、前記文章レベルテキスト内における前記翻訳対象テキストの前の少なくとも1つの単位テキストであり、前記下文原テキストは、前記文章レベルテキスト内における前記翻訳対象テキストの後の少なくとも1つの単位テキストであり、前記上文目標テキストは、前記上文原テキストを翻訳した後のテキストであり、
前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップとを含む。
予め構築された符号化復号化モデルを利用し、前記関連テキストに応じて前記翻訳対象テキストを翻訳する。
前記翻訳対象テキストを符号化することにより、前記翻訳対象テキストの意味情報を表現するために用いられる初期符号化結果を得るステップと、
前記関連テキストを符号化することにより、前記関連テキストの意味情報を表現するために用いられる関連符号化結果を得るステップと、
前記目標符号化結果を復号化することにより、前記翻訳対象テキストの翻訳を実現するステップとを含む。
前記関連テキスト内における各テキスト単位の各単語を符号化し、それぞれ各テキスト単位に対応する符号化結果を得て、これらの符号化結果を関連符号化結果とするステップを含む。
前記関連テキストに前記上文原テキストが含まれている場合、前記上文原テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップと、
前記関連テキストに前記上文目標テキストが含まれている場合、前記上文目標テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップとを含む。
決定された符号化結果に応じて、前記初期符号化結果を処理するステップとを含む。
前記関連テキストに前記下文原テキストが含まれた場合、前記翻訳対象テキストの初期符号化結果と前記下文原テキストの符号化結果に応じて、前記翻訳対象テキストと前記下文原テキストの間の関連度を決定するステップと、
決定された符号化結果及び決定された関連度に応じて、前記初期符号化結果を処理する
ステップとを含む。
前記翻訳対象テキストと前記上文目標テキストの間の関連度を決定するステップと、
決定された関連度及び前記上文目標テキストの符号化結果に応じて、前記目標符号化結果を復号化するステップとを含む。
Unit、CPU)であってもよく、前記メモリ801はランダムアクセスメモリ(Random Access Memory、RAM)型の内部メモリであってもよく、前記受信機802は通常の物
理インターフェースを含め、前記物理インターフェースはイーサネット(Ethernet)インターフェース又は非同期転送モード(Asynchronous Transfer Mode、ATM)インターフェースであってもよい。前記プロセッサ803、受信機802およびメモリ801は、1つ又は複数の独立した回路又はハードウェアに統合されることができ、例えば、特定用途向けの集積回路(Application Specific Integrated Circuit、ASIC)である。
じまたは類似の部分は互いに参照することがある。実施例で開示された装置にとっては、実施例で開示された方法に対応するため、簡単に記載され、関連部分について方法の説明を参照すればよい。
Claims (15)
- コンピュータにより実行される文章レベルテキスト翻訳方法であって、
翻訳の対象となる文章レベルテキスト内の単位テキストである翻訳対象テキストを取得するステップと、
前記翻訳対象テキストの、上文原テキストと、下文原テキストと、上文目標テキストとのうち少なくとも1つを含む関連テキストを取得するステップと、
前記上文原テキストは、前記文章レベルテキスト内における前記翻訳対象テキストの前の少なくとも1つの単位テキストであり、前記下文原テキストは、前記文章レベルテキスト内における前記翻訳対象テキストの後の少なくとも1つの単位テキストであり、前記上文目標テキストは、前記上文原テキストを翻訳した後のテキストであり、
前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップとを含み、
前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップは、
前記関連テキストと前記翻訳対象テキストとの関連度を決定し、前記関連度に応じて前記関連テキストの意味情報を用いて、前記翻訳対象テキストを翻訳するステップを含み、
前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップは、
前記翻訳対象テキストを符号化することにより、前記翻訳対象テキストの意味情報を表現するために用いられる初期符号化結果を得るステップと、
前記関連テキストを符号化することにより、前記関連テキストの意味情報を表現するために用いられる関連符号化結果を得るステップと、
前記関連符号化結果内の符号化結果の全部又は一部を利用し、前記初期符号化結果を処理することにより、前記翻訳対象テキストの意味情報を表現するために用いられ、かつ前記関連テキストの意味情報の全部又は一部を含める目標符号化結果を得、前記処理とは、前記関連符号化結果内の符号化結果の全部又は一部を対応する前記関連テキストと前記翻訳対象テキストとの前記関連度に応じて前記初期符号化結果に導入することであるステップと、
前記目標符号化結果を復号化することにより、前記翻訳対象テキストの翻訳を実現するステップとを含む
ことを特徴とする文章レベルテキスト翻訳方法。 - 前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップは、
予め構築された符号化復号化モデルを利用し、前記関連テキストと前記翻訳対象テキストとの関連度を決定し、前記関連度に応じて前記関連テキストの意味情報を用いて、前記
翻訳対象テキストを翻訳するステップを含む
ことを特徴とする請求項1に記載の文章レベルテキスト翻訳方法。 - 前記翻訳対象テキストを符号化して初期符号化結果を得るステップは、
前記翻訳対象テキストの各単語を符号化し、初期符号化結果を得るステップを含み、
それに対し、前記関連テキストを符号化して関連符号化結果を得るステップは、
前記関連テキスト内における各テキスト単位の各単語を符号化し、それぞれ各テキスト単位に対応する符号化結果を得て、これらの符号化結果を関連符号化結果とするステップを含む
ことを特徴とする請求項1に記載の文章レベルテキスト翻訳方法。 - 前記翻訳対象テキスト内の各単語を符号化した後のステップは、
前記翻訳対象テキストの各単語の符号化結果を累積し、前記翻訳対象テキストに対応する累積結果を得るステップをさらに含み、
それに対し、前記関連テキスト内の各テキスト単位の各単語を符号化した後のステップは、
前記関連テキストに前記上文原テキストが含まれている場合、前記上文原テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップと、
前記関連テキストに前記下文原テキストが含まれている場合、前記下文原テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップと、
前記関連テキストに前記上文目標テキストが含まれている場合、前記上文目標テキスト内における各単位テキストの各単語の符号化結果をそれぞれ累積し、各単位テキストに対応する累積結果を得るステップとをさらに含む
ことを特徴とする請求項3に記載の文章レベルテキスト翻訳方法。 - 前記関連符号化結果内の符号化結果の全部又は一部を利用し、前記初期符号化結果を処理するステップは、
前記関連テキストに前記上文原テキストが含まれた場合、前記関連符号化結果のうち、前記上文原テキストに該当する符号化結果を決定するステップと、
前記関連テキストに前記下文原テキストが含まれた場合、前記関連符号化結果のうち、前記下文原テキストに該当する符号化結果を決定するステップと、
決定された符号化結果に応じて、前記初期符号化結果を処理するステップとを含む
ことを特徴とする請求項1に記載の文章レベルテキスト翻訳方法。 - 決定された符号化結果に応じて、前記初期符号化結果を処理するステップは、
前記関連テキストに前記上文原テキストが含まれた場合、前記翻訳対象テキストの初期符号化結果と前記上文原テキストの符号化結果に応じて、前記翻訳対象テキストと前記上文原テキストの間の関連度を決定するステップと、
前記関連テキストに前記下文原テキストが含まれた場合、前記翻訳対象テキストの初期符号化結果と前記下文原テキストの符号化結果に応じて、前記翻訳対象テキストと前記下文原テキストの間の関連度を決定するステップと、
決定された符号化結果及び決定された関連度に応じて、前記初期符号化結果を処理するステップとを含む
ことを特徴とする請求項5に記載の文章レベルテキスト翻訳方法。 - 前記目標符号化結果を復号化することにより、前記翻訳対象テキストの翻訳を実現するステップは、
前記関連テキストに前記上文目標テキストが含まれた場合、前記関連符号化結果のうち
、前記上文目標テキストに該当する符号化結果を利用し、前記目標符号化結果を復号化するステップを含み、
前記目標符号化結果を復号化する時に、復号化の各時刻に前記上文目標テキストに該当する符号化結果を加える
ことを特徴とする請求項1ないし6のいずれかの1項に記載の文章レベルテキスト翻訳方法。 - 前記関連符号化結果のうち、前記上文目標テキストに該当する符号化結果を利用し、前記目標符号化結果を復号化するステップは、
前記翻訳対象テキストと前記上文目標テキストの間の関連度を決定するステップと、
決定された関連度に応じて、動的に前記上文目標テキストの符号化結果を選択して用いて復号化で使用される上文目標テキストの符号化結果を得、得られた復号化で使用される上文目標テキストの符号化結果を用いて前記目標符号化結果を復号化するステップとを含む
ことを特徴とする請求項7に記載の文章レベルテキスト翻訳方法。 - 前記翻訳対象テキストと前記上文目標テキストの間の関連度を決定するステップは、
前記翻訳対象テキストと前記上文原テキストの間の関連度を、前記翻訳対象テキストと前記上文目標テキストの間の関連度とするステップとを含む
ことを特徴とする請求項8に記載の文章レベルテキスト翻訳方法。 - 翻訳の対象となる文章レベルテキスト内の単位テキストである翻訳対象テキストを取得する翻訳対象テキスト取得ユニットと、
前記翻訳対象テキストの、前記文章レベルテキスト内における前記翻訳対象テキストの前の少なくとも1つの単位テキストである上文原テキストと、前記文章レベルテキスト内における前記翻訳対象テキストの後の少なくとも1つの単位テキストである下文原テキストと、前記上文原テキストを翻訳した後のテキストである上文目標テキストとのうち少なくとも1つを含む関連テキストを取得する関連テキスト取得ユニットと、
前記関連テキストに応じて前記翻訳対象テキストを翻訳する翻訳対象テキスト翻訳ユニットとを含み、
前記関連テキストに応じて前記翻訳対象テキストを翻訳するステップは、
前記関連テキストと前記翻訳対象テキストとの関連度を決定し、前記関連度に応じて前記関連テキストの意味情報を用いて、前記翻訳対象テキストを翻訳するステップを含み、
前記翻訳対象テキスト翻訳ユニットは、
前記翻訳対象テキストを符号化することにより、前記翻訳対象テキストの意味情報を表現するために用いられる初期符号化結果を得る第1符号化サブユニットと、
前記関連テキストを符号化することにより、前記関連テキストの意味情報を表現するために用いられる関連符号化結果を得る第2符号化サブユニットと、
前記関連符号化結果内の符号化結果の全部又は一部を利用し、前記初期符号化結果を処理することにより、前記翻訳対象テキストの意味情報を表現するために用いられ、かつ前記関連テキスト内の意味情報の全部又は一部を含める目標符号化結果を得る結果処理サブユニットであって、前記処理とは、前記関連符号化結果内の符号化結果の全部又は一部を対応する前記関連テキストと前記翻訳対象テキストとの前記関連度に応じて前記初期符号化結果に導入することである結果処理サブユニットと、
前記目標符号化結果を復号化することにより、前記翻訳対象テキストの翻訳を実現する復号化実現サブユニットとを含む
ことを特徴とする文章レベルテキスト翻訳装置。 - 前記翻訳対象テキスト翻訳ユニットは具体的に、予め構築された符号化復号化モデルを利用し、前記関連テキストと前記翻訳対象テキストとの関連度を決定し、前記関連度に応
じて前記関連テキストの意味情報を用いて、前記翻訳対象テキストを翻訳するために用いられる
ことを特徴とする請求項10に記載の文章レベルテキスト翻訳装置。 - 前記復号化実現サブユニットは具体的に、前記関連テキストに前記上文目標テキストが含まれた場合、前記関連符号化結果のうち、前記上文目標テキストに該当する符号化結果を利用し、前記目標符号化結果を復号化するために用いられる
ことを特徴とする請求項10に記載の文章レベルテキスト翻訳装置。 - プロセッサと、メモリと、システムバスとを含む文章レベルテキスト翻訳装置であって、
前記プロセッサ及び前記メモリは、前記システムバスを介して接続され、
前記メモリは、1つ又は複数のプログラムを記憶し、前記プログラムは前記プロセッサによって実行された時に、前記プロセッサに請求項1ないし9のいずれかの1項に記載の方法を実行させる命令を含む
ことを特徴とする文章レベルテキスト翻訳装置。 - コンピュータで実行される時に、コンピュータに請求項1ないし9のいずれかの1項に記載の方法を実行させる命令を記憶する
ことを特徴とするコンピュータ可読記憶媒体。 - 端末装置で実行される時に、前記端末装置に請求項1ないし9のいずれかの1項に記載の方法を実行させる
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810463138.3 | 2018-05-15 | ||
CN201810463138.3A CN110489761B (zh) | 2018-05-15 | 2018-05-15 | 一种篇章级文本翻译方法及装置 |
PCT/CN2019/082039 WO2019218809A1 (zh) | 2018-05-15 | 2019-04-10 | 一种篇章级文本翻译方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021524095A JP2021524095A (ja) | 2021-09-09 |
JP7278309B2 true JP7278309B2 (ja) | 2023-05-19 |
Family
ID=68539405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020563948A Active JP7278309B2 (ja) | 2018-05-15 | 2019-04-10 | 文章レベルテキストの翻訳方法及び装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11694041B2 (ja) |
EP (1) | EP3796191A4 (ja) |
JP (1) | JP7278309B2 (ja) |
KR (1) | KR102550340B1 (ja) |
CN (1) | CN110489761B (ja) |
AU (1) | AU2019270109B2 (ja) |
NZ (1) | NZ770794A (ja) |
WO (1) | WO2019218809A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111597830A (zh) * | 2020-05-20 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 基于多模态机器学习的翻译方法、装置、设备及存储介质 |
CN111859998A (zh) * | 2020-06-18 | 2020-10-30 | 北京百度网讯科技有限公司 | 篇章翻译的方法、装置、电子设备和可读存储介质 |
CN116882423B (zh) * | 2023-09-06 | 2023-11-17 | 中国科学院自动化研究所 | 文本翻译方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014098640A1 (en) | 2012-12-19 | 2014-06-26 | Abbyy Infopoisk Llc | Translation and dictionary selection by context |
US20170060855A1 (en) | 2015-08-25 | 2017-03-02 | Alibaba Group Holding Limited | Method and system for generation of candidate translations |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3952216B2 (ja) | 1995-11-27 | 2007-08-01 | 富士通株式会社 | 翻訳装置及び辞書検索装置 |
EP1483687A4 (en) * | 2002-03-11 | 2008-08-06 | Univ Southern California | TRANSLATION OF CALLED ENTITIES |
CA2612404C (en) | 2005-06-17 | 2014-05-27 | National Research Council Of Canada | Means and method for adapted language translation |
US9053090B2 (en) * | 2006-10-10 | 2015-06-09 | Abbyy Infopoisk Llc | Translating texts between languages |
US8606607B2 (en) * | 2007-01-03 | 2013-12-10 | Vistaprint Schweiz Gmbh | Translation processing using a translation memory |
GB2468278A (en) | 2009-03-02 | 2010-09-08 | Sdl Plc | Computer assisted natural language translation outputs selectable target text associated in bilingual corpus with input target text from partial translation |
RU2518946C1 (ru) | 2012-11-27 | 2014-06-10 | Александр Александрович Харламов | Способ автоматизированной семантической индексации текста на естественном языке |
US9031829B2 (en) * | 2013-02-08 | 2015-05-12 | Machine Zone, Inc. | Systems and methods for multi-user multi-lingual communications |
US9836457B2 (en) | 2015-05-25 | 2017-12-05 | Panasonic Intellectual Property Corporation Of America | Machine translation method for performing translation between languages |
RU2628202C1 (ru) | 2016-04-11 | 2017-08-15 | Михаил Маркович Гольдреер | Адаптивный контекстно-тематический машинный перевод |
CN105912533B (zh) | 2016-04-12 | 2019-02-12 | 苏州大学 | 面向神经机器翻译的长句切分方法及装置 |
CN106126507B (zh) | 2016-06-22 | 2019-08-09 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
RU172882U1 (ru) | 2016-07-20 | 2017-07-28 | Общество с ограниченной ответственностью "Технологии управления переводом" | Устройство для автоматического перевода текста |
KR102577584B1 (ko) | 2016-08-16 | 2023-09-12 | 삼성전자주식회사 | 기계 번역 방법 및 장치 |
US10706351B2 (en) | 2016-08-30 | 2020-07-07 | American Software Safety Reliability Company | Recurrent encoder and decoder |
CN107818086B (zh) * | 2016-09-13 | 2021-08-10 | 株式会社东芝 | 机器翻译方法和装置 |
US11113480B2 (en) * | 2016-09-26 | 2021-09-07 | Google Llc | Neural machine translation systems |
CN107943794A (zh) * | 2016-10-12 | 2018-04-20 | 阿里巴巴集团控股有限公司 | 一种翻译方法及系统 |
CN107368476B (zh) * | 2017-07-25 | 2020-11-03 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
KR20190041790A (ko) * | 2017-10-13 | 2019-04-23 | 한국전자통신연구원 | 신경망 번역 모델 구축 장치 및 방법 |
WO2019079922A1 (zh) * | 2017-10-23 | 2019-05-02 | 腾讯科技(深圳)有限公司 | 会话信息处理方法及其装置、存储介质 |
KR102069692B1 (ko) * | 2017-10-26 | 2020-01-23 | 한국전자통신연구원 | 신경망 기계번역 방법 및 장치 |
-
2018
- 2018-05-15 CN CN201810463138.3A patent/CN110489761B/zh active Active
-
2019
- 2019-04-10 EP EP19804567.6A patent/EP3796191A4/en active Pending
- 2019-04-10 JP JP2020563948A patent/JP7278309B2/ja active Active
- 2019-04-10 US US17/055,154 patent/US11694041B2/en active Active
- 2019-04-10 NZ NZ770794A patent/NZ770794A/en unknown
- 2019-04-10 WO PCT/CN2019/082039 patent/WO2019218809A1/zh unknown
- 2019-04-10 AU AU2019270109A patent/AU2019270109B2/en active Active
- 2019-04-10 KR KR1020207035704A patent/KR102550340B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014098640A1 (en) | 2012-12-19 | 2014-06-26 | Abbyy Infopoisk Llc | Translation and dictionary selection by context |
US20170060855A1 (en) | 2015-08-25 | 2017-03-02 | Alibaba Group Holding Limited | Method and system for generation of candidate translations |
Non-Patent Citations (1)
Title |
---|
J▲o▼rg Tiedemann 他1名,Neural Machine Translation with Extended Context[online],2017年08月20日,(検索日2022年03月25日),URL:https://arxiv.org/pdf/1708.05943/pdf |
Also Published As
Publication number | Publication date |
---|---|
EP3796191A1 (en) | 2021-03-24 |
WO2019218809A1 (zh) | 2019-11-21 |
JP2021524095A (ja) | 2021-09-09 |
KR20210003284A (ko) | 2021-01-11 |
CN110489761B (zh) | 2021-02-02 |
EP3796191A4 (en) | 2022-03-02 |
AU2019270109A1 (en) | 2021-02-04 |
NZ770794A (en) | 2022-10-28 |
US20210150154A1 (en) | 2021-05-20 |
AU2019270109B2 (en) | 2022-10-20 |
US11694041B2 (en) | 2023-07-04 |
CN110489761A (zh) | 2019-11-22 |
KR102550340B1 (ko) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7278309B2 (ja) | 文章レベルテキストの翻訳方法及び装置 | |
JP7278477B2 (ja) | 復号化ネットワーク構築方法、音声認識方法、装置、設備及び記憶媒体 | |
US10789431B2 (en) | Method and system of translating a source sentence in a first language into a target sentence in a second language | |
JP2021152963A (ja) | 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム | |
CN109190134B (zh) | 一种文本翻译方法及装置 | |
CN111401084B (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
US11475225B2 (en) | Method, system, electronic device and storage medium for clarification question generation | |
JP7457125B2 (ja) | 翻訳方法、装置、電子機器及びコンピュータプログラム | |
CN111144140B (zh) | 基于零次学习的中泰双语语料生成方法及装置 | |
WO2022141706A1 (zh) | 语音识别方法、装置及存储介质 | |
JP2021033995A (ja) | テキスト処理装置、方法、デバイス及びコンピューター読み取り可能な記憶媒体 | |
CN114385178A (zh) | 基于抽象语法树结构信息增强的代码生成方法 | |
CN112417864B (zh) | 基于门控拷贝和掩码的多轮对话省略恢复方法 | |
CN110913229B (zh) | 基于rnn的解码器隐状态确定方法、设备和存储介质 | |
WO2020155769A1 (zh) | 关键词生成模型的建模方法和装置 | |
CN109979461B (zh) | 一种语音翻译方法及装置 | |
Wang et al. | Data augmentation for internet of things dialog system | |
CN111723194A (zh) | 摘要生成方法、装置和设备 | |
WO2021082518A1 (zh) | 机器翻译方法、机器翻译模型训练方法、装置及存储介质 | |
CN116432662A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN112989794A (zh) | 模型训练方法、装置、智能机器人和存储介质 | |
Jabaian et al. | A unified framework for translation and understanding allowing discriminative joint decoding for multilingual speech semantic interpretation | |
RU2779526C2 (ru) | Способ и устройство для перевода текста на уровне дискурса | |
CN111078886A (zh) | 基于dmcnn的特殊事件提取系统 | |
RU2796047C1 (ru) | Способ построения сети декодирования, способ и устройство для распознавания речи, а также носитель данных |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220705 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230126 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230214 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7278309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |