JP6923332B2 - 自動通訳方法及び装置 - Google Patents
自動通訳方法及び装置 Download PDFInfo
- Publication number
- JP6923332B2 JP6923332B2 JP2017058860A JP2017058860A JP6923332B2 JP 6923332 B2 JP6923332 B2 JP 6923332B2 JP 2017058860 A JP2017058860 A JP 2017058860A JP 2017058860 A JP2017058860 A JP 2017058860A JP 6923332 B2 JP6923332 B2 JP 6923332B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- language
- feature vector
- translation
- automatic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 117
- 239000013598 vector Substances 0.000 claims description 302
- 238000013519 translation Methods 0.000 claims description 254
- 230000014616 translation Effects 0.000 claims description 254
- 238000013528 artificial neural network Methods 0.000 claims description 105
- 230000005236 sound signal Effects 0.000 claims description 55
- 230000015654 memory Effects 0.000 claims description 29
- 238000005070 sampling Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 47
- 239000003795 chemical substances by application Substances 0.000 description 37
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 230000000644 propagated effect Effects 0.000 description 7
- 238000010845 search algorithm Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000013138 pruning Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 235000012149 noodles Nutrition 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000010792 warming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/51—Translation evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
一側面によれば、自動通訳方法は、第1特徴ベクトルを生成するために第1言語からなる音声信号を符号化するステップと、第1言語文章を生成するために前記第1特徴ベクトルを復号化するステップと、第2言語に対する第2特徴ベクトルを生成するために前記第1言語文章を符号化するステップと、前記第2特徴ベクトルを復号化して第2言語文章を生成するステップと、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つ又はその組合せに基づいた候補文章リストの生成を制御するステップと、前記音声信号の翻訳として前記候補文章リストから最終第2言語文章を選択するステップとを含む。
本明細書で開示されている特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示されたものであり、実施形態は様々な異なる形態で実施され、本明細書に説明された実施形態に限定されることはない。
自動通訳装置200は、4番の音声信号に対する現在の通訳過程で初期翻訳の過程により生成された結果及び出力に基づいて、データベース250にある1番の音声信号に対する格納された通訳結果、2番の音声信号に対する格納された通訳結果、3番の音声信号に対する格納された通訳結果から類似の情報要素を検索する。
1910:メモリ
1920:プロセッサ
1930:音声認識器
1940:翻訳機
1950:バス
Claims (35)
- 自動通訳装置により実施される自動通訳方法であって、前記自動通訳装置のプロセッサが、
第1特徴ベクトルを生成するために第1言語からなる音声信号を符号化するステップと、
第1言語文章を生成するために前記第1特徴ベクトルを復号化するステップと、
第2言語に対する第2特徴ベクトルを生成するために前記第1言語文章を符号化するステップと、
前記第2特徴ベクトルを復号化して第2言語文章を生成するステップと、
候補文章リストの生成を制御するステップであって、1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに格納された複数の要素から、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つに類似する要素を検索することにより、候補文章を取得し、取得した前記候補文章を前記候補文章リストに追加する、ステップと、
前記音声信号の翻訳として前記候補文章リストから最終第2言語文章を選択するステップと、
を含む、自動通訳方法。 - 前記候補文章リストの生成を制御するステップは、
データベースから前記第1特徴ベクトルに類似すると決定された第1言語特徴ベクトルにマッチングされた第1通訳結果を取得するステップと、
前記データベースから前記第1言語文章に類似すると決定された以前に認識された文章にマッチングされた第2通訳結果を取得するステップと、
前記データベースから前記第2特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第3通訳結果を取得するステップと、
前記データベースから前記第2言語文章に類似すると決定された以前の翻訳文章にマッチングされた第4通訳結果を取得するステップと、
のうちいずれか1つ又はその組合せを含む、請求項1に記載の自動通訳方法。 - 前記候補文章リストの生成を制御するステップは、前記第1通訳結果、前記第2通訳結果、前記第3通訳結果、及び前記第4通訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加するステップと、
前記第2言語文章を前記候補文章リストに追加するステップと、
をさらに含む、請求項2に記載の自動通訳方法。 - 前記第2通訳結果を取得するステップは、
前記第1言語文章をベクトルに変換するステップと、
前記変換されたベクトルに基づいて、前記データベースから複数の以前認識された文章のいずれかが前記第1言語文章に類似するかを決定するステップと、
を含む、請求項2又は3に記載の自動通訳方法。 - 前記第4通訳結果を取得するステップは、
前記第2言語文章をベクトルに変換するステップと、
前記変換されたベクトルに基づいて、前記データベースから複数の以前認識された文章のいずれかが前記第2言語文章に類似するかを決定するステップと、
を含む、請求項2乃至4のいずれか一項に記載の自動通訳方法。 - 前記最終第2言語文章を選択するステップは、
前記第2特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出するステップと、
前記候補文章リストから前記算出されたスコアのうち最高値を有する候補文章を前記最終第2言語文章として選択するステップと、
を含む、請求項1乃至5のいずれか一項に記載の自動通訳方法。 - 前記第1言語の音声信号を符号化するステップは、
予め決定されたフレームの長さに基づいて前記第1言語の音声信号をサンプリングするステップと、
フレームに対応する入力ベクトルそれぞれを生成するステップと、
音声認識のためのエンコーダに前記入力ベクトルそれぞれを順次入力するステップと、
前記順次入力された入力ベクトルそれぞれに対して前記第1特徴ベクトルが前記エンコーダからの出力されるように決定することによって前記第1特徴ベクトルを生成するステップと、
を含む、請求項1乃至6のいずれか一項に記載の自動通訳方法。 - 前記第1特徴ベクトルを復号化するステップは、前記第1特徴ベクトルを音声認識のためのデコーダに入力するステップと、
前記音声認識のためのデコーダから順次出力されるサブワードの確率に基づいて、予め決定された数の文章シーケンスを生成するステップと、
前記予め決定された数の文章シーケンスのうち、コアが最も高い文章シーケンスを前記第1言語文章として選択することで前記第1言語文章を生成するステップと、
を含む、請求項1乃至7のいずれか一項に記載の自動通訳方法。 - 前記第1言語文章を符号化するステップは、
前記第1言語文章を複数のサブワードに分割するステップと、
機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力するステップと、
前記順次入力された入力ベクトルそれぞれに対して前記第2特徴ベクトルが前記エンコーダからの出力されるように決定することで前記第2特徴ベクトルを生成するステップと、
を含む、請求項1乃至8のいずれか一項に記載の自動通訳方法。 - 前記第2言語文章を生成するステップは、
前記第2特徴ベクトルを機械翻訳のためのデコーダに入力するステップと、
前記機械翻訳のためのデコーダから順次出力されるサブワードの確率に基づいて、予め決定された数の文章シーケンスを生成するステップと、
前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択するステップと、
を含む、請求項1乃至9のいずれか一項に記載の自動通訳方法。 - ハードウェアと結合して請求項1乃至10のいずれか一項に記載の方法を実行させるためのコンピュータプログラム。
- 第1言語からなる音声信号を認識符号化して前記第1言語に対する第1特徴ベクトルを生成し、前記第1特徴ベクトルを復号化して第1言語文章を生成する音声認識器と、
前記第1言語からなる第1言語文章を翻訳符号化して第2言語に対する第2特徴ベクトルを生成し、前記第2特徴ベクトルを復号化して第2言語からなる第2言語文章を生成する翻訳機と、
1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに格納された複数の要素から、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つに類似する要素を検索することにより、候補文章を取得し、取得した前記候補文章を候補文章リストに追加し、前記候補文章リストから前記音声信号の翻訳として最終第2言語文章を選択するプロセッサと、
を含む、自動通訳装置。 - 前記音声認識器は、前記第1特徴ベクトルを生成するために前記音声信号の認識符号化を行う認識エンコーダ、及び前記第1言語文章を生成するために前記第1特徴ベクトルの復号化を行う認識デコーダを含み、
前記翻訳機は、前記第2特徴ベクトルを生成するために前記第1言語文章の翻訳符号化を行う翻訳エンコーダ、及び前記第2言語文章を生成するために前記第2特徴ベクトルの復号化を行う翻訳デコーダを含む、請求項12に記載の自動通訳装置。 - 前記プロセッサは、前記認識エンコーダ、前記認識デコーダ、前記翻訳エンコーダ及び前記翻訳デコーダをさらに含み、
前記認識エンコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記音声信号に基づいて前記第1特徴ベクトルを決定するニューラルネットワークを実現し、
前記認識デコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第1特徴ベクトルに基づいて前記第1言語文章を決定するニューラルネットワークを実現し、
前記翻訳エンコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第1言語文章に基づいて前記第2特徴ベクトルを決定するニューラルネットワークを実現し、
前記翻訳デコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第2特徴ベクトルに基づいて前記第2言語文章を決定するニューラルネットワークを実現する、請求項13に記載の自動通訳装置。 - 前記プロセッサは、データベースから前記第1特徴ベクトルに類似すると決定された第1言語特徴ベクトルにマッチングされた第1通訳結果、前記データベースから前記第1言語文章に類似すると決定された以前認識された文章にマッチングされた第2通訳結果、前記データベースから前記第2特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第3通訳結果、及び前記データベースから前記第2言語文章に類似すると決定された以前の翻訳文章にマッチングされた第4通訳結果のうちいずれか1つ又はその組合せを取得する、請求項12に記載の自動通訳装置。
- 前記プロセッサは、前記第1通訳結果、前記第2通訳結果、前記第3通訳結果、及び前記第4通訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加し、前記第2言語文章を前記候補文章リストに追加する、請求項15に記載の自動通訳装置。
- 前記プロセッサは、前記第1言語文章をベクトルに変換し、前記変換されたベクトルに基づいて前記データベースから複数の以前認識された文章のいずれかが前記第1言語文章に類似するかを決定する、請求項15又は16に記載の自動通訳装置。
- 前記プロセッサは、前記第2言語文章をベクトルに変換し、前記変換されたベクトルに基づいて前記データベースから複数の以前の翻訳文章のいずれかが前記第2言語文章に類似するかを決定する、請求項15乃至17のいずれか一項に記載の自動通訳装置。
- 前記翻訳機は、前記第2特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出し、
前記プロセッサは、前記候補文章リストから前記算出されたスコアのうち最高値を有する候補文章を前記最終第2言語文章として選択する、請求項12乃至18のいずれか一項に記載の自動通訳装置。 - 前記プロセッサは、予め決定されたフレームの長さに基づいて前記第1言語からなる音声信号をサンプリングし、フレームに対応する入力ベクトルそれぞれを生成し、音声認識のためのエンコーダに前記入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルそれぞれに対して前記第1特徴ベクトルが前記エンコーダからの出力されるように決定する、請求項12乃至19のいずれか一項に記載の自動通訳装置。
- 前記プロセッサは、前記第1特徴ベクトルを音声認識のためのデコーダに入力し、前記音声認識のためのデコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第1言語文章として選択する、請求項12乃至20のいずれか一項に記載の自動通訳装置。
- 前記プロセッサは、前記第1言語文章を複数のサブワードに分割し、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルに対して前記第2特徴ベクトルが前記エンコーダからの出力されるように決定する、請求項12乃至21のいずれか一項に記載の自動通訳装置。
- 前記プロセッサは、前記第2特徴ベクトルを機械翻訳のためのデコーダに入力し、前記機械翻訳のためのデコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択する、請求項12乃至22のいずれか一項に記載の自動通訳装置。
- 前記プロセッサは、前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルを前記データベースに格納し、
前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルに対応する前記第2言語文章及び前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納する、請求項12乃至23のいずれか一項に記載の自動通訳装置。 - 第1言語からなる第1言語文章を翻訳符号化して第2言語に対する特徴ベクトルを生成し、前記特徴ベクトルを復号化して第2言語からなる第2言語文章を生成する翻訳機と、
1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに格納された複数の要素から、前記特徴ベクトル及び前記第2言語文章のうちいずれか1つに類似する要素を検索することにより、候補文章を取得し、取得した前記候補文章を候補文章リストに追加し、前記候補文章リストから前記第1言語文章の翻訳として最終第2言語文章を選択するプロセッサと、
を含む、自動通訳システム。 - 前記第1言語からなる音声信号を認識符号化して生成された第1特徴ベクトルを復号化することによって前記第1言語文章を生成する音声認識器をさらに含む、請求項25に記載の自動通訳システム。
- データベースを含むメモリをさらに含み、
前記プロセッサは、前記データベースから、前記特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第1翻訳結果、前記データベースから前記第2言語文章に類似すると決定された文章にマッチングされた第2翻訳結果のうちいずれか1つ又はその組合せを取得する、請求項25又は26に記載の自動通訳システム。 - 前記プロセッサは、前記第1翻訳結果及び前記第2翻訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加し、前記第2言語文章を前記候補文章リストに追加する、請求項27に記載の自動通訳システム。
- 前記翻訳機は、前記特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出し、
前記プロセッサは、前記候補文章リストから前記算出されたスコアのうち最大値を有する候補文章が前記最終第2言語文章になるよう選択する、請求項25乃至28のいずれか一項に記載の自動通訳システム。 - 前記プロセッサは、前記第1言語文章を複数のサブワードに分割し、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルに対して前記特徴ベクトルが前記エンコーダからの出力されるように決定する、請求項25乃至29のいずれか一項に記載の自動通訳システム。
- 前記プロセッサは、前記特徴ベクトルを機械翻訳のためのデコーダに入力し、前記デコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択する、請求項25乃至30のいずれか一項に記載の自動通訳システム。
- 前記プロセッサは、前記データベースに格納された前記第1言語文章と共に前記特徴ベクトルを前記データベースに格納し、
前記第1言語文章及び前記特徴ベクトルに対応する前記第2言語文章と前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納する、請求項27に記載の自動通訳システム。 - 入力された音声信号の音声認識を行い、前記音声認識の認識結果に対する初期翻訳を行って、前記入力された音声信号の最終翻訳を決定するために前記初期翻訳の結果と選択された以前の翻訳の以前の結果とを比較する1つ以上のプロセッサを含み、
前記比較は、
前記選択された以前の翻訳を、1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに記録された複数の以前の翻訳から識別するための、前記音声認識から誘導された1つ以上の情報と前記初期翻訳から誘導された情報のうちの1つ以上の情報と前記データベースに格納された前記複数の以前の翻訳の結果に関する情報との間の比較を含む、自動通訳システム。 - 前記比較は、前記選択された以前の翻訳を識別するための、前記音声認識で誘導された第1特徴ベクトル、前記音声認識で誘導された第1言語文章、前記初期翻訳で誘導された第2特徴ベクトル、及び前記初期翻訳で誘導された第2言語文章のうちの1つ以上の情報と前記データベースに格納された情報との間の比較を含む、請求項33に記載の自動通訳システム。
- 前記1つ以上のプロセッサは同じモバイル装置に含まれる、請求項33又は34に記載の自動通訳システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160086036A KR102565274B1 (ko) | 2016-07-07 | 2016-07-07 | 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치 |
KR10-2016-0086036 | 2016-07-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005218A JP2018005218A (ja) | 2018-01-11 |
JP6923332B2 true JP6923332B2 (ja) | 2021-08-18 |
Family
ID=58191222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017058860A Active JP6923332B2 (ja) | 2016-07-07 | 2017-03-24 | 自動通訳方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10867136B2 (ja) |
EP (1) | EP3267328B1 (ja) |
JP (1) | JP6923332B2 (ja) |
KR (1) | KR102565274B1 (ja) |
CN (1) | CN107590135B (ja) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US10706351B2 (en) * | 2016-08-30 | 2020-07-07 | American Software Safety Reliability Company | Recurrent encoder and decoder |
JP6705506B2 (ja) * | 2016-10-04 | 2020-06-03 | 富士通株式会社 | 学習プログラム、情報処理装置および学習方法 |
WO2018083670A1 (en) * | 2016-11-04 | 2018-05-11 | Deepmind Technologies Limited | Sequence transduction neural networks |
EP3542360A4 (en) * | 2016-11-21 | 2020-04-29 | Microsoft Technology Licensing, LLC | METHOD AND DEVICE FOR AUTOMATIC SYNCHRONIZATION |
US11210328B2 (en) * | 2016-12-29 | 2021-12-28 | Ncsoft Corporation | Apparatus and method for learning narrative of document, and apparatus and method for generating narrative of document |
US11631026B2 (en) * | 2017-07-13 | 2023-04-18 | Meta Platforms, Inc. | Systems and methods for neural embedding translation |
CN108304388B (zh) * | 2017-09-12 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置 |
KR102509822B1 (ko) * | 2017-09-25 | 2023-03-14 | 삼성전자주식회사 | 문장 생성 방법 및 장치 |
US10552547B2 (en) * | 2017-10-10 | 2020-02-04 | International Business Machines Corporation | Real-time translation evaluation services for integrated development environments |
CN108509411B (zh) * | 2017-10-10 | 2021-05-11 | 腾讯科技(深圳)有限公司 | 语义分析方法和装置 |
KR102449875B1 (ko) | 2017-10-18 | 2022-09-30 | 삼성전자주식회사 | 음성 신호 번역 방법 및 그에 따른 전자 장치 |
CN111566656B (zh) * | 2018-01-11 | 2024-02-20 | 新智株式会社 | 利用多种语言文本语音合成模型的语音翻译方法及系统 |
KR102516363B1 (ko) * | 2018-01-26 | 2023-03-31 | 삼성전자주식회사 | 기계 번역 방법 및 장치 |
CN108197123A (zh) * | 2018-02-07 | 2018-06-22 | 云南衍那科技有限公司 | 一种基于智能手表的云翻译系统和方法 |
CN110134780B (zh) * | 2018-02-08 | 2023-11-24 | 株式会社理光 | 文档摘要的生成方法、装置、设备、计算机可读存储介质 |
GB201804073D0 (en) | 2018-03-14 | 2018-04-25 | Papercup Tech Limited | A speech processing system and a method of processing a speech signal |
CN108595443A (zh) * | 2018-03-30 | 2018-09-28 | 浙江吉利控股集团有限公司 | 同声翻译方法、装置、智能车载终端及存储介质 |
US11790185B2 (en) | 2018-05-23 | 2023-10-17 | Ntt Docomo, Inc. | Created text evaluation device |
US10664472B2 (en) * | 2018-06-27 | 2020-05-26 | Bitdefender IPR Management Ltd. | Systems and methods for translating natural language sentences into database queries |
CN108920472B (zh) * | 2018-07-04 | 2020-01-10 | 哈尔滨工业大学 | 一种基于深度学习的机器翻译系统的融合系统及方法 |
CN112889073A (zh) * | 2018-08-30 | 2021-06-01 | 谷歌有限责任公司 | 使用多语言神经机器翻译的跨语言分类 |
US20200193965A1 (en) * | 2018-12-13 | 2020-06-18 | Language Line Services, Inc. | Consistent audio generation configuration for a multi-modal language interpretation system |
CN115455988A (zh) * | 2018-12-29 | 2022-12-09 | 苏州七星天专利运营管理有限责任公司 | 一种高风险语句的处理方法和系统 |
US11361170B1 (en) * | 2019-01-18 | 2022-06-14 | Lilt, Inc. | Apparatus and method for accurate translation reviews and consistency across multiple translators |
US11106873B2 (en) * | 2019-01-22 | 2021-08-31 | Sap Se | Context-based translation retrieval via multilingual space |
CN110162604B (zh) * | 2019-01-24 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 语句生成方法、装置、设备及存储介质 |
CN109933809B (zh) * | 2019-03-15 | 2023-09-15 | 北京金山数字娱乐科技有限公司 | 一种翻译方法及装置、翻译模型的训练方法及装置 |
CN111783435B (zh) * | 2019-03-18 | 2024-06-25 | 株式会社理光 | 共享词汇的选择方法、装置及存储介质 |
CN113412515A (zh) * | 2019-05-02 | 2021-09-17 | 谷歌有限责任公司 | 适配自动化助理以用多种语言使用 |
JP7229347B2 (ja) * | 2019-05-07 | 2023-02-27 | 株式会社Nttドコモ | 内部状態変更装置 |
WO2020236710A1 (en) * | 2019-05-20 | 2020-11-26 | Black & Decker, Inc. | Speech-responsive construction tool |
CN110175338B (zh) * | 2019-05-31 | 2023-09-26 | 北京金山数字娱乐科技有限公司 | 一种数据处理方法及装置 |
KR102215581B1 (ko) * | 2019-06-03 | 2021-02-15 | 주식회사 한글과컴퓨터 | 사용자의 위치 정보에 의해 자동 지정된 타겟 언어를 기반으로 번역 문장 추천 기능을 제공하는 전자 단말 장치 및 그 동작 방법 |
CN110489762B (zh) * | 2019-06-26 | 2023-07-04 | 中译语通科技股份有限公司 | 基于神经网络机器翻译的术语翻译方法、存储介质和装置 |
CN110807335B (zh) * | 2019-09-02 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 基于机器学习的翻译方法、装置、设备及存储介质 |
KR20210060897A (ko) * | 2019-11-19 | 2021-05-27 | 삼성전자주식회사 | 음성 처리 방법 및 장치 |
US11392770B2 (en) * | 2019-12-11 | 2022-07-19 | Microsoft Technology Licensing, Llc | Sentence similarity scoring using neural network distillation |
CN111128191B (zh) * | 2019-12-31 | 2023-03-28 | 中国科学院声学研究所 | 一种在线端对端语音转写方法及系统 |
US11557284B2 (en) * | 2020-01-03 | 2023-01-17 | International Business Machines Corporation | Cognitive analysis for speech recognition using multi-language vector representations |
CN111476040A (zh) * | 2020-03-27 | 2020-07-31 | 深圳光启超材料技术有限公司 | 语言输出方法、头戴设备、存储介质及电子设备 |
US11586833B2 (en) * | 2020-06-12 | 2023-02-21 | Huawei Technologies Co., Ltd. | System and method for bi-directional translation using sum-product networks |
GB2596092A (en) * | 2020-06-17 | 2021-12-22 | Daimler Ag | A method for generating at least one alternative utterance to an initial utterance, as well as a semantic analyzer module |
EP4200717A2 (en) | 2020-08-24 | 2023-06-28 | Unlikely Artificial Intelligence Limited | A computer implemented method for the automated analysis or use of data |
WO2022130940A1 (ja) * | 2020-12-15 | 2022-06-23 | 株式会社Nttドコモ | 提示装置 |
US11989528B2 (en) * | 2020-12-30 | 2024-05-21 | Direct Cursus Technology L.L.C | Method and server for training a machine learning algorithm for executing translation |
CN113257239B (zh) * | 2021-06-15 | 2021-10-08 | 深圳市北科瑞声科技股份有限公司 | 语音识别方法、装置、电子设备及存储介质 |
US12067362B2 (en) | 2021-08-24 | 2024-08-20 | Unlikely Artificial Intelligence Limited | Computer implemented methods for the automated analysis or use of data, including use of a large language model |
US11989527B2 (en) | 2021-08-24 | 2024-05-21 | Unlikely Artificial Intelligence Limited | Computer implemented methods for the automated analysis or use of data, including use of a large language model |
US11977854B2 (en) | 2021-08-24 | 2024-05-07 | Unlikely Artificial Intelligence Limited | Computer implemented methods for the automated analysis or use of data, including use of a large language model |
US11989507B2 (en) | 2021-08-24 | 2024-05-21 | Unlikely Artificial Intelligence Limited | Computer implemented methods for the automated analysis or use of data, including use of a large language model |
US12073180B2 (en) | 2021-08-24 | 2024-08-27 | Unlikely Artificial Intelligence Limited | Computer implemented methods for the automated analysis or use of data, including use of a large language model |
US11900073B2 (en) * | 2021-09-07 | 2024-02-13 | Lilt, Inc. | Partial execution of translation in browser |
EP4332960A1 (en) * | 2021-10-15 | 2024-03-06 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
WO2023063746A1 (ko) * | 2021-10-15 | 2023-04-20 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102635031B1 (ko) * | 2023-09-27 | 2024-02-13 | 주식회사 에이아이노미스 | 의미 단위 시각화를 기반으로 한 화자 분리 실시간 통역 서비스 제공 방법, 장치 및 시스템 |
Family Cites Families (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01314373A (ja) | 1988-06-15 | 1989-12-19 | Hitachi Ltd | 機械翻訳システムにおける訳語選択方式 |
US6411928B2 (en) * | 1990-02-09 | 2002-06-25 | Sanyo Electric | Apparatus and method for recognizing voice with reduced sensitivity to ambient noise |
US5809461A (en) | 1992-03-30 | 1998-09-15 | Seiko Epson Corporation | Speech recognition apparatus using neural network and learning method therefor |
US6408272B1 (en) | 1999-04-12 | 2002-06-18 | General Magic, Inc. | Distributed voice user interface |
US7219058B1 (en) | 2000-10-13 | 2007-05-15 | At&T Corp. | System and method for processing speech recognition results |
US7343041B2 (en) | 2001-02-22 | 2008-03-11 | International Business Machines Corporation | Handwritten word recognition using nearest neighbor techniques that allow adaptive learning |
US7224981B2 (en) | 2002-06-20 | 2007-05-29 | Intel Corporation | Speech recognition of mobile devices |
TWI245259B (en) * | 2002-12-20 | 2005-12-11 | Ibm | Sensor based speech recognizer selection, adaptation and combination |
EP1576580B1 (en) | 2002-12-23 | 2012-02-08 | LOQUENDO SpA | Method of optimising the execution of a neural network in a speech recognition system through conditionally skipping a variable number of frames |
US20040148170A1 (en) * | 2003-01-23 | 2004-07-29 | Alejandro Acero | Statistical classifiers for spoken language understanding and command/control scenarios |
KR100542755B1 (ko) * | 2003-09-15 | 2006-01-20 | 한국전자통신연구원 | 규칙 기반 방식과 번역 패턴 방식을 혼합한 하이브리드자동 번역 장치 및 방법과 그 프로그램을 기록한 컴퓨터로읽을 수 있는 기록매체 |
JP2006053683A (ja) * | 2004-08-10 | 2006-02-23 | Advanced Telecommunication Research Institute International | 音声認識および機械翻訳装置 |
US20060271370A1 (en) | 2005-05-24 | 2006-11-30 | Li Qi P | Mobile two-way spoken language translator and noise reduction using multi-directional microphone arrays |
JP4756499B2 (ja) | 2005-08-19 | 2011-08-24 | 株式会社国際電気通信基礎技術研究所 | 音声認識結果の検査装置及びコンピュータプログラム |
WO2007098055A2 (en) | 2006-02-17 | 2007-08-30 | Google Inc. | Encoding and adaptive, scalable accessing of distributed models |
JP5011751B2 (ja) * | 2006-02-27 | 2012-08-29 | 富士通株式会社 | 訳語情報出力処理プログラム,処理方法および処理装置 |
JP2008032834A (ja) | 2006-07-26 | 2008-02-14 | Toshiba Corp | 音声翻訳装置及びその方法 |
JP4393494B2 (ja) * | 2006-09-22 | 2010-01-06 | 株式会社東芝 | 機械翻訳装置、機械翻訳方法および機械翻訳プログラム |
US8145473B2 (en) * | 2006-10-10 | 2012-03-27 | Abbyy Software Ltd. | Deep model statistics method for machine translation |
US8195447B2 (en) * | 2006-10-10 | 2012-06-05 | Abbyy Software Ltd. | Translating sentences between languages using language-independent semantic structures and ratings of syntactic constructions |
US20080133245A1 (en) * | 2006-12-04 | 2008-06-05 | Sehda, Inc. | Methods for speech-to-speech translation |
US20080154577A1 (en) | 2006-12-26 | 2008-06-26 | Sehda,Inc. | Chunk-based statistical machine translation system |
KR100853173B1 (ko) | 2007-01-22 | 2008-08-20 | 포항공과대학교 산학협력단 | 통계적 자동 번역 방식에 기반한 음성 자동 통역 시스템 및그에 적용되는 번역 처리 방법 및 그 훈련방법 |
US8799307B2 (en) * | 2007-05-16 | 2014-08-05 | Google Inc. | Cross-language information retrieval |
JP2008305167A (ja) * | 2007-06-07 | 2008-12-18 | Toshiba Corp | 原言語文を目的言語文に機械翻訳する装置、方法およびプログラム |
US9436759B2 (en) * | 2007-12-27 | 2016-09-06 | Nant Holdings Ip, Llc | Robust information extraction from utterances |
US8583416B2 (en) * | 2007-12-27 | 2013-11-12 | Fluential, Llc | Robust information extraction from utterances |
US8478578B2 (en) | 2008-01-09 | 2013-07-02 | Fluential, Llc | Mobile speech-to-speech interpretation system |
US8615388B2 (en) | 2008-03-28 | 2013-12-24 | Microsoft Corporation | Intra-language statistical machine translation |
US20100088096A1 (en) | 2008-10-02 | 2010-04-08 | Stephen John Parsons | Hand held speech recognition device |
KR101134467B1 (ko) | 2009-07-27 | 2012-04-13 | 한국전자통신연구원 | 의미 표현 처리 장치 및 그 방법 |
US20110046941A1 (en) | 2009-08-18 | 2011-02-24 | Manuel-Devados Johnson Smith Johnson | Advanced Natural Language Translation System |
US20110097693A1 (en) | 2009-10-28 | 2011-04-28 | Richard Henry Dana Crawford | Aligning chunk translations for language learners |
US8352243B2 (en) | 2010-05-18 | 2013-01-08 | Hai-Shan Jang | Multi-language translator for specific fields of knowledge |
JP5066242B2 (ja) * | 2010-09-29 | 2012-11-07 | 株式会社東芝 | 音声翻訳装置、方法、及びプログラム |
US8930194B2 (en) | 2011-01-07 | 2015-01-06 | Nuance Communications, Inc. | Configurable speech recognition system using multiple recognizers |
KR20120138273A (ko) * | 2011-06-14 | 2012-12-26 | 한국전자통신연구원 | 자동 통역 방법 및 이를 실행하는 장치 |
US8694303B2 (en) | 2011-06-15 | 2014-04-08 | Language Weaver, Inc. | Systems and methods for tuning parameters in statistical machine translation |
KR20130014106A (ko) * | 2011-07-29 | 2013-02-07 | 한국전자통신연구원 | 다중 번역 엔진을 사용한 번역 장치 및 방법 |
KR101449551B1 (ko) * | 2011-10-19 | 2014-10-14 | 한국전자통신연구원 | 유사문장 검색 장치 및 방법, 유사문장 검색 방법을 실행시키기 위한 프로그램이 기록된 기록매체 |
US20130103695A1 (en) * | 2011-10-21 | 2013-04-25 | Microsoft Corporation | Machine translation detection in web-scraped parallel corpora |
US8700552B2 (en) | 2011-11-28 | 2014-04-15 | Microsoft Corporation | Exploiting sparseness in training deep neural networks |
US8775177B1 (en) * | 2012-03-08 | 2014-07-08 | Google Inc. | Speech recognition process |
JP5967569B2 (ja) | 2012-07-09 | 2016-08-10 | 国立研究開発法人情報通信研究機構 | 音声処理システム |
US20150227505A1 (en) * | 2012-08-27 | 2015-08-13 | Hitachi, Ltd. | Word meaning relationship extraction device |
US9519858B2 (en) * | 2013-02-10 | 2016-12-13 | Microsoft Technology Licensing, Llc | Feature-augmented neural networks and applications of same |
US9606987B2 (en) * | 2013-05-06 | 2017-03-28 | Facebook, Inc. | Methods and systems for generation of a translatable sentence syntax in a social networking system |
JP2014235599A (ja) * | 2013-06-03 | 2014-12-15 | 独立行政法人情報通信研究機構 | 翻訳装置、学習装置、翻訳方法、およびプログラム |
KR102214178B1 (ko) | 2013-12-13 | 2021-02-10 | 한국전자통신연구원 | 자동 통역 장치 및 방법 |
JP2016057986A (ja) * | 2014-09-11 | 2016-04-21 | 株式会社東芝 | 音声翻訳装置、方法およびプログラム |
EP3210132A1 (en) * | 2014-10-24 | 2017-08-30 | Google, Inc. | Neural machine translation systems with rare word processing |
US9589355B2 (en) * | 2015-03-16 | 2017-03-07 | Here Global B.V. | Guided geometry extraction for localization of a device |
US9836457B2 (en) * | 2015-05-25 | 2017-12-05 | Panasonic Intellectual Property Corporation Of America | Machine translation method for performing translation between languages |
CN106383818A (zh) * | 2015-07-30 | 2017-02-08 | 阿里巴巴集团控股有限公司 | 一种机器翻译方法及装置 |
US10055489B2 (en) * | 2016-02-08 | 2018-08-21 | Ebay Inc. | System and method for content-based media analysis |
US9704257B1 (en) * | 2016-03-25 | 2017-07-11 | Mitsubishi Electric Research Laboratories, Inc. | System and method for semantic segmentation using Gaussian random field network |
US20180133245A1 (en) * | 2016-11-15 | 2018-05-17 | Tatiana Balazs-keithley | Impact of electrolytes on tumors and various diseases |
-
2016
- 2016-07-07 KR KR1020160086036A patent/KR102565274B1/ko active IP Right Grant
-
2017
- 2017-01-12 US US15/404,941 patent/US10867136B2/en active Active
- 2017-02-10 EP EP17155528.7A patent/EP3267328B1/en active Active
- 2017-03-24 JP JP2017058860A patent/JP6923332B2/ja active Active
- 2017-04-19 CN CN201710256367.3A patent/CN107590135B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR102565274B1 (ko) | 2023-08-09 |
JP2018005218A (ja) | 2018-01-11 |
CN107590135A (zh) | 2018-01-16 |
CN107590135B (zh) | 2024-01-05 |
KR20180005850A (ko) | 2018-01-17 |
EP3267328B1 (en) | 2024-01-10 |
US20180011843A1 (en) | 2018-01-11 |
EP3267328A1 (en) | 2018-01-10 |
US10867136B2 (en) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6923332B2 (ja) | 自動通訳方法及び装置 | |
JP7066349B2 (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
US11380330B2 (en) | Conversational recovery for voice user interface | |
JP7167074B2 (ja) | 音声認識方法、装置、機器及びコンピュータ可読記憶媒体 | |
US10388284B2 (en) | Speech recognition apparatus and method | |
CN107077841B (zh) | 用于文本到语音的超结构循环神经网络 | |
EP3032532B1 (en) | Disambiguating heteronyms in speech synthesis | |
US9761220B2 (en) | Language modeling based on spoken and unspeakable corpuses | |
CN111710333B (zh) | 用于生成语音转录的方法和系统 | |
US9805718B2 (en) | Clarifying natural language input using targeted questions | |
JP2020086437A (ja) | 音声認識方法及び音声認識装置 | |
US11093110B1 (en) | Messaging feedback mechanism | |
KR20190064181A (ko) | 언어 모델 학습 방법 및 이를 사용하는 장치 | |
JP2019075088A (ja) | 文章生成モデルのアップデート方法及び文章生成装置 | |
US10152298B1 (en) | Confidence estimation based on frequency | |
CN116343747A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN111508497B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
US11626107B1 (en) | Natural language processing | |
US11900072B1 (en) | Quick lookup for speech translation | |
Oyucu et al. | Web Service-Based Turkish Automatic Speech Recognition Platform | |
US11482214B1 (en) | Hypothesis generation and selection for inverse text normalization for search | |
US11798542B1 (en) | Systems and methods for integrating voice controls into applications | |
Moyal et al. | Keyword spotting methods | |
CN115410558A (zh) | 集外词处理方法、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6923332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |