JP7121106B2 - 構文線形性に基づく言語変換方法および装置 - Google Patents
構文線形性に基づく言語変換方法および装置 Download PDFInfo
- Publication number
- JP7121106B2 JP7121106B2 JP2020202351A JP2020202351A JP7121106B2 JP 7121106 B2 JP7121106 B2 JP 7121106B2 JP 2020202351 A JP2020202351 A JP 2020202351A JP 2020202351 A JP2020202351 A JP 2020202351A JP 7121106 B2 JP7121106 B2 JP 7121106B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- source
- character
- mask
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
本開示の第5の態様の実施例は、コンピュータプログラムであって、前記コンピュータプログラムが実行される場合、前記コンピュータに上記第1の態様の実施例に記載の構文線形性に基づく言語変換方法を実行させるコンピュータプログラムを提供する。
ソースセンテンスの始まり:L1=0、L2=4+length(dec)、L3=length(source)、
ソースセンテンスの途中:L1=length(dec)-5、L2=7、L3=length(source)-L1-L2、
ソースセンテンスの終わり:L1=length(source)-5、L2=5、L3=0。
ここで、length(source)は、ソースセンテンスに含まれるキャラクタの数を示し、length(dec)は、生成された目標言語キャラクタの数を示す。以上から分かるように、第1のキャラクタのソースセンテンスにおける位置、例えば、ソースセンテンスの始まり、途中、終わりに基づいて、対応するL1、L2、L3の値を取得する方式が決定され、具体的な値は、ソースセンテンスに含まれるキャラクタの数、および生成された目標言語キャラクタの数によって決定される。
ここで、Attention(q,k,v)はアテンション値であり、kはキーベクトルを表し、vは値ベクトルを表し、qは生成された目標言語キャラクタのベクトル、即ち第3のベクトルを表し、maskはマスクベクトルを表し、dは翻訳モデルの隠れ層の次元を表す。kが第1のベクトルを表す場合、vは第2のベクトルである。
アテンション値を復号して、第1のソースキャラクタに対応する目標キャラクタを決定するように構成される。
Claims (15)
- 予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するステップと、
予め設定されたルールに基づいて、前記エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定するステップと、
現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定するステップと、
予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するステップと、を含み、
前記マスクベクトルが[-c,-c,…,-c,0,0,…,0,-c,-c,…,-c]として表され、cは整数であり、要素0よりも前の-cの数がL 1 であり、連続する要素0の数がL 2 であり、要素0よりも後の-cの数がL 3 であり、L 1 +L 2 +L 3 =Lであり、Lが前記ソースセンテンスにおけるキャラクタの数であり、
前記予め設定されたエンコーダが、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを含み、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを用いてソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを得、
前記第1のベクトルがキーベクトルであり、第2のベクトルが値ベクトルであり、または、第1のベクトルが値ベクトルであり、第2のベクトルがキーベクトルであることを特徴とする、構文線形性に基づく言語変換方法。 - 予め設定されたルールに基づいて、現在のマスクベクトルを決定するステップは、
前記第1のソースキャラクタの前記ソースセンテンスにおける位置および前記ソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するステップを含むことを特徴とする、請求項1に記載の方法。 - 予め設定されたルールに基づいて、現在のマスクベクトルを決定するステップは、
前記第1のソースキャラクタの前記ソースセンテンスにおける位置、前記ソースセンテンスに含まれるキャラクタの数および生成された目標言語キャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するステップを含むことを特徴とする、請求項1に記載の方法。 - 予め設定されたルールに基づいて、現在のマスクベクトルを決定するステップは、
予め設定されたルールに基づいて、現在の少なくとも2セットのマスクベクトルを決定するステップを含み、
予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するステップは、
予め設定されたデコーダを用いて、前記少なくとも2セットのマスクベクトルをそれぞれ前記第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、前記第1のソースキャラクタに対応する少なくとも2つの目標言語キャラクタ候補を生成するステップと、
前記少なくとも2つの目標言語キャラクタ候補からアテンション値が最も高いキャラクタを選択して、前記第1のソースキャラクタに対応する目標キャラクタとするステップと、を含むことを特徴とする、請求項1に記載の方法。 - 予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するステップは、
前記第1のベクトルと前記第3のベクトルの転置ベクトルとのクロス積を求めて、クロス積ベクトルを生成するステップと、
前記マスクベクトルと前記クロス積ベクトルとを加算して、第4のベクトルを生成するステップと、
前記第4のベクトルおよび前記第2のベクトルに対してマルチヘッドアテンション計算を行って、前記第1のソースキャラクタに対応するアテンション値を生成するステップと、
前記アテンション値を復号して、前記第1のソースキャラクタに対応する目標キャラクタを決定するステップと、を含むことを特徴とする、請求項1に記載の方法。 - 変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するステップは、
前記変換対象ソースセンテンスに対してベクトルマッピングを行って、前記ソースセンテンスに対応するソースベクトルを決定するステップと、
前記ソースベクトルに対してマルチヘッドアテンション計算および線形変換処理を行って、前記ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成するステップと、を含むことを特徴とする、請求項1から5のいずれかに記載の方法。 - 予め設定されたエンコーダを用いて、変換対象ソースセンテンスを符号化して、前記ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを決定するように構成される第1の決定モジュールと、
予め設定されたルールに基づいて、前記エンコーダによって出力されたベクトルを修正するための現在のマスクベクトルを決定するように構成される第2の決定モジュールと、
現在の翻訳対象ソースキャラクタである第1のソースキャラクタより前にある各ソースキャラクタにそれぞれ対応する目標言語キャラクタに基づいて、第3のベクトルを決定するように構成される第3の決定モジュールと、
予め設定されたデコーダを用いて、前記第1のベクトル、第2のベクトル、マスクベクトルおよび第3のベクトルを復号して、前記第1のソースキャラクタに対応する目標キャラクタを生成するように構成される生成モジュールと、を含み、
前記マスクベクトルが[-c,-c,…,-c,0,0,…,0,-c,-c,…,-c]として表され、cは整数であり、要素0よりも前の-cの数がL 1 であり、連続する要素0の数がL 2 であり、要素0よりも後の-cの数がL 3 であり、L 1 +L 2 +L 3 =Lであり、Lが前記ソースセンテンスにおけるキャラクタの数であり、
前記予め設定されたエンコーダが、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを含み、マルチヘッドアテンション層およびフィードフォワードリバースネットワークを用いてソースセンテンスを符号化して、ソースセンテンスに対応する第1のベクトルおよび第2のベクトルを得、
前記第1のベクトルがキーベクトルであり、第2のベクトルが値ベクトルであり、または、第1のベクトルが値ベクトルであり、第2のベクトルがキーベクトルであることを特徴とする、構文線形性に基づく言語変換装置。 - 前記第2の決定モジュールは、具体的には、
前記第1のソースキャラクタの前記ソースセンテンスにおける位置および前記ソースセンテンスに含まれるキャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するように構成されることを特徴とする、請求項7に記載の装置。 - 前記第2の決定モジュールは、具体的には、前記第1のソースキャラクタの前記ソースセンテンスにおける位置、前記ソースセンテンスに含まれるキャラクタの数および生成された目標言語キャラクタの数に基づいて、現在のマスクベクトル内の各値要素の数を決定するように構成されることを特徴とする、請求項7に記載の装置。
- 前記第2の決定モジュールは、具体的には、
予め設定されたルールに基づいて、現在の少なくとも2セットのマスクベクトルを決定するように構成され、
前記生成モジュールは、具体的には、
予め設定されたデコーダを用いて、前記少なくとも2セットのマスクベクトルをそれぞれ前記第1のベクトル、第2のベクトル、および第3のベクトルとともに復号して、前記第1のソースキャラクタに対応する少なくとも2つの目標言語キャラクタ候補を生成し、
前記少なくとも2つの目標言語キャラクタ候補からアテンション値が最も高いキャラクタを選択して、前記第1のソースキャラクタに対応する目標キャラクタとするように構成されることを特徴とする、請求項7に記載の装置。 - 前記生成モジュールは、具体的には、
前記第1のベクトルと前記第3のベクトルの転置ベクトルとのクロス積を求めて、クロス積ベクトルを生成し、
前記マスクベクトルと前記クロス積ベクトルとを加算して、第4のベクトルを生成し、
前記第4のベクトルおよび前記第2のベクトルに対してマルチヘッドアテンション計算を行って、前記第1のソースキャラクタに対応するアテンション値を生成し、
前記アテンション値を復号して、前記第1のソースキャラクタに対応する目標キャラクタを決定するように構成されることを特徴とする、請求項7に記載の装置。 - 前記第1の決定モジュールは、具体的には、
前記変換対象ソースセンテンスに対してベクトルマッピングを行って、前記ソースセンテンスに対応するソースベクトルを決定し、
前記ソースベクトルに対してマルチヘッドアテンション計算および線形変換処理を行って、前記ソースベクトルに対応する第1のベクトルおよび第2のベクトルを生成するように構成されることを特徴とする、請求項7から11のいずれかに記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が、前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが請求項1から6のいずれかに記載の構文線形性に基づく言語変換方法を実行可能であることを特徴とする、電子機器。 - コンピュータ命令を格納する非一時的コンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令が実行される場合、前記コンピュータに請求項1から6のいずれかに記載の構文線形性に基づく言語変換方法を実行させることを特徴とする、非一時的コンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムが実行される場合、前記コンピュータに請求項1から6のいずれかに記載の構文線形性に基づく言語変換方法を実行させることを特徴とする、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911324032.6 | 2019-12-20 | ||
CN201911324032.6A CN111079450B (zh) | 2019-12-20 | 2019-12-20 | 基于顺句驱动的语言转换方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021099797A JP2021099797A (ja) | 2021-07-01 |
JP7121106B2 true JP7121106B2 (ja) | 2022-08-17 |
Family
ID=70316147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020202351A Active JP7121106B2 (ja) | 2019-12-20 | 2020-12-07 | 構文線形性に基づく言語変換方法および装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11409968B2 (ja) |
JP (1) | JP7121106B2 (ja) |
CN (1) | CN111079450B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113553864B (zh) * | 2021-06-30 | 2023-04-07 | 北京百度网讯科技有限公司 | 翻译模型的训练方法、装置、电子设备及存储介质 |
CN114580445B (zh) * | 2022-03-10 | 2023-03-10 | 昆明理工大学 | 基于领域感知的掩码子结构的多领域自适应神经机器翻译方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026127A (ja) | 2016-08-10 | 2018-02-15 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 翻訳方法、翻訳装置及びコンピュータプログラム |
US20180341860A1 (en) | 2017-05-23 | 2018-11-29 | Google Llc | Attention-based sequence transduction neural networks |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105159889B (zh) * | 2014-06-16 | 2017-09-15 | 吕海港 | 一种生成英汉机器翻译的中介汉语语言模型的翻译方法 |
US9836457B2 (en) * | 2015-05-25 | 2017-12-05 | Panasonic Intellectual Property Corporation Of America | Machine translation method for performing translation between languages |
CN106126507B (zh) * | 2016-06-22 | 2019-08-09 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
US11080591B2 (en) * | 2016-09-06 | 2021-08-03 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
KR102359216B1 (ko) * | 2016-10-26 | 2022-02-07 | 딥마인드 테크놀로지스 리미티드 | 신경망을 이용한 텍스트 시퀀스 처리 |
KR20180062003A (ko) * | 2016-11-30 | 2018-06-08 | 한국전자통신연구원 | 음성 인식 오류 교정 방법 |
KR102637338B1 (ko) * | 2017-01-26 | 2024-02-16 | 삼성전자주식회사 | 번역 보정 방법 및 장치와 번역 시스템 |
KR20190019748A (ko) * | 2017-08-18 | 2019-02-27 | 삼성전자주식회사 | 자연어 생성 방법 및 장치 |
CN108304388B (zh) * | 2017-09-12 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置 |
CN110147554B (zh) * | 2018-08-24 | 2023-08-22 | 腾讯科技(深圳)有限公司 | 同声翻译方法、装置和计算机设备 |
CN111428516B (zh) * | 2018-11-19 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 一种信息处理的方法以及装置 |
CN109558597B (zh) * | 2018-12-17 | 2022-05-24 | 北京百度网讯科技有限公司 | 文本翻译方法及装置、设备及存储介质 |
CN110211570B (zh) * | 2019-05-20 | 2021-06-25 | 北京百度网讯科技有限公司 | 同声传译处理方法、装置及设备 |
CN110196894B (zh) * | 2019-05-30 | 2021-06-08 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110210043B (zh) * | 2019-06-14 | 2024-01-26 | 科大讯飞股份有限公司 | 文本翻译方法、装置、电子设备及可读存储介质 |
CN110516065A (zh) * | 2019-07-12 | 2019-11-29 | 杭州电子科技大学 | 一种基于多路动态掩码的注意力神经网络的方法 |
KR20210043995A (ko) * | 2019-10-14 | 2021-04-22 | 삼성전자주식회사 | 모델 학습 방법 및 장치, 및 시퀀스 인식 방법 |
US20210133535A1 (en) * | 2019-11-04 | 2021-05-06 | Oracle International Corporation | Parameter sharing decoder pair for auto composing |
-
2019
- 2019-12-20 CN CN201911324032.6A patent/CN111079450B/zh active Active
-
2020
- 2020-07-10 US US16/926,197 patent/US11409968B2/en active Active
- 2020-12-07 JP JP2020202351A patent/JP7121106B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026127A (ja) | 2016-08-10 | 2018-02-15 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 翻訳方法、翻訳装置及びコンピュータプログラム |
US20180046618A1 (en) | 2016-08-10 | 2018-02-15 | Samsung Electronics Co., Ltd. | Parallel processing-based translation method and apparatus |
CN107729324A (zh) | 2016-08-10 | 2018-02-23 | 三星电子株式会社 | 基于并行处理的翻译方法和设备 |
US20180341860A1 (en) | 2017-05-23 | 2018-11-29 | Google Llc | Attention-based sequence transduction neural networks |
CN110192206A (zh) | 2017-05-23 | 2019-08-30 | 谷歌有限责任公司 | 基于注意力的序列转换神经网络 |
JP2020506466A (ja) | 2017-05-23 | 2020-02-27 | グーグル エルエルシー | アテンションベースのシーケンス変換ニューラルネットワーク |
Non-Patent Citations (3)
Title |
---|
二又 航介 外2名,スタイル変換技術による対訳コーパスから同時通訳コーパスへの拡張,情報処理学会 研究報告 自然言語処理(NL) 2019-NL-241 [online],情報処理学会,2019年08月22日,pp.1-9,https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=198862&file_id=1&file_no=1 |
帖佐 克己 外2名,英日同時通訳におけるニューラル機械翻訳の検討,言語処理学会第25回年次大会 発表論文集 [online],言語処理学会,2019年03月04日,pp.534-537,http://www.anlp.jp/proceedings/annual_meeting/2019/pdf_dir/P3-6.pdf |
須藤 克仁,ニューラル機械翻訳の進展 -系列変換モデルの進化とその応用-,人工知能,(一社)人工知能学会,2019年07月01日, 第34巻 第4号,pp.437-445 |
Also Published As
Publication number | Publication date |
---|---|
CN111079450A (zh) | 2020-04-28 |
CN111079450B (zh) | 2021-01-22 |
US11409968B2 (en) | 2022-08-09 |
US20210192150A1 (en) | 2021-06-24 |
JP2021099797A (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7259197B2 (ja) | モデルトレーニング方法、音声合成方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
US11403468B2 (en) | Method and apparatus for generating vector representation of text, and related computer device | |
US11417314B2 (en) | Speech synthesis method, speech synthesis device, and electronic apparatus | |
KR102538467B1 (ko) | 모델의 증류 방법, 장치, 전자기기 및 저장매체 | |
JP7121106B2 (ja) | 構文線形性に基づく言語変換方法および装置 | |
KR102441475B1 (ko) | 질문 분석 방법, 장치, 지식 기반 질문 응답 시스템 및 전자 기기 | |
JP7149993B2 (ja) | 感情分析モデルの事前トレーニング方法、装置及び電子機器 | |
JP7044839B2 (ja) | エンドツーエンドモデルのトレーニング方法および装置 | |
EP3971761A1 (en) | Method and apparatus for generating summary, electronic device and storage medium thereof | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
US20210133396A1 (en) | Prosodic pause prediction method, prosodic pause prediction device and electronic device | |
JP7167106B2 (ja) | 口形特徴予測方法、装置及び電子機器 | |
JP7395553B2 (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
KR20210156202A (ko) | 기계 번역에서 모델 트레이닝 방법, 장치, 전자 기기 및 기록 매체 | |
WO2021184769A1 (zh) | 神经网络文本翻译模型的运行方法、装置、设备、及介质 | |
KR20210127613A (ko) | 대화 생성 방법, 장치, 전자 기기 및 기록 매체 | |
KR20210080150A (ko) | 번역 방법, 장치, 전자 기기 및 판독 가능 저장 매체 | |
JP7121791B2 (ja) | 言語生成方法、装置及び電子機器 | |
JP7201654B2 (ja) | 意味表現に基づくテキスト生成方法、意味表現に基づくテキスト生成装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム | |
KR102531507B1 (ko) | 정보 출력 방법, 장치, 기기 및 저장 매체 | |
KR20220061060A (ko) | 데이터 처리 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체 | |
KR20210040318A (ko) | 유사도 처리 방법, 장치, 서버, 저장 매체 및 컴퓨터 프로그램 | |
JP2021108140A (ja) | 情報抽出方法、情報抽出装置及び電子機器 | |
CN115952790A (zh) | 信息抽取方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7121106 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |