JP7179216B1 - 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 - Google Patents
声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 Download PDFInfo
- Publication number
- JP7179216B1 JP7179216B1 JP2022121366A JP2022121366A JP7179216B1 JP 7179216 B1 JP7179216 B1 JP 7179216B1 JP 2022121366 A JP2022121366 A JP 2022121366A JP 2022121366 A JP2022121366 A JP 2022121366A JP 7179216 B1 JP7179216 B1 JP 7179216B1
- Authority
- JP
- Japan
- Prior art keywords
- latent
- latent expression
- conversion
- expression
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 173
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 title claims description 16
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000014509 gene expression Effects 0.000 claims abstract description 158
- 230000001131 transforming effect Effects 0.000 claims abstract description 9
- 239000000284 extract Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
図1を参照し、第1の実施形態の声質変換装置1の構成の一例について説明する。同図に示す声質変換装置1は、入力部11、変換部12、および学習部13を備える。声質変換装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは声質変換装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリなどの記録媒体に記録することも、ネットワークを通して提供することも可能である。
図2を参照し、第1の実施形態のニューラルネットワークの一例と学習の一例について説明する。同図に示すニューラルネットワーク100は、エンコーダ110、フロー120、ボコーダ130、およびテキストエンコーダ140を備える。
図3を参照し、声質変換時の処理の流れについて説明する。
第2の実施形態の声質変換装置は、第1の実施形態のニューラルネットワーク100を追加学習し、任意の話者の音声を声質変換する。第1の実施形態は、多対多で声質変換する声質変換装置である。第2の実施形態では、第1の実施形態のニューラルネットワークを生成後、話者によらない潜在表現を正解の話者情報なしで得られることをタクスとする学習を行う。第2の実施形態の声質変換装置の構成は第1の実施形態と同様であるので、ここでの説明は省略する。
図4を参照し、第2の実施形態のニューラルネットワークの一例と学習方法の一例について説明する。同図に示すニューラルネットワーク100は、エンコーダ110、フロー120、ボコーダ130、およびany用エンコーダ150を備える。エンコーダ110、フロー120、およびボコーダ130は、第1の実施形態で学習済みのものを利用する。第2の実施形態の学習時にはテキストエンコーダ140は必要ない。
図5を参照し、第2の実施形態の声質変換時の処理の流れについて説明する。
図6を参照し、第2の実施形態のニューラルネットワークの別の学習方法の一例について説明する。図6のニューラルネットワークの構成は図4のニューラルネットワークの構成と同じである。
11 入力部
12 変換部
13 学習部
100 ニューラルネットワーク
110 エンコーダ
120 フロー
130 ボコーダ
140 テキストエンコーダ
150 any用エンコーダ
Claims (15)
- 変換元の音声データと声質変換時に操作したいメタ情報を入力する入力部と、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換する変換部を備え、
前記ニューラルネットワークは、音声データを入力し、当該音声データから特徴を抽出して第1の潜在表現を出力するエンコーダと、前記第1の潜在表現を前記音声データに含まれる発声の仕方の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現に変換し、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備える
声質変換装置。 - 変換元の音声データと声質変換時に操作したいメタ情報を入力する入力部と、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換する変換部と、
前記ニューラルネットワークを学習する学習部を備え、
前記ニューラルネットワークは、音声データを入力し、当該音声データから特徴を抽出して第1の潜在表現を出力するエンコーダと、前記第1の潜在表現を前記音声データに含まれる所定の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現に変換し、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備え、
前記学習部は、学習用音声データを前記エンコーダに入力するとともに、前記学習用音声データの音韻情報と前記学習用音声データに含まれる所定の特徴を示すコンディションをテキストエンコーダに入力し、前記エンコーダが出力する第1の潜在表現を前記デコーダが元の学習用音声データに復元できるように、かつ、前記第1の潜在表現を前記フローで変換して得られる第2の潜在表現と、前記テキストエンコーダの出力する表現とが近くなるように前記ニューラルネットワークを学習する
声質変換装置。 - 変換元の音声データと声質変換時に操作したいメタ情報を入力する入力部と、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換する変換部を備え、
前記ニューラルネットワークは、音声データを入力し、当該音声データに含まれる発声の仕方の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現を出力する第2のエンコーダと、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備える
声質変換装置。 - 変換元の音声データと声質変換時に操作したいメタ情報を入力する入力部と、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換する変換部と、
前記ニューラルネットワークを学習する学習部を備え、
前記ニューラルネットワークは、音声データを入力し、当該音声データに含まれる所定の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現を出力する第2のエンコーダと、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備え、
前記学習部は、学習用音声データをエンコーダに入力するとともに、前記学習用音声データの音韻情報と前記学習用音声データに含まれる所定の特徴を示すコンディションをテキストエンコーダに入力し、前記エンコーダが出力する第1の潜在表現を前記デコーダが元の学習用音声データに復元できるように、かつ、前記第1の潜在表現を前記フローで変換して得られる潜在表現と前記テキストエンコーダの出力する表現とが近くなるように前記ニューラルネットワークを学習した後、
学習用音声データを前記エンコーダに入力するとともに、前記学習用音声データを前記第2のエンコーダに入力し、前記エンコーダの出力する第1の潜在表現を前記フローで変換して得られる潜在表現と前記第2のエンコーダの出力する第2の潜在表現とが近くなるように前記ニューラルネットワークを学習する
声質変換装置。 - 請求項4に記載の声質変換装置であって、
前記学習部は、前記第1の潜在表現を前記フローで変換後に逆変換して得られる潜在表現と前記第2の潜在表現を前記フローで逆変換して得られる第3の潜在表現とが近くなるように前記ニューラルネットワークを学習する
声質変換装置。 - 請求項1ないし5のいずれかに記載の声質変換装置であって、
前記メタ情報は話者を特定する話者情報である
声質変換装置。 - コンピュータが、
変換元の音声データと声質変換時に操作したいメタ情報を入力し、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換し、
前記ニューラルネットワークは、音声データを入力し、当該音声データから特徴を抽出して第1の潜在表現を出力するエンコーダと、前記第1の潜在表現を前記音声データに含まれる発声の仕方の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現に変換し、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備える
声質変換方法。 - コンピュータが、
変換元の音声データと声質変換時に操作したいメタ情報を入力し、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換し、
前記ニューラルネットワークは、音声データを入力し、当該音声データから特徴を抽出して第1の潜在表現を出力するエンコーダと、前記第1の潜在表現を前記音声データに含まれる所定の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現に変換し、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備え、
コンピュータが、
学習用音声データを前記エンコーダに入力するとともに、前記学習用音声データの音韻情報と前記学習用音声データに含まれる所定の特徴を示すコンディションをテキストエンコーダに入力し、前記エンコーダが出力する第1の潜在表現を前記デコーダが元の学習用音声データに復元できるように、かつ、前記第1の潜在表現を前記フローで変換して得られる第2の潜在表現と、前記テキストエンコーダの出力する表現とが近くなるように前記ニューラルネットワークを学習する
声質変換方法。 - コンピュータが、
変換元の音声データと声質変換時に操作したいメタ情報を入力し、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換し、
前記ニューラルネットワークは、音声データを入力し、当該音声データに含まれる発声の仕方の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現を出力する第2のエンコーダと、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備える
声質変換方法。 - コンピュータが、
変換元の音声データと声質変換時に操作したいメタ情報を入力し、
学習済みのニューラルネットワークを利用して、前記変換元の音声データを前記メタ情報に応じた音声データに声質変換し、
前記ニューラルネットワークは、音声データを入力し、当該音声データに含まれる所定の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現を出力する第2のエンコーダと、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備え、
コンピュータが、
学習用音声データをエンコーダに入力するとともに、前記学習用音声データの音韻情報と前記学習用音声データに含まれる所定の特徴を示すコンディションをテキストエンコーダに入力し、前記エンコーダが出力する第1の潜在表現を前記デコーダが元の学習用音声データに復元できるように、かつ、前記第1の潜在表現を前記フローで変換して得られる潜在表現と前記テキストエンコーダの出力する表現とが近くなるように前記ニューラルネットワークを学習した後、
学習用音声データを前記エンコーダに入力するとともに、前記学習用音声データを前記第2のエンコーダに入力し、前記エンコーダの出力する第1の潜在表現を前記フローで変換して得られる潜在表現と前記第2のエンコーダの出力する第2の潜在表現とが近くなるように前記ニューラルネットワークを学習する
声質変換方法。 - 請求項10に記載の声質変換方法であって、
コンピュータが、
前記第1の潜在表現を前記フローで変換後に逆変換して得られる潜在表現と前記第2の潜在表現を前記フローで逆変換して得られる第3の潜在表現とが近くなるように前記ニューラルネットワークを学習する
声質変換方法。 - 音声データと声質変換時に操作したいメタ情報を入力して前記メタ情報に応じた音声データに声質変換するニューラルネットワークであって、
音声データを入力し、当該音声データから特徴を抽出して第1の潜在表現を出力するエンコーダと、前記第1の潜在表現を前記音声データに含まれる発声の仕方の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現に変換し、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備える
ニューラルネットワーク。 - 音声データと声質変換時に操作したいメタ情報を入力して前記メタ情報に応じた音声データに声質変換するニューラルネットワークであって、
音声データを入力し、当該音声データに含まれる発声の仕方の特徴を残しつつ前記メタ情報に対応する特徴を取り除いた第2の潜在表現を出力する第2のエンコーダと、前記第2の潜在表現に変換先のメタ情報に対応する特徴を付加して第3の潜在表現に逆変換するフローと、前記第3の潜在表現を入力して変換先の音声データを出力するデコーダを備える
ニューラルネットワーク。 - 請求項1ないし5のいずれかに記載の声質変換装置の各部としてコンピュータを動作させるプログラム。
- 請求項1ないし5のいずれかに記載の声質変換装置の各部としてコンピュータを動作させるプログラムを記録した記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022121366A JP7179216B1 (ja) | 2022-07-29 | 2022-07-29 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
JP2022181983A JP2024018852A (ja) | 2022-07-29 | 2022-11-14 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
PCT/JP2023/027485 WO2024024872A1 (ja) | 2022-07-29 | 2023-07-27 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022121366A JP7179216B1 (ja) | 2022-07-29 | 2022-07-29 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022181983A Division JP2024018852A (ja) | 2022-07-29 | 2022-11-14 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7179216B1 true JP7179216B1 (ja) | 2022-11-28 |
JP2024018197A JP2024018197A (ja) | 2024-02-08 |
Family
ID=84227631
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022121366A Active JP7179216B1 (ja) | 2022-07-29 | 2022-07-29 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
JP2022181983A Pending JP2024018852A (ja) | 2022-07-29 | 2022-11-14 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022181983A Pending JP2024018852A (ja) | 2022-07-29 | 2022-11-14 | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7179216B1 (ja) |
WO (1) | WO2024024872A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019163849A1 (ja) | 2018-02-20 | 2019-08-29 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
WO2019240228A1 (ja) | 2018-06-14 | 2019-12-19 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
US20200365166A1 (en) | 2019-05-14 | 2020-11-19 | International Business Machines Corporation | High-quality non-parallel many-to-many voice conversion |
WO2021085311A1 (ja) | 2019-10-31 | 2021-05-06 | グリー株式会社 | コンピュータプログラム、サーバ装置、端末装置、学習済みモデル、プログラム生成方法、及び方法 |
JP7069386B1 (ja) | 2021-06-30 | 2022-05-17 | 株式会社ドワンゴ | 音声変換装置、音声変換方法、プログラム、および記録媒体 |
US20220157329A1 (en) | 2020-11-18 | 2022-05-19 | Minds Lab Inc. | Method of converting voice feature of voice |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102199050B1 (ko) * | 2018-01-11 | 2021-01-06 | 네오사피엔스 주식회사 | 다중 언어 텍스트-음성 합성 모델을 이용한 음성 번역 방법 및 시스템 |
-
2022
- 2022-07-29 JP JP2022121366A patent/JP7179216B1/ja active Active
- 2022-11-14 JP JP2022181983A patent/JP2024018852A/ja active Pending
-
2023
- 2023-07-27 WO PCT/JP2023/027485 patent/WO2024024872A1/ja unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019163849A1 (ja) | 2018-02-20 | 2019-08-29 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
WO2019240228A1 (ja) | 2018-06-14 | 2019-12-19 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
US20200365166A1 (en) | 2019-05-14 | 2020-11-19 | International Business Machines Corporation | High-quality non-parallel many-to-many voice conversion |
WO2021085311A1 (ja) | 2019-10-31 | 2021-05-06 | グリー株式会社 | コンピュータプログラム、サーバ装置、端末装置、学習済みモデル、プログラム生成方法、及び方法 |
US20220157329A1 (en) | 2020-11-18 | 2022-05-19 | Minds Lab Inc. | Method of converting voice feature of voice |
JP7069386B1 (ja) | 2021-06-30 | 2022-05-17 | 株式会社ドワンゴ | 音声変換装置、音声変換方法、プログラム、および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2024018197A (ja) | 2024-02-08 |
JP2024018852A (ja) | 2024-02-08 |
WO2024024872A1 (ja) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6989951B2 (ja) | スピーチチェイン装置、コンピュータプログラムおよびdnn音声認識・合成相互学習方法 | |
JP7436709B2 (ja) | 非発話テキストおよび音声合成を使う音声認識 | |
JP2885372B2 (ja) | 音声符号化方法 | |
US8447606B2 (en) | Method and system for creating or updating entries in a speech recognition lexicon | |
JP6846237B2 (ja) | 音声合成装置及びプログラム | |
Cotescu et al. | Voice conversion for whispered speech synthesis | |
JP2002304190A (ja) | 発音変化形生成方法及び音声認識方法 | |
KR20200092505A (ko) | 심층 합성곱 신경망 인공지능을 기반으로 한 미세조정을 통해 소량의 샘플로 화자 적합된 음성합성 모델을 생성하는 방법 | |
JP2023539888A (ja) | 声変換および音声認識モデルを使用した合成データ拡大 | |
US11062692B2 (en) | Generation of audio including emotionally expressive synthesized content | |
CN111223474A (zh) | 一种基于多神经网络的语音克隆方法和系统 | |
WO2016172871A1 (zh) | 基于循环神经网络的语音合成方法 | |
US6546369B1 (en) | Text-based speech synthesis method containing synthetic speech comparisons and updates | |
KR20230133362A (ko) | 다양하고 자연스러운 텍스트 스피치 변환 샘플들 생성 | |
CN112530400A (zh) | 基于深度学习的文本生成语音的方法、系统、装置及介质 | |
Wang et al. | Speech augmentation using wavenet in speech recognition | |
US11361780B2 (en) | Real-time speech-to-speech generation (RSSG) apparatus, method and a system therefore | |
US20240169973A1 (en) | Method and device for speech synthesis based on multi-speaker training data sets | |
Kons et al. | Neural TTS voice conversion | |
CN113470622A (zh) | 一种可将任意语音转换成多个语音的转换方法及装置 | |
JP7179216B1 (ja) | 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体 | |
JP7339151B2 (ja) | 音声合成装置、音声合成プログラム及び音声合成方法 | |
JP6538944B2 (ja) | 発話リズム変換装置、方法及びプログラム | |
Charfuelan et al. | MARY TTS unit selection and HMM-based voices for the Blizzard Challenge 2013 | |
JP2018205654A (ja) | 音声合成学習装置、音声合成装置、これらの方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220729 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7179216 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |