JP7173379B2 - 話者認識システムおよびその使用方法 - Google Patents
話者認識システムおよびその使用方法 Download PDFInfo
- Publication number
- JP7173379B2 JP7173379B2 JP2021569717A JP2021569717A JP7173379B2 JP 7173379 B2 JP7173379 B2 JP 7173379B2 JP 2021569717 A JP2021569717 A JP 2021569717A JP 2021569717 A JP2021569717 A JP 2021569717A JP 7173379 B2 JP7173379 B2 JP 7173379B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- frame
- frames
- features
- recognition system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000013528 artificial neural network Methods 0.000 claims description 166
- 238000009826 distribution Methods 0.000 claims description 68
- 238000012549 training Methods 0.000 claims description 47
- 238000011176 pooling Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 description 38
- 239000013598 vector Substances 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Telephonic Communication Services (AREA)
Description
M=μ+Tx
ここで、スーパーベクトルMは、すべてのMcを連結することによって生成され、
DNNベースの方法では、平均プーリング層がすべてのフレームに同じ重要度を与える。
命令を格納するように構成された非一時的コンピュータ可読媒体と、
前記非一時的コンピュータ可読媒体に接続されたプロセッサであって、
入力音声データ内の複数のフレームの各フレームから音響特徴を抽出し、
前記抽出された音響特徴に基づいて、話者事後分布を使用して訓練されたニューラルネットワーク(NN)である第1のNNNNを使用して前記複数のフレームのフレームごとの顕著性値を計算し、
前記複数のフレームのフレームごとの前記顕著性値を使用して話者特徴を抽出する
ための前記命令を実行するように構成されるプロセッサと
を含む、話者認識システム。
前記プロセッサが、前記複数のフレームのフレームごとの前記顕著性値を使用して実施される重み付けプーリングプロセスを使用して前記話者特徴を抽出するための前記命令を実行するように構成される、付記1に記載の話者認識システム。
前記プロセッサが、前記話者事後分布を使用して前記第1のNNを訓練するための前記命令を実行するように構成される、付記1に記載の話者認識システム。
前記プロセッサが、訓練データおよび話者識別情報を使用して前記話者事後分布を生成するための前記命令を実行するように構成される、付記3に記載の話者認識システム。
前記プロセッサが、前記抽出された音響特徴に基づく前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づいて前記複数のフレームのフレームごとの前記顕著性値を計算するための前記命令を実行するように構成される、付記1に記載の話者認識システム。
前記プロセッサが、前記第1のNNの第1のノードおよび前記第1のNNの第2のノードを使用して前記複数のフレームのフレームごとの前記顕著性値を計算するための前記命令を実行するように構成され、前記第1のノードで出力される前記複数のフレームの第1のフレームは、前記第2のノードで出力される前記複数のフレームの第2のフレームよりも前記第1のフレームがより有用な情報を有することを示す、付記1に記載の話者認識システム。
前記プロセッサが、前記抽出された音響特徴に基づく前記第1のNNの前記第1のノードで出力される前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づいて前記複数のフレームのフレームごとの前記顕著性値を計算するための前記命令を実行するように構成される、付記6に記載の話者認識システム。
前記プロセッサが、前記抽出された話者特徴に基づいて前記入力音声データの話者の識別を出力するための前記命令を実行するように構成される、付記1に記載の話者認識システム。
前記プロセッサが、前記抽出された話者特徴に基づいて、前記入力音声データの話者を格納された話者識別にマッチングするための前記命令を実行するように構成される、付記1に記載の話者認識システム。
前記プロセッサが、前記抽出された話者特徴が正規ユーザと一致することに応答してコンピュータシステムへのアクセスを許可するための前記命令を実行するように構成される、付記1に記載の話者認識システム。
入力音声データを受け取り、
前記入力音声データ内の複数のフレームの各フレームから音響特徴を抽出し、
前記抽出された音響特徴に基づいて、話者事後分布を使用して訓練されたニューラルネットワーク(NN)である第1のNNを使用して前記複数のフレームのフレームごとの顕著性値を計算し、
前記複数のフレームのフレームごとの前記顕著性値を使用して話者特徴を抽出することと
を含む、話者認識方法。
前記話者特徴を抽出することが、前記複数のフレームのフレームごとの前記顕著性値を使用して実施される重み付けプーリングプロセスを使用することを含む、付記11に記載の話者認識方法。
前記話者事後分布を使用して前記第1のNNを訓練することをさらに含む、付記11に記載の話者認識方法。
訓練データおよび話者識別情報を使用して前記話者事後分布を生成することをさらに含む、付記13に記載の話者認識方法。
前記複数のフレームのフレームごとの前記顕著性値を計算することが、前記抽出された音響特徴に基づく前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づく、付記11に記載の話者認識方法。
前記複数のフレームのフレームごとの前記顕著性値を計算することが、前記第1のNNの第1のノードからと前記第1のNNの第2のノードからの情報を受け取ることを含み、前記第1のノードで出力される前記複数のフレームの第1のフレームは、前記第2のノードで出力される前記複数のフレームの第2のフレームよりも前記第1のフレームがより有用な情報を有することを示す、付記11に記載の話者認識方法。
前記複数のフレームのフレームごとの前記顕著性値を計算することが、前記抽出された音響特徴に基づく前記第1のNNの前記第1のノードで出力される前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づく、付記16に記載の話者認識方法。
前記抽出された話者特徴に基づいて前記入力音声データの話者の識別を出力することをさらに含む、付記11に記載の話者認識方法。
前記抽出された話者特徴に基づいて、前記入力音声データの話者を格納された話者識別にマッチングすることをさらに含む、付記11に記載の話者認識方法。
前記抽出された話者特徴が正規ユーザと一致することに応答してコンピュータシステムへのアクセスを許可することをさらに含む、付記11に記載の話者認識方法。
Claims (20)
- 命令を格納するように構成された非一時的コンピュータ可読媒体と、
前記非一時的コンピュータ可読媒体に接続されたプロセッサであって、
入力音声データ内の複数のフレームの各フレームから音響特徴を抽出し、
前記抽出された音響特徴に基づいて、話者事後分布を使用して訓練されたニューラルネットワーク(NN)である第1のNNを使用して前記複数のフレームのフレームごとの顕著性値を計算し、
前記複数のフレームのフレームごとの前記顕著性値を使用して話者特徴を抽出する
ための前記命令を実行するように構成されるプロセッサと
を含む、話者認識システム。 - 前記プロセッサが、前記複数のフレームのフレームごとの前記顕著性値を使用して実施される重み付けプーリングプロセスを使用して前記話者特徴を抽出するための前記命令を実行するように構成される、請求項1に記載の話者認識システム。
- 前記プロセッサが、前記話者事後分布を使用して前記第1のNNを訓練するための前記命令を実行するように構成される、請求項1に記載の話者認識システム。
- 前記プロセッサが、訓練データおよび話者識別情報を使用して前記話者事後分布を生成するための前記命令を実行するように構成される、請求項3に記載の話者認識システム。
- 前記プロセッサが、前記抽出された音響特徴に基づく前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づいて前記複数のフレームのフレームごとの前記顕著性値を計算するための前記命令を実行するように構成される、請求項1に記載の話者認識システム。
- 前記プロセッサが、前記第1のNNの第1のノードおよび前記第1のNNの第2のノードを使用して前記複数のフレームのフレームごとの前記顕著性値を計算するための前記命令を実行するように構成され、前記第1のノードで出力される前記複数のフレームの第1のフレームは、前記第2のノードで出力される前記複数のフレームの第2のフレームよりも前記第1のフレームがより有用な情報を有することを示す、請求項1に記載の話者認識システム。
- 前記プロセッサが、前記抽出された音響特徴に基づく前記第1のNNの前記第1のノードで出力される前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づいて前記複数のフレームのフレームごとの前記顕著性値を計算するための前記命令を実行するように構成される、請求項6に記載の話者認識システム。
- 前記プロセッサが、前記抽出された話者特徴に基づいて前記入力音声データの話者の識別を出力するための前記命令を実行するように構成される、請求項1に記載の話者認識システム。
- 前記プロセッサが、前記抽出された話者特徴に基づいて、前記入力音声データの話者を格納された話者識別にマッチングするための前記命令を実行するように構成される、請求項1に記載の話者認識システム。
- 前記プロセッサが、前記抽出された話者特徴が正規ユーザと一致することに応答してコンピュータシステムへのアクセスを許可するための前記命令を実行するように構成される、請求項1に記載の話者認識システム。
- 入力音声データを受け取り、
前記入力音声データ内の複数のフレームの各フレームから音響特徴を抽出し、
前記抽出された音響特徴に基づいて、話者事後分布を使用して訓練されたニューラルネットワーク(NN)である第1のNNを使用して前記複数のフレームのフレームごとの顕著性値を計算し、
前記複数のフレームのフレームごとの前記顕著性値を使用して話者特徴を抽出することと
を含む、話者認識方法。 - 前記話者特徴を抽出することが、前記複数のフレームのフレームごとの前記顕著性値を使用して実施される重み付けプーリングプロセスを使用することを含む、請求項11に記載の話者認識方法。
- 前記話者事後分布を使用して前記第1のNNを訓練することをさらに含む、請求項11に記載の話者認識方法。
- 訓練データおよび話者識別情報を使用して前記話者事後分布を生成することをさらに含む、請求項13に記載の話者認識方法。
- 前記複数のフレームのフレームごとの前記顕著性値を計算することが、前記抽出された音響特徴に基づく前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づく、請求項11に記載の話者認識方法。
- 前記複数のフレームのフレームごとの前記顕著性値を計算することが、前記第1のNNの第1のノードからと前記第1のNNの第2のノードからの情報を受け取ることを含み、前記第1のノードで出力される前記複数のフレームの第1のフレームは、前記第2のノードで出力される前記複数のフレームの第2のフレームよりも前記第1のフレームがより有用な情報を有することを示す、請求項11に記載の話者認識方法。
- 前記複数のフレームのフレームごとの前記顕著性値を計算することが、前記抽出された音響特徴に基づく前記第1のNNの前記第1のノードで出力される前記複数のフレームのフレームごとの前記話者事後分布の勾配に基づく、請求項16に記載の話者認識方法。
- 前記抽出された話者特徴に基づいて前記入力音声データの話者の識別を出力することをさらに含む、請求項11に記載の話者認識方法。
- 前記抽出された話者特徴に基づいて、前記入力音声データの話者を格納された話者識別にマッチングすることをさらに含む、請求項11に記載の話者認識方法。
- 前記抽出された話者特徴が正規ユーザと一致することに応答してコンピュータシステムへのアクセスを許可することをさらに含む、請求項11に記載の話者認識方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/270,597 US10803875B2 (en) | 2019-02-08 | 2019-02-08 | Speaker recognition system and method of using the same |
US16/270,597 | 2019-02-08 | ||
PCT/JP2020/005423 WO2020162639A1 (en) | 2019-02-08 | 2020-02-05 | Speaker recognition system and method of using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022519391A JP2022519391A (ja) | 2022-03-23 |
JP7173379B2 true JP7173379B2 (ja) | 2022-11-16 |
Family
ID=71946223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021569717A Active JP7173379B2 (ja) | 2019-02-08 | 2020-02-05 | 話者認識システムおよびその使用方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10803875B2 (ja) |
EP (1) | EP3921832A4 (ja) |
JP (1) | JP7173379B2 (ja) |
CN (1) | CN113557567A (ja) |
WO (1) | WO2020162639A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634880A (zh) * | 2020-12-22 | 2021-04-09 | 北京百度网讯科技有限公司 | 话者识别的方法、装置、设备、存储介质以及程序产品 |
CN113643709B (zh) * | 2021-08-03 | 2023-07-18 | 成都理工大学 | 一种基于mean-SAP池化模型的说话人识别方法及系统 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5864810A (en) | 1995-01-20 | 1999-01-26 | Sri International | Method and apparatus for speech recognition adapted to an individual speaker |
KR100307623B1 (ko) | 1999-10-21 | 2001-11-02 | 윤종용 | 엠.에이.피 화자 적응 조건에서 파라미터의 분별적 추정 방법 및 장치 및 이를 각각 포함한 음성 인식 방법 및 장치 |
US20030113002A1 (en) * | 2001-12-18 | 2003-06-19 | Koninklijke Philips Electronics N.V. | Identification of people using video and audio eigen features |
WO2010031109A1 (en) * | 2008-09-19 | 2010-03-25 | Newsouth Innovations Pty Limited | Method of analysing an audio signal |
EP2216775B1 (en) | 2009-02-05 | 2012-11-21 | Nuance Communications, Inc. | Speaker recognition |
US9858919B2 (en) | 2013-11-27 | 2018-01-02 | International Business Machines Corporation | Speaker adaptation of neural network acoustic models using I-vectors |
US20150154002A1 (en) * | 2013-12-04 | 2015-06-04 | Google Inc. | User interface customization based on speaker characteristics |
US9390712B2 (en) | 2014-03-24 | 2016-07-12 | Microsoft Technology Licensing, Llc. | Mixed speech recognition |
US10476872B2 (en) * | 2015-02-20 | 2019-11-12 | Sri International | Joint speaker authentication and key phrase identification |
US9865280B2 (en) * | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9818409B2 (en) * | 2015-06-19 | 2017-11-14 | Google Inc. | Context-dependent modeling of phonemes |
US10366687B2 (en) * | 2015-12-10 | 2019-07-30 | Nuance Communications, Inc. | System and methods for adapting neural network acoustic models |
CA3179080A1 (en) * | 2016-09-19 | 2018-03-22 | Pindrop Security, Inc. | Channel-compensated low-level features for speaker recognition |
KR101804787B1 (ko) * | 2016-09-28 | 2017-12-06 | 대한민국 | 음질특징을 이용한 화자인식장치 및 방법 |
KR20180080446A (ko) * | 2017-01-04 | 2018-07-12 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
US10354656B2 (en) * | 2017-06-23 | 2019-07-16 | Microsoft Technology Licensing, Llc | Speaker recognition |
US10445429B2 (en) * | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
KR102486395B1 (ko) * | 2017-11-23 | 2023-01-10 | 삼성전자주식회사 | 화자 인식을 위한 뉴럴 네트워크 장치, 및 그 동작 방법 |
US20190253558A1 (en) * | 2018-02-13 | 2019-08-15 | Risto Haukioja | System and method to automatically monitor service level agreement compliance in call centers |
US10621991B2 (en) * | 2018-05-06 | 2020-04-14 | Microsoft Technology Licensing, Llc | Joint neural network for speaker recognition |
CN109256135B (zh) * | 2018-08-28 | 2021-05-18 | 桂林电子科技大学 | 一种端到端说话人确认方法、装置及存储介质 |
US10650807B2 (en) * | 2018-09-18 | 2020-05-12 | Intel Corporation | Method and system of neural network keyphrase detection |
US10922044B2 (en) * | 2018-11-29 | 2021-02-16 | Bose Corporation | Wearable audio device capability demonstration |
-
2019
- 2019-02-08 US US16/270,597 patent/US10803875B2/en active Active
-
2020
- 2020-02-05 EP EP20753011.4A patent/EP3921832A4/en not_active Withdrawn
- 2020-02-05 JP JP2021569717A patent/JP7173379B2/ja active Active
- 2020-02-05 US US17/428,960 patent/US20220130397A1/en active Pending
- 2020-02-05 WO PCT/JP2020/005423 patent/WO2020162639A1/en unknown
- 2020-02-05 CN CN202080012575.9A patent/CN113557567A/zh active Pending
Non-Patent Citations (2)
Title |
---|
OKABE, KOJI, ET AL.,"Attentive Statistics Pooling for Deep Speaker Embedding",INTERSPEECH 2018,2018年09月02日,pp.2252-2256 |
WANG, QIONGQIONG, ET AL.,"Attention Mechanism in Speaker Recognition: What Does It Learn in Deep Speaker Embedding?",2018 IEEE SPOKEN LANGUAGE TECHNOLOGY WORKSHOP (SLT),2018年12月18日,pp.1052-1059 |
Also Published As
Publication number | Publication date |
---|---|
EP3921832A1 (en) | 2021-12-15 |
US20220130397A1 (en) | 2022-04-28 |
US20200258527A1 (en) | 2020-08-13 |
CN113557567A (zh) | 2021-10-26 |
US10803875B2 (en) | 2020-10-13 |
EP3921832A4 (en) | 2022-04-06 |
WO2020162639A1 (en) | 2020-08-13 |
JP2022519391A (ja) | 2022-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108962237B (zh) | 混合语音识别方法、装置及计算机可读存储介质 | |
CN108182394B (zh) | 卷积神经网络的训练方法、人脸识别方法及装置 | |
CN110362677B (zh) | 文本数据类别的识别方法及装置、存储介质、计算机设备 | |
KR100543707B1 (ko) | 서브그룹별 pca 학습을 이용한 얼굴인식방법 및 장치 | |
Ding et al. | Audio and face video emotion recognition in the wild using deep neural networks and small datasets | |
CN112949780A (zh) | 特征模型训练方法、装置、设备及存储介质 | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
KR20170016231A (ko) | 사용자 인증을 위한 멀티-모달 퓨전 방법 및 사용자 인증 방법 | |
JP7173379B2 (ja) | 話者認識システムおよびその使用方法 | |
KR20200052453A (ko) | 딥러닝 모델 학습 장치 및 방법 | |
JP2018194828A (ja) | マルチビューベクトルの処理方法及び装置 | |
KR102185979B1 (ko) | 동영상에 포함된 객체의 운동 유형을 결정하기 위한 방법 및 장치 | |
JP4717872B2 (ja) | 話者の音声特徴情報を利用した話者情報獲得システム及びその方法 | |
CN115101077A (zh) | 一种声纹检测模型训练方法及声纹识别方法 | |
Jain et al. | Modified chain code histogram feature for handwritten character recognition | |
Rahman et al. | Dynamic thresholding on speech segmentation | |
CN110378414B (zh) | 基于进化策略的多模态生物特征融合的身份识别方法 | |
US20050047664A1 (en) | Identifying a speaker using markov models | |
CN116612542A (zh) | 基于多模态生物特征一致性的音视频人物识别方法及系统 | |
JP7103235B2 (ja) | パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム | |
KR102408042B1 (ko) | 그룹 기반 얼굴 인식 방법 및 장치 | |
CN114462073A (zh) | 去标识化效果评估方法、装置、存储介质及产品 | |
Devika et al. | A fuzzy-GMM classifier for multilingual speaker identification | |
Phaneemdra et al. | Human Face Detection and Recognition using PCA and DCT in HMM | |
Iengo et al. | Dynamic facial features for inherently safer face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7173379 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |