JP7130905B2 - フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 - Google Patents
フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 Download PDFInfo
- Publication number
- JP7130905B2 JP7130905B2 JP2021500518A JP2021500518A JP7130905B2 JP 7130905 B2 JP7130905 B2 JP 7130905B2 JP 2021500518 A JP2021500518 A JP 2021500518A JP 2021500518 A JP2021500518 A JP 2021500518A JP 7130905 B2 JP7130905 B2 JP 7130905B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- minutiae
- feature map
- convolution
- fingerprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 25
- 238000000605 extraction Methods 0.000 title description 32
- 238000013528 artificial neural network Methods 0.000 claims description 115
- 238000000034 method Methods 0.000 claims description 51
- 230000006870 function Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 28
- 230000004913 activation Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 12
- 230000007423 decrease Effects 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 description 45
- 238000013459 approach Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000003062 neural network model Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000013434 data augmentation Methods 0.000 description 5
- 239000011148 porous material Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 210000004243 sweat Anatomy 0.000 description 3
- 210000003462 vein Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013501 data transformation Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1353—Extracting features related to minutiae or pores
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Description
[項目1]
1または複数のコンピュータにより実装されるニューラルネットワークシステムであって、前記ニューラルネットワークシステムは、
畳み込みニューラルネットワークと、
サブシステムと
を備え、
前記畳み込みニューラルネットワークは、
前記ニューラルネットワークにより、それぞれの入力信号が処理され、
前記ニューラルネットワークの第1レイヤーにおいてバイオメトリック入力信号を受信することと、
前記バイオメトリック入力信号を処理することと、
前記ニューラルネットワークの最後のレイヤーにおいて出力特徴マップを生成することと、
を行うように構成されており、前記出力特徴マップのチャネルの数が増加し、前記入力信号に対する空間分解能が減少し、
前記サブシステムは、
前記ニューラルネットワークから前記出力特徴マップを受信することと、
前記出力特徴マップをデコードすることと、
デコードされた特徴マップを出力することと
を行うように構成されており、
バイオメトリック入力信号は皮膚紋理の印を表し、デコードされた特徴マップは皮膚紋理の印のマニューシャを表す、
システム。
[項目2]
出力特徴マップをデコードすることは、前記ニューラルネットワークの出力レイヤーの特徴マップを皮膚紋理の印のマニューシャの数字表示に変換することを備え、マニューシャの数字表示は、少なくとも、クラス、回転、および位置を含む、項目1に記載のシステム。
[項目3]
マニューシャのクラスは、線端、分岐、上記のいずれでもないもののうちの1つである、項目2に記載のシステム。
[項目4]
前記ニューラルネットワークは完全畳み込みニューラルネットワークである、項目1から3のいずれか一項に記載のシステム。
[項目5]
入力された前記皮膚紋理の印の信号はデジタル画像である、項目1から4のいずれか一項に記載のシステム。
[項目6]
出力特徴マップは、一連の別個の出力畳み込みレイヤー分岐の活性化マップを備える、項目1から5のいずれか一項に記載のシステム。
[項目7]
非線形のpointwise活性化関数は、Sigmoid、Hyperbolic Tangent、Concatenated ReLU、Leaky ReLU、MAXout、ReLU、ReLU-6、Parametric ReLUのうちの1つである、項目1から6のいずれか一項に記載のシステム。
[項目8]
畳み込みは、通常の畳み込み、depthwiseの分離可能な畳み込みまたは1×1畳み込みと組み合わせたグループ化畳み込みまたは他の種類の畳み込みのうちの1つである、項目1から7のいずれか一項に記載のシステム。
[項目9]
前記ニューラルネットワークの損失関数は、複数の損失成分を備える多損失関数である、項目1から8のいずれか一項に記載のシステム。
[項目10]
多損失関数の成分は、ポジティブクラス損失、ネガティブクラス損失、所在損失、方位損失を少なくとも備える、項目9に記載のシステム。
[項目11]
マニューシャのポジティブクラス推定は分類問題である、項目10に記載のシステム。
[項目12]
マニューシャのネガティブクラス推定は分類問題である、項目10または11に記載のシステム。
[項目13]
マニューシャの方位推定は回帰問題である、項目10から12のいずれか一項に記載のシステム。
[項目14]
マニューシャの所在推定は回帰問題である、項目10から13のいずれか一項に記載のシステム。
[項目15]
各バイオメトリック入力信号のソースは、バイオメトリックリーダ、メモリからロードされたものまたは生成されたもののうちの1つである、項目1から14のいずれか一項に記載のシステム。
[項目16]
前記ニューラルネットワークのプロセスをトレーニングすることは、皮膚紋理の印のマニューシャをエンコードすることを備える、項目1から15のいずれか一項に記載のシステム。
[項目17]
前記ニューラルネットワークのプロセスをトレーニングすることは、データ拡張を備える、項目1から16のいずれか一項に記載のシステム。
Claims (13)
- 1または複数のコンピュータにより実装されるニューラルネットワークシステムであって、前記ニューラルネットワークシステムは、
ニューラルネットワークであって、前記ニューラルネットワークは、畳み込みニューラルネットワークであり、前記ニューラルネットワークは、
前記ニューラルネットワークにより、それぞれの入力信号が処理され、
前記ニューラルネットワークの第1レイヤーにおいてバイオメトリック入力信号を受信することであって、前記バイオメトリック入力信号は皮膚紋理の印を表す、受信することと、
前記バイオメトリック入力信号を処理することと、
前記ニューラルネットワークの最後のレイヤーにおいて出力特徴マップを生成することと、
を行うように構成されており、前記バイオメトリック入力信号は、前記出力特徴マップのチャネルの数を増加させ、前記入力信号に対する空間分解能を減少させる一連の畳み込みレイヤブロックを通過し、
前記出力特徴マップは、前記畳み込みレイヤブロックの最後のブロックから異なる畳み込み分岐へと伝搬され、前記ニューラルネットワークは、ポジティブクラス損失、ネガティブクラス損失、所在損失、方位損失の4つの部分で構成される多損失関数を用いることによりトレーニングされる、ニューラルネットワークと、
サブシステムであって、前記サブシステムは、
前記ニューラルネットワークから前記出力特徴マップを受信することであって、前記出力特徴マップは、クラス、向きおよび位置を含み、前記出力特徴マップは、入力解像度の1/8に等しい空間分解能を有する、受信することと、
前記出力特徴マップをデコードすることと、
前記皮膚紋理の印のマニューシャを表す前記デコードされた出力特徴マップを出力することと
を行うように構成されている、サブシステムと、
を備える、システム。 - 前記出力特徴マップをデコードすることは、前記出力特徴マップを皮膚紋理の印のマニューシャの数値表現に変換することを備え、前記マニューシャの数値表現は、少なくとも、前記クラス、前記向き、および前記位置を含む、請求項1に記載のシステム。
- 前記マニューシャのクラスは、線端、分岐、上記のいずれでもないもののうちの1つである、請求項2に記載のシステム。
- 前記ニューラルネットワークは完全畳み込みニューラルネットワークである、請求項1から3のいずれか一項に記載のシステム。
- 入力された前記皮膚紋理の印の信号はデジタル画像である、請求項1から4のいずれか一項に記載のシステム。
- 前記出力特徴マップは、一連の別個の出力畳み込みレイヤー分岐の活性化マップを備える、請求項1から5のいずれか一項に記載のシステム。
- 非線形のpointwise活性化関数は、Sigmoid、Hyperbolic Tangent、Concatenated ReLU、Leaky ReLU、MAXout、ReLU、ReLU-6、Parametric ReLUのうちの1つである、請求項1から6のいずれか一項に記載のシステム。
- 畳み込みは、通常の畳み込み、depthwiseの分離可能な畳み込みまたは1×1畳み込みと組み合わせたグループ化畳み込みまたは他の種類の畳み込みのうちの1つである、請求項1から7のいずれか一項に記載のシステム。
- 前記マニューシャのポジティブクラス推定は分類問題である、請求項1から8のいずれか一項に記載のシステム。
- 前記マニューシャのネガティブクラス推定は分類問題である、請求項1から9のいずれか一項に記載のシステム。
- 前記マニューシャの方位推定は回帰問題である、請求項1から10のいずれか一項に記載のシステム。
- 前記マニューシャの所在推定は回帰問題である、請求項1から11のいずれか一項に記載のシステム。
- 各バイオメトリック入力信号のソースは、バイオメトリックリーダ、メモリからロードされたものまたは生成されたもののうちの1つである、請求項1から12のいずれか一項に記載のシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2019/055084 WO2020254857A1 (en) | 2019-06-18 | 2019-06-18 | Fast and robust friction ridge impression minutiae extraction using feed-forward convolutional neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021532453A JP2021532453A (ja) | 2021-11-25 |
JP7130905B2 true JP7130905B2 (ja) | 2022-09-06 |
Family
ID=67841104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021500518A Active JP7130905B2 (ja) | 2019-06-18 | 2019-06-18 | フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11430255B2 (ja) |
EP (1) | EP3799647A1 (ja) |
JP (1) | JP7130905B2 (ja) |
CN (1) | CN112437926B (ja) |
WO (1) | WO2020254857A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3540635B1 (en) * | 2018-03-16 | 2020-08-26 | Identy Inc. | Method for identifying an object within an image and mobile device for executing the method |
KR20210082970A (ko) * | 2019-12-26 | 2021-07-06 | 삼성전자주식회사 | 컨볼루션 연산을 수행하는 방법 및 장치 |
US12014529B2 (en) * | 2020-01-21 | 2024-06-18 | Samsung Electronics Co., Ltd. | Image processing method and apparatus using neural network |
KR102350685B1 (ko) * | 2020-01-31 | 2022-01-13 | 주식회사 알체라 | 생체 정보 등록 방법 및 이를 수행하기 위한 생체 정보 등록 장치 |
US20210383200A1 (en) * | 2020-06-05 | 2021-12-09 | PassiveLogic, Inc. | Neural Network Methods for Defining System Topology |
CN112884824B (zh) * | 2021-03-12 | 2024-07-12 | 辽宁师范大学 | 一种基于卷积网络多尺度特征融合的鞋印身高估计方法 |
CN113808753B (zh) * | 2021-09-11 | 2023-09-26 | 中南大学 | 基于多损失的分解表达学习预测辅助放化疗疗效的方法 |
CN114550224A (zh) * | 2022-01-17 | 2022-05-27 | 北京海鑫科金高科技股份有限公司 | 基于深度学习的指纹图像识别比对方法、装置和电子设备 |
CN114997299B (zh) * | 2022-05-27 | 2024-04-16 | 电子科技大学 | 一种资源受限环境下的射频指纹识别方法 |
CN116819482B (zh) * | 2023-08-28 | 2023-11-10 | 四川省石棉县恒达粉体材料有限责任公司 | 一种基于雷达数据的方解石探测方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5572597A (en) | 1994-03-29 | 1996-11-05 | Loral Corporation | Fingerprint classification system |
US5825907A (en) * | 1994-12-28 | 1998-10-20 | Lucent Technologies Inc. | Neural network system for classifying fingerprints |
US5892838A (en) | 1996-06-11 | 1999-04-06 | Minnesota Mining And Manufacturing Company | Biometric recognition using a classification neural network |
US7082394B2 (en) | 2002-06-25 | 2006-07-25 | Microsoft Corporation | Noise-robust feature extraction using multi-layer principal component analysis |
KR100718125B1 (ko) | 2005-03-25 | 2007-05-15 | 삼성전자주식회사 | 생체신호와 인공신경회로망을 이용한 생체인식 장치 및방법 |
US8015128B2 (en) * | 2006-10-01 | 2011-09-06 | International Business Machines Corporation | Biometric security using neuroplastic fidelity |
US20140019390A1 (en) * | 2012-07-13 | 2014-01-16 | Umami, Co. | Apparatus and method for audio fingerprinting |
US10339362B2 (en) * | 2016-12-08 | 2019-07-02 | Veridium Ip Limited | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
CN105303179A (zh) * | 2015-10-28 | 2016-02-03 | 小米科技有限责任公司 | 指纹识别方法、装置 |
CN105868785A (zh) * | 2016-03-30 | 2016-08-17 | 乐视控股(北京)有限公司 | 基于卷积神经网络的图片鉴别方法及系统 |
KR101797953B1 (ko) * | 2016-03-31 | 2017-11-15 | 주식회사 유니온커뮤니티 | 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법 |
KR102631381B1 (ko) * | 2016-11-07 | 2024-01-31 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
CN106971174B (zh) * | 2017-04-24 | 2020-05-22 | 华南理工大学 | 一种cnn模型、cnn训练方法以及基于cnn的静脉识别方法 |
CN107480649B (zh) | 2017-08-24 | 2020-08-18 | 浙江工业大学 | 一种基于全卷积神经网络的指纹汗孔提取方法 |
CN109493347B (zh) * | 2017-09-12 | 2021-03-23 | 深圳科亚医疗科技有限公司 | 在图像中对稀疏分布的对象进行分割的方法和系统 |
CN107958217A (zh) * | 2017-11-28 | 2018-04-24 | 广州麦仑信息科技有限公司 | 一种基于深度学习的指纹分类识别系统及方法 |
CN108520225B (zh) * | 2018-03-30 | 2021-07-27 | 南京信息工程大学 | 一种基于空间变换卷积神经网络的指纹检测分类方法 |
CN108564040B (zh) * | 2018-04-17 | 2021-06-25 | 杭州景联文科技有限公司 | 一种基于深度卷积特征的指纹活性检测方法 |
US10304193B1 (en) * | 2018-08-17 | 2019-05-28 | 12 Sigma Technologies | Image segmentation and object detection using fully convolutional neural network |
CN109145834A (zh) * | 2018-08-27 | 2019-01-04 | 河南丰泰光电科技有限公司 | 一种基于神经网络的指纹识别及验证方法 |
CN109376699A (zh) * | 2018-11-30 | 2019-02-22 | 昆明理工大学 | 一种基于卷积神经网络的指纹识别方法 |
CN109886986B (zh) * | 2019-01-23 | 2020-09-08 | 北京航空航天大学 | 一种基于多分支卷积神经网络的皮肤镜图像分割方法 |
-
2019
- 2019-06-18 EP EP19762455.4A patent/EP3799647A1/en active Pending
- 2019-06-18 JP JP2021500518A patent/JP7130905B2/ja active Active
- 2019-06-18 WO PCT/IB2019/055084 patent/WO2020254857A1/en unknown
- 2019-06-18 US US17/267,499 patent/US11430255B2/en active Active
- 2019-06-18 CN CN201980048658.0A patent/CN112437926B/zh active Active
Non-Patent Citations (1)
Title |
---|
Thomas Pinetz et al.,Using a U-Shaped Neural Network for minutiae extraction trained from refined, synthetic fingerprints,Proceedings of the OAGM&ARW Joint Workshop 2017,2017年,pp.146-151 |
Also Published As
Publication number | Publication date |
---|---|
CN112437926A (zh) | 2021-03-02 |
US11430255B2 (en) | 2022-08-30 |
JP2021532453A (ja) | 2021-11-25 |
WO2020254857A1 (en) | 2020-12-24 |
US20210326571A1 (en) | 2021-10-21 |
EP3799647A1 (en) | 2021-04-07 |
CN112437926B (zh) | 2024-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7130905B2 (ja) | フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 | |
Baltzakis et al. | A new signature verification technique based on a two-stage neural network classifier | |
Pandya et al. | Fingerprint classification using a deep convolutional neural network | |
Prabhakar et al. | Learning fingerprint minutiae location and type | |
US20210166092A1 (en) | Method of Detecting at Least One Element of Interest Visible in an Input Image by Means of a Convolutional Neural Network | |
CN113076927B (zh) | 基于多源域迁移的指静脉识别方法及系统 | |
CN110674824A (zh) | 基于R2U-Net的手指静脉分割方法、装置和存储介质 | |
CN105095880A (zh) | 一种基于lgbp编码的手指多模态特征融合方法 | |
Jalilian et al. | Enhanced segmentation-CNN based finger-vein recognition by joint training with automatically generated and manual labels | |
CN114821682B (zh) | 一种基于深度学习算法的多样本混合掌静脉识别方法 | |
Khodadoust et al. | Partial fingerprint identification for large databases | |
Wang et al. | Deep point cloud normal estimation via triplet learning | |
CN109359607A (zh) | 一种基于纹理的掌纹掌脉融合识别方法 | |
Fang et al. | Deep belief network based finger vein recognition using histograms of uniform local binary patterns of curvature gray images | |
Patel et al. | Performance improvement in preprocessing phase of fingerprint recognition | |
Deepika et al. | Invariant feature extraction from fingerprint biometric using pseudo Zernike moments | |
Kumar et al. | An empirical evaluation of rotation invariance of LDP feature for fingerprint matching using neural networks | |
Kaur et al. | Finger print recognition using genetic algorithm and neural network | |
CN108154107A (zh) | 一种确定遥感图像归属的场景类别的方法 | |
AlShemmary et al. | Siamese Network-Based Palm Print Recognition | |
Mansour | Iris recognition using gauss laplace filter | |
Hariprasath et al. | Bimodal biometric pattern recognition system based on fusion of iris and palmprint using multi-resolution approach | |
CN114677714B (zh) | 接触式指纹与非接触式指纹的匹配方法及相关装置 | |
Al-Nima et al. | Utilizing Fingerphotos with Deep Learning Techniques to Recognize Individuals | |
Dommeti et al. | Revolutionizing Fingerprint Forensics: Regeneration and Gender Prediction with Gabor Filters, Otsu's Technique, and Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7130905 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |