JP2020177318A - 照合装置、学習装置、方法、及びプログラム - Google Patents
照合装置、学習装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP2020177318A JP2020177318A JP2019077513A JP2019077513A JP2020177318A JP 2020177318 A JP2020177318 A JP 2020177318A JP 2019077513 A JP2019077513 A JP 2019077513A JP 2019077513 A JP2019077513 A JP 2019077513A JP 2020177318 A JP2020177318 A JP 2020177318A
- Authority
- JP
- Japan
- Prior art keywords
- time
- signature information
- local feature
- feature vector
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 51
- 239000013598 vector Substances 0.000 claims abstract description 130
- 238000000605 extraction Methods 0.000 claims abstract description 54
- 239000000284 extract Substances 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 56
- 238000004364 calculation method Methods 0.000 claims description 44
- 238000012549 training Methods 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 230000002123 temporal effect Effects 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000000306 recurrent effect Effects 0.000 claims description 5
- 230000006403 short-term memory Effects 0.000 claims description 3
- 239000012634 fragment Substances 0.000 description 16
- 230000010354 integration Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 230000002457 bidirectional effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 5
- 101100329880 Mus musculus Cyb561 gene Proteins 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Collating Specific Patterns (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施の形態では、前記課題を同時に解決可能な署名の照合方法、すなわち、署名情報の局所的特徴をデータから直接学習し、署名情報間の距離を測定する際に時間的一貫性を制約として課すことが可能な照合方法を提案する。
次に、本発明の実施の形態に係る照合装置の構成について説明する。図3に示すように、本発明の実施の形態に係る照合装置100は、CPUと、RAMと、後述する照合処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この照合装置100は、機能的には図3に示すように、入力部10と、演算部20と、出力部50とを備えている。
時間的整合部22は、時系列データである第1の署名情報と、時系列データである第2の署名情報とに対して、時間軸に沿った整合を行い、第1の整合済署名情報と、第2の整合済署名情報とを出力する。
局所的特徴抽出部24は、第1の整合済署名情報と、第2の整合済署名情報とを入力とし、同一人物に関する署名情報であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを時刻毎に関連付けるように予め学習された、局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出し、2個の局所的特徴シーケンスを出力する。
局所的距離計算部30は、第1の整合済署名情報について抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報について抽出された各時刻の局所的特徴ベクトルとの間の局所的距離を、時刻毎に計算する。
とし、出力である署名情報間の距離を
とする。
から算出された、局所的特徴抽出部24の出力である2個の局所的特徴シーケンスを、それぞれXとYとする。XとYは、W×Kの実数行列とし、すなわち、
とする。ここで、W は時間的長さ、K は次元数である。
とする。また、XとYにおいて、それぞれのi 番目の時刻及びj 番目の次元にある要素を、それぞれxijとyij とする。
とし、2個の特徴ベクトルの間の距離を
とする。
を式(1)によって計算する。
(1)
とし、式(2)によって計算する。
(2)
判定部34は、署名情報間の距離に基づいて、第1の署名情報及び第2の署名情報が、同一人物に関する署名情報であるか否かを判定する。
とし、1個以上のテンプレート署名の集合を
とする。距離の平均は、例えば、式(3)もしくは式(4)によって計算できる。
(3)
(4)
次に、本発明の実施の形態に係る学習装置の構成について説明する。図5に示すように、本発明の実施の形態に係る学習装置200は、CPUと、RAMと、後述する学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この学習装置200は、機能的には図5に示すように、入力部110と、演算部120とを備えている。
時間的整合部122は、署名情報のペアのうちの第1の署名情報と、署名情報のペアのうちの第2の署名情報とに対して、時間的整合部22と同様に、時間軸に沿った整合を行い、第1の整合済署名情報と、第2の整合済署名情報とを出力する。
局所的特徴抽出部124は、第1の整合済署名情報と、第2の整合済署名情報とを入力とし、局所的特徴抽出部24と同様に、局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出し、2個の局所的特徴シーケンスを出力する。
局所的距離計算部130は、局所的距離計算部30と同様に、第1の整合済署名情報について抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報について抽出された各時刻の局所的特徴ベクトルとの間の局所的距離を、時刻毎に計算し、1個の局所的距離シーケンスを出力する。
損失関数値計算部132は、第1の整合済署名情報から抽出された各時刻の局所的特徴ベクトルと、第2の整合済署名情報から抽出された各時刻の局所的特徴ベクトルとの距離、及び当該時系列データのペアに付与された訓練ラベルを用いて表される損失関数の値を計算する。
本実施例では、まず、局所的距離シーケンスの各時刻において、同一人物の署名情報の場合に局所的距離が大きいほど値が大きくなり、そうでない場合に局所的距離が小さいほど値が大きくなる、というような1個の局所的損失関数値を計算する。次に、全ての時刻から算出された局所的損失関数値の平均を計算し、損失関数値計算部132の出力である損失関数値とする。なお、本実施例では局所的損失関数値の平均としているが、局所的損失関数値の総和としてもよい。要は、得られた局所的損失関数値全てを用いて1つの値を出せればよい。また、上記損失関数値は、(1)時系列に係る特徴を残しつつ、(2)ヒューリスティックに決定された手法よりも学習データに応じた値であることが期待される。ここで、損失関数値計算部132の出力である損失関数値をLとし、訓練ラベルをzとする。z∈{0,1}とし、同一人物の署名情報の場合にz = 1、そうでない場合にz = 0 とする。Lを式(5)によって計算する。式(5)中のτ はハイパーパラメータで、τ∈[0,√2]とする。
(5)
が大きいほど損失関数値Lが大きくなり、そうでない場合に局所的距離
が小さいほど損失関数値Lが大きくなる。
本実施例の損失関数値計算部132では、式(2)によって計算される署名情報間距離
を用いて、同一人物の署名情報の場合に
が大きいほど値が大きくなり、そうでない場合に
が小さいほど値が大きくなる、というような1個の損失関数値を計算し、損失関数値計算部132の出力とする。ここで、前記損失関数値をLとし、式(6)によって計算する。
(6)
が大きいほど、前記署名情報間距離
が大きくなる。それに伴い、式(6)によって、損失関数値L が大きくなる。そうでない場合に、式(2)によって、前記局所的距離
が小さいほど、前記署名情報間距離
が小さくなる。それに伴い、式(6)によって、損失関数値L が大きくなる。
更新部134は、損失関数の値を最適化するように、抽出モデルのパラメータを更新する。
本実施例では、更新部134は、以下の式(7)に従って、微分法を用いて抽出モデルのパラメータを更新する。
(7)
は、各局所的距離
のxijに関する偏微分係数であり、
によって計算され、xijの時刻i によって異なる値を持つ。そのため、微分法を用いて抽出モデルを構成するニューラルネットワークのパラメータを学習する際に、局所的特徴シーケンスの各要素xij は、その時刻iによって適応的に更新されることとなる。
と同様に、式(7)中の
も、xijの時刻i によって異なる値を持つ。従って、上記非特許文献2等のような、学習の時に局所的特徴シーケンスの各要素が全ての時刻において均一的に更新される先行技術とは異なり、本発明の実施の形態では、学習の時に局所的特徴シーケンスの各要素が、その時刻によって適応的に更新されるため、より識別力の高い局所的な特徴表現をより効果的に学習することが可能になる。
本実施例では、更新部134は、以下の式(8)に従って、微分法を用いて抽出モデルのパラメータを更新する。
は、xijの時刻i によって異なる値を持つ。微分法を用いて抽出モデルを構成するニューラルネットワークのパラメータを学習する際に、局所的特徴シーケンスの各要素xij は、その時刻i によって適応的に更新されることとなる。従って、より識別力の高い局所的な特徴表現をより効果的に学習することが可能になる。
は、xijの時刻i によらず、全ての時刻において均一的な値を持つ。それによって、比較的に少量の訓練データしか使用できない場合、学習の時に局所的特徴シーケンスの各要素においてその更新のその時刻に対する依存性が適切に抑制され、過学習の悪影響を軽減することが可能になる。
にも依存するが、最終的には署名情報間距離
にも依存する。実施例1は、局所的距離に依存する損失関数を用いている一方で、実施例2は、局所的距離と署名情報間距離の両方に依存する損失関数を用いている。そのため、実施例2の方が、局所的な特徴表現の効果的な学習と過学習抑制において、その間のバランスがよりうまく取れた実施例であると考えられる。
次に、本発明の実施の形態に係る学習装置200の作用について説明する。入力部110によって、訓練ラベルが予め付与された署名情報のペアを、複数ペアを受け付けると、学習装置200は、図7に示す学習処理ルーチンを実行する。
次に、本発明の実施の形態に係る照合装置100の作用について説明する。
上記の実施の形態で説明した手法の効果を確認するために行った実験の結果について説明する。署名情報のテストデータが、本物の署名情報か、偽造者によって模倣された署名情報であるかを判定する実験を行った。署名情報のデータセットとして、MCYT(参考文献2)、BiosecurID SONOF(参考文献3)、およびSUSIG visual and blind sub-corpuses(参考文献4)の4つのデータセットを用いた。
[参考文献3]J. Galbally, M. D. Cabrera, M. A. Ferrer-Ballester, et al., “Online signature recognition through the combination of real dynamic data and synthetically generated static data,” Pattern Recognition, vol. 48, no. 9, pp. 2921-2934, 2015.
[参考文献4]A. Kholmatov and B. A. Yanikoglu, “SUSIG: An on-line signature database, associated protocols and benchmark results,” Pattern Anal. Appl., vol. 12, no. 3, pp. 227-236, 2009.
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
とする。前記ニューラルネットワークを用いる場合、
となる。
と前記訓練ラベルz を用いて、例えば、式(9)によって1個の損失関数値L を計算する。
(9)
が大きくなり、式(9)によって、損失関数値L が大きくなる。そうでない場合に、前記局所的距離が小さいほど、前記署名情報間距離
が小さくなり、式(9)によって、損失関数値L が大きくなる。
20、120 演算部
22、122 時間的整合部
24、124 局所的特徴抽出部
26 照合部
30、130 局所的距離計算部
32 局所的距離統合部
34 判定部
50 出力部
82 プログラム
84 コンピュータ
100 照合装置
126 学習部
132 損失関数値計算部
134 更新部
200 学習装置
Claims (7)
- 入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報を受け付ける入力部と、
前記第1の署名情報及び前記第2の署名情報の各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出する局所的特徴計算部と、
前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定する照合部と、
を含む照合装置。 - 前記第1の署名情報と、前記第2の署名情報とに対して、時間軸に沿った整合を行う時間的整合部を更に含み、
前記局所的特徴計算部は、前記時間的整合部による整合後の前記第1の署名情報及び前記第2の署名情報の各々について、前記抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出し、
前記照合部は、前記時間的整合部による整合後の、前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記距離を用いて、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定する請求項1記載の照合装置。 - 前記抽出モデルは、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、又はLSTM(Long short-term memory)であり、前記抽出モデルの中間層の出力を、局所的特徴ベクトルとする請求項1又は2記載の照合装置。
- 入力手段による入力に応じた第1の時系列データ及び第2の時系列データを受け付ける入力部と、
前記第1の時系列データ及び前記第2の時系列データの各々について、同一対象に関する入力であるか否かが予め付与された時系列データのペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出する局所的特徴計算部と、
前記第1の時系列データについて抽出された各時刻の局所的特徴ベクトルと、前記第2の時系列データについて抽出された各時刻の局所的特徴ベクトルとの距離に基づいて、前記第1の時系列データ及び前記第2の時系列データが、同一対象に関する入力であるか否かを判定する照合部と、
を含む照合装置。 - 同一対象に関する入力であるか否かを示す訓練ラベルが予め付与された、入力手段による入力に応じた時系列データのペアに基づいて、局所的特徴ベクトルを抽出する抽出モデルを学習する学習装置であって、
前記ペアの時系列データの各々について、前記抽出モデルを用いて、各時刻で、局所的特徴ベクトルを抽出する局所的特徴計算部と、
前記時系列データのペアの一方の前記時系列データから抽出された各時刻の局所的特徴ベクトルと、他方の前記時系列データから抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、各時刻での局所的特徴ベクトルの距離、及び前記時系列データのペアに付与された前記訓練ラベルを用いて表される損失関数の値を最適化するように、前記抽出モデルを学習する学習部と、
を含む学習装置。 - 入力部が、入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報を受け付け、
局所的特徴計算部が、前記第1の署名情報及び前記第2の署名情報の各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出し、
照合部が、前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定する
照合方法。 - コンピュータに、
入力手段による入力位置の時系列データである第1の署名情報及び第2の署名情報を受け付け、
前記第1の署名情報及び前記第2の署名情報の各々について、同一人物に関する署名であるか否かが予め付与された署名情報のペアについての局所的特徴ベクトルを対応する全ての時刻毎に関連付けるように予め学習された、前記局所的特徴ベクトルを抽出する抽出モデルを用いて、各時刻で、前記局所的特徴ベクトルを抽出し、
前記第1の署名情報について抽出された各時刻の局所的特徴ベクトルと、前記第2の署名情報について抽出された各時刻の局所的特徴ベクトルとについて、各時刻での局所的特徴ベクトルの距離を計算し、前記第1の署名情報及び前記第2の署名情報が、同一人物に関する署名であるか否かを判定する
ことを実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019077513A JP7347750B2 (ja) | 2019-04-16 | 2019-04-16 | 照合装置、学習装置、方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019077513A JP7347750B2 (ja) | 2019-04-16 | 2019-04-16 | 照合装置、学習装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020177318A true JP2020177318A (ja) | 2020-10-29 |
JP7347750B2 JP7347750B2 (ja) | 2023-09-20 |
Family
ID=72935561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019077513A Active JP7347750B2 (ja) | 2019-04-16 | 2019-04-16 | 照合装置、学習装置、方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7347750B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114996688A (zh) * | 2022-05-26 | 2022-09-02 | 华南理工大学 | 一种基于软动态时间规整的联机签名认证系统和方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028889A (ja) * | 2017-08-02 | 2019-02-21 | 株式会社エヌ・ティ・ティ・データ | 署名照合システム |
-
2019
- 2019-04-16 JP JP2019077513A patent/JP7347750B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028889A (ja) * | 2017-08-02 | 2019-02-21 | 株式会社エヌ・ティ・ティ・データ | 署名照合システム |
Non-Patent Citations (1)
Title |
---|
TAKASHI ITO;WATARU OHYAMA;TETSUSHI WAKABAYASHI;FUMITAKA KIMURA: "Combination of Signature Verification Techniques by SVM", 2012 INTERNATIONAL CONFERENCE ON FRONTIERS IN HANDWRITING RECOGNITION, JPN6022040643, 2012, US, pages 430 - 433, XP032322848, ISSN: 0005021399, DOI: 10.1109/ICFHR.2012.192 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114996688A (zh) * | 2022-05-26 | 2022-09-02 | 华南理工大学 | 一种基于软动态时间规整的联机签名认证系统和方法 |
CN114996688B (zh) * | 2022-05-26 | 2023-11-21 | 华南理工大学 | 一种基于软动态时间规整的联机签名认证系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7347750B2 (ja) | 2023-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rajora et al. | A comparative study of machine learning techniques for credit card fraud detection based on time variance | |
CN109145766B (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
CN111915437B (zh) | 基于rnn的反洗钱模型的训练方法、装置、设备及介质 | |
CN107103281A (zh) | 基于聚集损失深度度量学习的人脸识别方法 | |
CN104484644B (zh) | 一种手势识别方法和装置 | |
Ghosh et al. | A dempster–shafer theory based classifier combination for online signature recognition and verification systems | |
Maji et al. | Effect of Euler number as a feature in gender recognition system from offline handwritten signature using neural networks | |
WO2021031817A1 (zh) | 情绪识别方法、装置、计算机装置及存储介质 | |
CN109190698B (zh) | 一种网络数字虚拟资产的分类识别系统及方法 | |
CN109190521B (zh) | 一种基于知识提纯的人脸识别模型的构建方法及应用 | |
Divya et al. | Facial expression recognition by calculating euclidian distance for eigen faces using PCA | |
CN112560710B (zh) | 一种用于构建指静脉识别系统的方法及指静脉识别系统 | |
Škrjanc et al. | Evolving gustafson-kessel possibilistic c-means clustering | |
CN113378852A (zh) | 关键点检测方法、装置、电子设备及存储介质 | |
Verma et al. | Estimation of sex through morphometric landmark indices in facial images with strength of evidence in logistic regression analysis | |
CN110717407A (zh) | 基于唇语密码的人脸识别方法、装置及存储介质 | |
CN110414562A (zh) | X光片的分类方法、装置、终端及存储介质 | |
TWI325568B (en) | A method for face varification | |
JP7347750B2 (ja) | 照合装置、学習装置、方法、及びプログラム | |
Gaston et al. | Matching larger image areas for unconstrained face identification | |
Shinde et al. | Feedforward back propagation neural network (FFBPNN) based approach for the identification of handwritten math equations | |
Singh | Review on multibiometrics: classifications, normalization and fusion levels | |
CN110472680B (zh) | 目标分类方法、装置和计算机可读存储介质 | |
Radhika et al. | Signature authentication based on subpattern analysis | |
Pabiasz et al. | A new three-dimensional facial landmarks in recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190416 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7347750 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |