JP6992590B2 - 特徴表現装置、特徴表現方法、およびプログラム - Google Patents
特徴表現装置、特徴表現方法、およびプログラム Download PDFInfo
- Publication number
- JP6992590B2 JP6992590B2 JP2018031292A JP2018031292A JP6992590B2 JP 6992590 B2 JP6992590 B2 JP 6992590B2 JP 2018031292 A JP2018031292 A JP 2018031292A JP 2018031292 A JP2018031292 A JP 2018031292A JP 6992590 B2 JP6992590 B2 JP 6992590B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- map
- image
- integrated
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
まず、本発明の実施形態の概要について説明する。
[参考文献1]D. Bau, B. Zhou, A. Khosla, A. Oliva, A. Torralba. “Network Dissection: Quantifying Interpretability of Deep Visual Representations” in Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp.6541-6549.
図1を参照して、本発明の実施の形態に係る特徴表現装置の構成について説明する。図1は、本発明の実施の形態に係る特徴表現装置の構成を示すブロック図である。
を計算する。
を計算する。
は、クラスタkごとに各概念cの存在する度合いを表すマップであり、特徴マップAn(x)を、概念cの一致率に基づいて、クラスタkごとに統合することで算出できる。ここで、統合マップ
を算出する方法として、クラスタkごと、概念cごとに特徴マップAn(x)と一致率Rn,cとの線形和を計算する方法がある。この場合、統合マップ計算部14は、クラスタkごとに、下記式(4)のようにして統合マップ
を算出してもよい。さらに、最大値の代わりに平均値や中央値を取ってもよい。
中の値の個数の合計は58,702個であり、その内上位5%にあたる2,935番目の値を閾値とする。最終的にK個の閾値が算出される。
を、特徴マップ計算部11で受け付けた入力画像5のサイズに変換(リサイズ)し、画像サイズの統合マップを出力する。また、特徴表現可視化画像と入力画像5との位置の対応を確認する必要が無い場合、効率化のために、リサイズ処理部16が受け取った統合マップのサイズを変換せずに出力してもよい。
の絞込みを行っても良い。絞込み方法は、例えば、閾値計算部15からクラスタkごとの閾値を取得し、閾値以上の値を含まない統合マップ
を削除する方法や、各統合マップの最大値を比較し、各クラスタで上位の予め定めた件数の統合マップ
のみを残す方法がある。
に対応する当該概念cの情報との対を出力する。
図3は、本発明の実施の形態に係る特徴表現処理ルーチンを示すフローチャートである。また、図4は、特徴表現処理ルーチンの各ステップにおける出力データのサイズを示す図である。
を計算する。出力される統合マップ
のサイズは、O304に示すようになる。
の値に基づいて、閾値を計算する。出力される閾値のサイズは、O305に示すようになる。
のサイズを変換する。出力される変換後の統合マップのサイズは、O306に示すようになる。
に対応する当該概念cの情報との対である特徴表現可視化情報6を出力する。出力される特徴表現可視化情報6のサイズはO307に示すようになる。
2 画像DB
3 記憶部
4 CNN学習部
5 入力画像
6 特徴表現可視化情報
11 特徴マップ計算部
12 一致率計算部
13 クラスタリング処理部
14 統合マップ計算部
15 閾値計算部
16 リサイズ処理部
17 閾値処理部
21 画像集合
31 画像集合
32 一致率
100 特徴表現装置
Claims (8)
- 入力画像に対して、CNN(Convolutional Neural Network)の特定の層が捉えた特徴を表現する情報を出力する特徴表現装置であって、
前記CNNの前記特定の層で用いられる複数のフィルタの各々について、予め定義した複数の概念の各々を表す領域が求められた複数の画像の各々を入力とした時の、前記フィルタから出力される特徴マップと、前記概念を表す領域との関連度を示す一致率を前記複数の概念毎に計算する一致率計算部と、
前記入力画像を前記CNNに入力した際に、前記複数のフィルタの各々から出力される特徴マップを計算する特徴マップ計算部と、
前記特徴マップ計算部により前記複数のフィルタの各々について計算された前記特徴マップを、前記特徴マップの値に基づいて、複数のクラスタの何れかに分類するクラスタリング処理部と、
前記クラスタリング処理部による前記特徴マップの分類結果と、前記一致率とに基づいて、前記複数の概念毎に、前記複数のクラスタの各々について、前記クラスタに分類された複数の特徴マップを、前記特徴マップを出力したフィルタの前記概念についての前記一致率を用いて統合した統合マップを計算する統合マップ計算部と、
前記複数の概念毎に、前記複数のクラスタの各々について、前記統合マップ計算部により計算された前記統合マップの値に基づいて、閾値を計算する閾値計算部と、
前記統合マップの各々について、前記閾値を用いて可視化した特徴表現可視化画像と、前記統合マップに対応する前記概念の情報との対を出力する閾値処理部と、
を含む特徴表現装置。 - 前記統合マップ計算部は、前記複数の概念毎に、前記複数のクラスタの各々について、前記クラスタに分類された複数の特徴マップの、前記特徴マップを出力したフィルタの前記概念についての前記一致率を用いた線形和により統合する
請求項1記載の特徴表現装置。 - 前記複数の統合マップの各々について、前記統合マップのサイズを変換するリサイズ処理部
を更に含み、
前記閾値処理部は、前記リサイズ処理部によりサイズを変換された前記統合マップの各々について、前記閾値を用いて可視化した特徴表現可視化画像と、前記統合マップに対応する前記概念の情報との対を出力する
請求項1又は2記載の特徴表現装置。 - 前記特徴表現可視化画像は、前記閾値を満たす領域を単色で色付けした二値化画像、又は前記閾値を満たす領域の値に基づいて濃度変化を表現したヒートマップ画像として出力する
請求項1~請求項3の何れか1項記載の特徴表現装置。 - 入力画像に対して、CNN(Convolutional Neural Network)の特定の層が捉えた特徴を表現する情報を出力する特徴表現方法であって、
一致率計算部が、前記CNNの前記特定の層で用いられる複数のフィルタの各々について、予め定義した複数の概念の各々を表す領域が求められた複数の画像の各々を入力とした時の、前記フィルタから出力される特徴マップと、前記概念を表す領域との関連度を示す一致率を前記複数の概念毎に計算し、
特徴マップ計算部が、前記入力画像を前記CNNに入力した際に、前記複数のフィルタの各々から出力される特徴マップを計算し、
クラスタリング処理部が、前記特徴マップ計算部により前記複数のフィルタの各々について計算された前記特徴マップを、前記特徴マップの値に基づいて、複数のクラスタの何れかに分類し、
統合マップ計算部が、前記クラスタリング処理部による前記特徴マップの分類結果と、前記一致率とに基づいて、前記複数の概念毎に、前記複数のクラスタの各々について、前記クラスタに分類された複数の特徴マップを、前記特徴マップを出力したフィルタの前記概念についての前記一致率を用いて統合した統合マップを計算し、
閾値計算部が、前記複数の概念毎に、前記複数のクラスタの各々について、前記統合マップ計算部により計算された前記統合マップの値に基づいて、閾値を計算し、
閾値処理部が、前記統合マップの各々について、前記閾値を用いて可視化した特徴表現可視化画像と、前記統合マップに対応する前記概念の情報との対を出力する
特徴表現方法。 - 前記統合マップ計算部は、前記複数の概念毎に、前記複数のクラスタの各々について、前記クラスタに分類された複数の特徴マップの、前記特徴マップを出力したフィルタの前記概念についての前記一致率を用いた線形和により統合する
請求項5記載の特徴表現方法。 - 前記特徴表現可視化画像は、前記閾値を満たす領域を単色で色付けした二値化画像、又は前記閾値を満たす領域の値に基づいて濃度変化を表現したヒートマップ画像として出力する
請求項5又は請求項6記載の特徴表現方法。
特徴表現方法。 - コンピュータを、請求項1乃至4の何れか1項記載の特徴表現装置の各部として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018031292A JP6992590B2 (ja) | 2018-02-23 | 2018-02-23 | 特徴表現装置、特徴表現方法、およびプログラム |
PCT/JP2019/007026 WO2019163985A1 (ja) | 2018-02-23 | 2019-02-25 | 特徴表現装置、特徴表現方法、およびプログラム |
US16/971,635 US11416710B2 (en) | 2018-02-23 | 2019-02-25 | Feature representation device, feature representation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018031292A JP6992590B2 (ja) | 2018-02-23 | 2018-02-23 | 特徴表現装置、特徴表現方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019145040A JP2019145040A (ja) | 2019-08-29 |
JP6992590B2 true JP6992590B2 (ja) | 2022-01-13 |
Family
ID=67688397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018031292A Active JP6992590B2 (ja) | 2018-02-23 | 2018-02-23 | 特徴表現装置、特徴表現方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11416710B2 (ja) |
JP (1) | JP6992590B2 (ja) |
WO (1) | WO2019163985A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210133213A1 (en) * | 2019-10-31 | 2021-05-06 | Vettd, Inc. | Method and system for performing hierarchical classification of data |
US11507800B2 (en) | 2018-03-06 | 2022-11-22 | Adobe Inc. | Semantic class localization digital environment |
US11347965B2 (en) | 2019-03-21 | 2022-05-31 | Illumina, Inc. | Training data generation for artificial intelligence-based sequencing |
US11210554B2 (en) | 2019-03-21 | 2021-12-28 | Illumina, Inc. | Artificial intelligence-based generation of sequencing metadata |
US11494616B2 (en) * | 2019-05-09 | 2022-11-08 | Shenzhen Malong Technologies Co., Ltd. | Decoupling category-wise independence and relevance with self-attention for multi-label image classification |
US11593649B2 (en) | 2019-05-16 | 2023-02-28 | Illumina, Inc. | Base calling using convolutions |
JP7458741B2 (ja) * | 2019-10-21 | 2024-04-01 | キヤノン株式会社 | ロボット制御装置及びその制御方法及びプログラム |
CN111430024B (zh) * | 2020-01-06 | 2023-07-11 | 中南大学 | 一种用于疾病程度分类的数据决策方法及其系统 |
JP7365261B2 (ja) | 2020-01-07 | 2023-10-19 | 株式会社ゼンリン | コンピュータシステムおよびプログラム |
EP3862926A1 (en) * | 2020-02-10 | 2021-08-11 | Robert Bosch GmbH | Method of identifying filters in a neural network, system and storage medium of the same |
KR20220143854A (ko) | 2020-02-20 | 2022-10-25 | 일루미나, 인코포레이티드 | 인공 지능 기반 다-대-다 염기 호출 |
CN111666861A (zh) * | 2020-06-01 | 2020-09-15 | 浙江工业大学 | 一种适用于基于卷积神经网络的无线信号调制分类器可视化方法 |
CN111881994B (zh) * | 2020-08-03 | 2024-04-05 | 杭州睿琪软件有限公司 | 识别处理方法及设备和非暂态计算机可读存储介质 |
US11914641B2 (en) * | 2021-02-26 | 2024-02-27 | Adobe Inc. | Text to color palette generator |
US20220336054A1 (en) | 2021-04-15 | 2022-10-20 | Illumina, Inc. | Deep Convolutional Neural Networks to Predict Variant Pathogenicity using Three-Dimensional (3D) Protein Structures |
US11756239B2 (en) | 2021-04-26 | 2023-09-12 | Adobe, Inc. | Multi-modal image color segmenter and editor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017062781A (ja) | 2015-09-22 | 2017-03-30 | ゼロックス コーポレイションXerox Corporation | 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知 |
JP2017091525A (ja) | 2015-11-03 | 2017-05-25 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008005520A (ja) * | 2001-05-30 | 2008-01-10 | Victor Co Of Japan Ltd | Mpegデータ記録再生装置 |
US9461876B2 (en) * | 2012-08-29 | 2016-10-04 | Loci | System and method for fuzzy concept mapping, voting ontology crowd sourcing, and technology prediction |
JP5756443B2 (ja) | 2012-09-25 | 2015-07-29 | 日本電信電話株式会社 | 画像分類装置及び画像識別装置並びにプログラム |
US20180247549A1 (en) * | 2017-02-21 | 2018-08-30 | Scriyb LLC | Deep academic learning intelligence and deep neural language network system and interfaces |
US10437252B1 (en) * | 2017-09-08 | 2019-10-08 | Perceptln Shenzhen Limited | High-precision multi-layer visual and semantic map for autonomous driving |
US10794710B1 (en) * | 2017-09-08 | 2020-10-06 | Perceptin Shenzhen Limited | High-precision multi-layer visual and semantic map by autonomous units |
US11347965B2 (en) * | 2019-03-21 | 2022-05-31 | Illumina, Inc. | Training data generation for artificial intelligence-based sequencing |
-
2018
- 2018-02-23 JP JP2018031292A patent/JP6992590B2/ja active Active
-
2019
- 2019-02-25 WO PCT/JP2019/007026 patent/WO2019163985A1/ja active Application Filing
- 2019-02-25 US US16/971,635 patent/US11416710B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017062781A (ja) | 2015-09-22 | 2017-03-30 | ゼロックス コーポレイションXerox Corporation | 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知 |
JP2017091525A (ja) | 2015-11-03 | 2017-05-25 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 |
Non-Patent Citations (1)
Title |
---|
David Bau 外4名,Network Dissection: Quantifying Interpretability of Deep Visual Representations,2017 IEEE Conference on Computer Vision and Pattern Recognition. [online],IEEE,2017年,pp. 3319-3327,[令和3年4月28日検索], インターネット <https://ieeexplore.ieee.org/document/8099837> |
Also Published As
Publication number | Publication date |
---|---|
WO2019163985A1 (ja) | 2019-08-29 |
US11416710B2 (en) | 2022-08-16 |
JP2019145040A (ja) | 2019-08-29 |
US20210089827A1 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6992590B2 (ja) | 特徴表現装置、特徴表現方法、およびプログラム | |
CN107833213B (zh) | 一种基于伪真值自适应法的弱监督物体检测方法 | |
JP5823270B2 (ja) | 画像認識装置及び方法 | |
WO2020164278A1 (zh) | 一种图像处理方法、装置、电子设备和可读存储介质 | |
CN107203775B (zh) | 一种图像分类的方法、装置和设备 | |
CN107730553B (zh) | 一种基于伪真值搜寻法的弱监督物体检测方法 | |
JP5346756B2 (ja) | 画像分類装置 | |
CN107622280B (zh) | 基于场景分类的模块化处方式图像显著性检测方法 | |
JP4926266B2 (ja) | 学習データ作成装置、学習データ作成方法及びプログラム | |
CN114510594A (zh) | 一种基于自注意力机制的传统纹样子图检索方法 | |
Bharath et al. | Scalable scene understanding using saliency-guided object localization | |
JP6764992B2 (ja) | 検索システム、検索方法、及びプログラム | |
JP2016103759A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN113963295A (zh) | 视频片段中地标识别方法、装置、设备及存储介质 | |
WO2007026951A1 (ja) | 画像検索方法及び装置 | |
Shah | Face detection from images using support vector machine | |
Khelifi et al. | Mc-SSM: nonparametric semantic image segmentation with the ICM algorithm | |
JP2019023801A (ja) | 画像認識装置、画像認識方法、及び画像認識プログラム | |
KR102058393B1 (ko) | 스케치 기반의 영상표절 검사 방법 및 장치 | |
JP6194260B2 (ja) | 画像分類装置、画像分類方法及び画像分類プログラム | |
Virupakshappa et al. | Traffic sign recognition based on prevailing bag of visual words representation on feature descriptors | |
CN112699898A (zh) | 一种基于多层特征融合的图像方向识别方法 | |
Calarasanu et al. | From text detection to text segmentation: a unified evaluation scheme | |
Manimekalai et al. | Taxonomic classification of Plant species using support vector machine | |
Chen et al. | Outdoor scene classification using labeled segments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6992590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |