JP2020030480A - 畳み込みニューラルネットワーク並びにこれを用いた画像識別装置及び画像識別方法、並びに学習手段 - Google Patents
畳み込みニューラルネットワーク並びにこれを用いた画像識別装置及び画像識別方法、並びに学習手段 Download PDFInfo
- Publication number
- JP2020030480A JP2020030480A JP2018154214A JP2018154214A JP2020030480A JP 2020030480 A JP2020030480 A JP 2020030480A JP 2018154214 A JP2018154214 A JP 2018154214A JP 2018154214 A JP2018154214 A JP 2018154214A JP 2020030480 A JP2020030480 A JP 2020030480A
- Authority
- JP
- Japan
- Prior art keywords
- partial
- neural network
- convolutional neural
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2111—Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
演算層が階層的に複数接続されて構成された畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)であって、
特定階層より後の階層にある演算層の処理を行う複数の部分ニューラルネットワークを有し、前記複数の部分ニューラルネットワークのそれぞれには、前記特定階層の同じ演算層の出力のうち、互いに異なるデータが入力されるように構成されていることを特徴とする。
以下ではまず、CNNを顔認証に使用する場合を例として、分岐面に部分領域を2つ設定する場合のCNNの構成例について説明する。ただし、認証するオブジェクトは顔には限定されず、本発明に係るCNNを人体又は物体の認証のために用いてもよい。
実施形態1に係るネットワークに、分岐面が1つあり、この分岐面から先が複数の部分ネットワークに分割されていた。実施形態2に係るネットワークには、複数の分岐面があり、それぞれの分岐面から先が部分ネットワークに分割されている。すなわち、少なくとも1つの部分ニューラルネットワーク(第1部分ネットワーク)は、特定階層の演算層の出力のうち一部(部分領域106)を入力として処理を行う第1部分を有している。また、第1部分ネットワークはさらに、第1部分の出力(特徴面401)のうち互いに異なるデータ(部分領域402及び403)を入力として処理を行う第2部分及び第3部分を有している。
実施形態1,2では、学習により得られたCNNのパラメータ(例えば畳み込みフィルタ演算のフィルタカーネル又は全結合層の結合係数)を用いて認識処理を行う構成について説明した。実施形態3では、各実施形態に係るCNNのパラメータの学習装置及び学習方法を説明する。
上記の実施形態では、複数の部分ニューラルネットワークは、互いに同じ演算層の階層構造を有していた。すなわち、ある分岐面以降の部分ネットワークは、お互いに同じネットワーク構造を有していた。例えば、図1において、第1及び第2部分ネットワークは同じ構造を有しており、具体的にはネットワークの階層数及び各階層の特徴面の数が同じであった。一方で、学習の結果、第1及び第2部分ネットワークにおいては各演算層の演算パラメータが互いに異なっており、このために部分領域ごとに適した特徴抽出を行うことが可能であった。しかしながら、本発明はこのような構成には限定されず、複数の部分ニューラルネットワークは、互いに異なる演算層の階層構造を有していてもよい。すなわち、分岐面以降の部分ネットワークが異なる構成を有していてもよい。
Claims (15)
- 演算層が階層的に複数接続されて構成された畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)であって、
特定階層より後の階層にある演算層の処理を行う複数の部分ニューラルネットワークを有し、前記複数の部分ニューラルネットワークのそれぞれには、前記特定階層の同じ演算層の出力のうち、互いに異なるデータが入力されるように構成されていることを特徴とする、畳み込みニューラルネットワーク。 - 前記特定階層の演算層の出力は、三次元構造を有するデータとして表現され、
前記部分ニューラルネットワークには、前記特定階層の演算層の出力のうち、前記三次元構造のうち少なくとも一つの次元方向に関して限定された範囲内にあるデータが入力されるように構成されていることを特徴とする、請求項1に記載の畳み込みニューラルネットワーク。 - 前記畳み込みニューラルネットワークは画像データが入力されるように構成され、
前記部分ニューラルネットワークは、前記特定階層の演算層の出力のうち、画像領域に関して限定された範囲内にあるデータが入力されるように構成されていることを特徴とする、請求項1又は2に記載の畳み込みニューラルネットワーク。 - 前記複数の部分ニューラルネットワークのうちの第1の部分ニューラルネットワークは、前記特定階層の演算層の出力のうち、画像の第1の領域に対応するデータが入力され、
前記複数の部分ニューラルネットワークのうちの第2の部分ニューラルネットワークは、前記特定階層の演算層の出力のうち、画像の第2の領域に対応するデータが入力され、
前記第1の領域に対応するデータと前記第2の領域に対応するデータとは部分的に重複するように構成されていることを特徴とする、請求項3に記載の畳み込みニューラルネットワーク。 - 前記複数の部分ニューラルネットワークは、互いに同じ演算層の階層構造を有するが、各演算層の演算パラメータが互いに異なることを特徴とする、請求項1から4のいずれか1項に記載の畳み込みニューラルネットワーク。
- 前記複数の部分ニューラルネットワークは、互いに異なる演算層の階層構造を有することを特徴とする、請求項1から4のいずれか1項に記載の畳み込みニューラルネットワーク。
- 少なくとも1つの前記部分ニューラルネットワークは、前記特定階層の演算層の出力のうち一部を入力として処理を行う第1部分と、前記第1部分の出力のうち互いに異なるデータを入力として処理を行う第2部分及び第3部分と、を有していることを特徴とする、請求項1から6のいずれか1項に記載の畳み込みニューラルネットワーク。
- 前記複数の部分ニューラルネットワークは、中間層において互いに演算結果を交換することなく独立に処理が行うことができるように構成されていることを特徴とする、請求項1から7のいずれか1項に記載の畳み込みニューラルネットワーク。
- 前記複数の部分ニューラルネットワークからの出力を統合する統合演算層を有することを特徴とする、請求項1から8のいずれか1項に記載の畳み込みニューラルネットワーク。
- 前記畳み込みニューラルネットワークのパラメータは、前記部分ニューラルネットワークごとに算出されたコストを、前記部分ニューラルネットワークごとに設定された重みを用いて重み付け加算することにより算出される全体コストを小さくするように学習を行うことで得られたものであることを特徴とする、請求項1から9のいずれか1項に記載の畳み込みニューラルネットワーク。
- 前記部分ニューラルネットワークごとの重みも前記学習により決定されることを特徴とする、請求項10に記載の畳み込みニューラルネットワーク。
- 前記畳み込みニューラルネットワークのパラメータは、前記複数の部分ニューラルネットワークからの出力の統合結果に基づいて算出されたコストを小さくするように学習を行うことで得られたものであることを特徴とする、請求項1から9のいずれか1項に記載の畳み込みニューラルネットワーク。
- 請求項1から12のいずれか1項に記載の畳み込みニューラルネットワークに画像データを入力することにより画像の特徴量を抽出する抽出手段と、
前記抽出手段が抽出した特徴量に基づいて前記画像の識別を行う処理手段と、
を備えることを特徴とする画像識別装置。 - 請求項1から12のいずれか1項に記載の畳み込みニューラルネットワークを用いて画像の特徴量を抽出する工程と、
抽出された前記特徴量に基づいて前記画像の識別を行う処理工程と、
を有することを特徴とする画像識別方法。 - 演算層が階層的に複数接続されて構成された畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)の学習を行う学習装置であって、
前記畳み込みニューラルネットワークは、特定階層より後の階層にある演算層の処理を行う複数の部分ニューラルネットワークを有し、前記複数の部分ニューラルネットワークのそれぞれには、前記特定階層の同じ演算層の出力のうち、互いに異なるデータが入力されるように構成されており、
前記学習装置は、前記複数の部分ニューラルネットワークのそれぞれからの出力に基づいて算出されるコストを小さくするように、前記畳み込みニューラルネットワークのパラメータを学習する学習手段を備えることを特徴とする学習装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154214A JP7257756B2 (ja) | 2018-08-20 | 2018-08-20 | 画像識別装置、画像識別方法、学習装置、及びニューラルネットワーク |
US16/535,289 US11256953B2 (en) | 2018-08-20 | 2019-08-08 | Image identification apparatus, image identification method, training apparatus, and neural network having sub-neural networks respectively inputted with mutually different data |
US17/583,706 US11948091B2 (en) | 2018-08-20 | 2022-01-25 | Image identification apparatus, image identification method, training apparatus, and neural network having sub-neural networks respectively inputted with mutually different data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154214A JP7257756B2 (ja) | 2018-08-20 | 2018-08-20 | 画像識別装置、画像識別方法、学習装置、及びニューラルネットワーク |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020030480A true JP2020030480A (ja) | 2020-02-27 |
JP2020030480A5 JP2020030480A5 (ja) | 2021-09-30 |
JP7257756B2 JP7257756B2 (ja) | 2023-04-14 |
Family
ID=69522952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018154214A Active JP7257756B2 (ja) | 2018-08-20 | 2018-08-20 | 画像識別装置、画像識別方法、学習装置、及びニューラルネットワーク |
Country Status (2)
Country | Link |
---|---|
US (2) | US11256953B2 (ja) |
JP (1) | JP7257756B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10915734B2 (en) * | 2018-09-28 | 2021-02-09 | Apple Inc. | Network performance by including attributes |
US20210056357A1 (en) * | 2019-08-19 | 2021-02-25 | Board Of Trustees Of Michigan State University | Systems and methods for implementing flexible, input-adaptive deep learning neural networks |
CN111401291B (zh) * | 2020-03-24 | 2023-07-14 | 盛景智能科技(嘉兴)有限公司 | 陌生人的识别方法和装置 |
JP7486349B2 (ja) * | 2020-05-28 | 2024-05-17 | キヤノン株式会社 | ニューラルネットワーク、ニューラルネットワークの学習方法、プログラム、画像処理装置 |
TWI815616B (zh) * | 2022-08-17 | 2023-09-11 | 所羅門股份有限公司 | 物件偵測方法及裝置、電腦可讀取的記錄媒體 |
CN115114033B (zh) * | 2022-08-30 | 2022-12-06 | 上海芯算极科技有限公司 | 一种基于层数分割的异构计算方法及装置 |
CN116310745B (zh) * | 2023-05-10 | 2024-01-23 | 北京瑞莱智慧科技有限公司 | 图像处理方法、数据处理方法、相关装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03268074A (ja) * | 1990-03-19 | 1991-11-28 | Hitachi Ltd | パターン認識方式および装置 |
JP2014229015A (ja) * | 2013-05-21 | 2014-12-08 | 富士ソフト株式会社 | 顔認識装置、顔認識方法、およびコンピュータプログラム |
JP2017538195A (ja) * | 2014-10-27 | 2017-12-21 | イーベイ インク.Ebay Inc. | 階層深層畳み込みニューラルネットワーク |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105849747B (zh) * | 2013-11-30 | 2018-08-17 | 北京市商汤科技开发有限公司 | 用于人脸图像识别的方法和系统 |
US10062412B2 (en) * | 2015-06-05 | 2018-08-28 | Apple Inc. | Hierarchical segmentation and quality measurement for video editing |
US9552520B1 (en) * | 2015-07-07 | 2017-01-24 | Disney Enterprises, Inc. | Systems and methods for automatic key frame extraction and storyboard interface generation for video |
JP2017102671A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 識別装置、調整装置、情報処理方法及びプログラム |
CN105677735B (zh) * | 2015-12-30 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 一种视频搜索方法及装置 |
WO2017166019A1 (en) * | 2016-03-28 | 2017-10-05 | Xiaogang Wang | Method and system for pose estimation |
CN108229363A (zh) * | 2017-12-27 | 2018-06-29 | 北京市商汤科技开发有限公司 | 关键帧调度方法和装置、电子设备、程序和介质 |
US11577388B2 (en) * | 2019-06-27 | 2023-02-14 | Intel Corporation | Automatic robot perception programming by imitation learning |
-
2018
- 2018-08-20 JP JP2018154214A patent/JP7257756B2/ja active Active
-
2019
- 2019-08-08 US US16/535,289 patent/US11256953B2/en active Active
-
2022
- 2022-01-25 US US17/583,706 patent/US11948091B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03268074A (ja) * | 1990-03-19 | 1991-11-28 | Hitachi Ltd | パターン認識方式および装置 |
JP2014229015A (ja) * | 2013-05-21 | 2014-12-08 | 富士ソフト株式会社 | 顔認識装置、顔認識方法、およびコンピュータプログラム |
JP2017538195A (ja) * | 2014-10-27 | 2017-12-21 | イーベイ インク.Ebay Inc. | 階層深層畳み込みニューラルネットワーク |
Non-Patent Citations (2)
Title |
---|
ZONGTAO SONG: "Deep convolutional neural networks with adaptive spatial feature for person re-identification", 2017 IEEE 2ND ADVANCED INFORMATION TECHNOLOGY, ELECTRONIC AND AUTOMATION CONTROL CONFERENCE (IAEAC), JPN6022036360, 2017, pages 2020 - 2023, XP033158880, ISSN: 0004865179, DOI: 10.1109/IAEAC.2017.8054370 * |
福井 宏: "Deep Learningを用いた歩行者検出の研究動向", 電子情報通信学会技術研究報告 パターン認識・メディア理解, vol. 第116巻,第366号, JPN6022036359, December 2016 (2016-12-01), pages 37 - 46, ISSN: 0004865178 * |
Also Published As
Publication number | Publication date |
---|---|
US20200057916A1 (en) | 2020-02-20 |
US11256953B2 (en) | 2022-02-22 |
JP7257756B2 (ja) | 2023-04-14 |
US11948091B2 (en) | 2024-04-02 |
US20220148300A1 (en) | 2022-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7257756B2 (ja) | 画像識別装置、画像識別方法、学習装置、及びニューラルネットワーク | |
CN113449857B (zh) | 一种数据处理方法和数据处理设备 | |
KR102068576B1 (ko) | 합성곱 신경망 기반 이미지 처리 시스템 및 방법 | |
Duan et al. | 3D point cloud denoising via deep neural network based local surface estimation | |
Ling et al. | Balancing deformability and discriminability for shape matching | |
KR20160061856A (ko) | 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치 | |
KR20160072768A (ko) | 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치 | |
Liu et al. | A part‐aware surface metric for shape analysis | |
KR20180057096A (ko) | 표정 인식과 트레이닝을 수행하는 방법 및 장치 | |
CN109993730B (zh) | 3d/2d血管配准方法及装置 | |
Jemai et al. | Pyramidal hybrid approach: Wavelet network with OLS algorithm-based image classification | |
KR20180055070A (ko) | 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치 | |
WO2018207334A1 (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
KR102188732B1 (ko) | 기하학적 모멘트 매칭을 통한 구 위에서의 적대적 생성망을 이용하는 데이터 처리 장치 및 방법 | |
Pérez et al. | An ensemble-based convolutional neural network model powered by a genetic algorithm for melanoma diagnosis | |
KR102166016B1 (ko) | 이미지 대 이미지의 변환을 위한 도메인 인식 기반의 변환 기법 | |
Verma et al. | Two-stage multi-view deep network for 3D human pose reconstruction using images and its 2D joint heatmaps through enhanced stack-hourglass approach | |
Ostonov et al. | Rlss: A deep reinforcement learning algorithm for sequential scene generation | |
KR20200023673A (ko) | 백내장 진단을 위한 토너먼트 기반의 랭킹 컨볼루셔널 뉴럴 네트워크 | |
JP7430254B2 (ja) | 場所認識のための視覚的オブジェクトインスタンス記述子 | |
Juhl et al. | Implicit neural distance representation for unsupervised and supervised classification of complex anatomies | |
KR102504319B1 (ko) | 영상 객체 속성 분류 장치 및 방법 | |
Chen et al. | Advanced ear detection algorithm using faster r-cnn, refocus filters, and the gradient map | |
Alwaely et al. | Ghosm: Graph-based hybrid outline and skeleton modelling for shape recognition | |
CN112036446A (zh) | 目标识别特征融合的方法、系统、介质及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210820 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7257756 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |