JP7346596B2 - 画像処理システム及びプログラム - Google Patents
画像処理システム及びプログラム Download PDFInfo
- Publication number
- JP7346596B2 JP7346596B2 JP2021569657A JP2021569657A JP7346596B2 JP 7346596 B2 JP7346596 B2 JP 7346596B2 JP 2021569657 A JP2021569657 A JP 2021569657A JP 2021569657 A JP2021569657 A JP 2021569657A JP 7346596 B2 JP7346596 B2 JP 7346596B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- observation method
- region
- detection
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Surgery (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
Description
医師が内視鏡システムを用いて診断等を行う際、種々の観察方法が用いられる。ここでの観察とは、具体的には撮像画像を用いて被写体の状態を見ることである。撮像画像とは、具体的には生体内画像である。内視鏡装置の照明光の種類や、被写体の状態に応じて、観察方法が変化する。観察方法としては、通常光を照明光として照射することによって撮像を行う観察方法である通常光観察、特殊光を照明光として照射することによって撮像を行う観察方法である特殊光観察、染料を被写体に散布した状態で撮像を行う観察方法である色素散布観察等が考えられる。以下の説明においては、通常光観察において撮像される画像を通常光画像と表記し、特殊光観察において撮像される画像を特殊光画像と表記し、色素散布観察において撮像される画像を色素散布画像と表記する。
2.1 学習処理
まず機械学習の概要について説明する。以下では、ニューラルネットワークを用いた機械学習について説明するが、本実施形態の手法はこれに限定されない。本実施形態においては、例えばSVM(support vector machine)等の他のモデルを用いた機械学習が行われてもよいし、ニューラルネットワークやSVM等の種々の手法を発展させた手法を用いた機械学習が行われてもよい。
図9は、第1の実施形態における画像処理システム200の構成例である。画像処理システム200の処理部220は、認識処理部221と、出力処理部222を含む。認識処理部221は、学習装置100によって生成された学習済モデルに従って動作する。出力処理部222は、学習済モデルの演算結果に基づいて出力処理を行う。
3.1 学習処理
第1の実施形態においては、学習装置100が1つの学習済モデルを生成し、画像処理システム200は、当該1つの学習済モデルに基づいて、少なくとも特殊光画像又は色素散布画像を対象とした注目領域の認識処理を行う手法について説明した。ただし、本実施形態の認識処理は、複数の学習済モデルを用いて行われてもよい。なお、第2の実施形態においても、第2の観察方法が特殊光観察である例について説明するが、第2の観察方法は色素散布観察であってもよい。即ち、以下の説明における、特殊光観察又は特殊光画像との表記を、適宜、色素散布観察及び色素散布画像と読み替えることが可能である。
図14は、第2の実施形態における画像処理システム200の構成例である。画像処理システム200の処理部220は、観察方法混合認識処理部223と、観察方法別認識処理部224と、観察方法分類部225と、統合処理部226と、出力処理部227を含む。観察方法混合認識処理部223は、学習装置100によって生成されたCNN_ABに従って動作する。観察方法別認識処理部224は、学習装置100によって生成されたCNN_A、CNN_Bの少なくとも一方に従って動作する。観察方法分類部225は、学習装置100によって生成された観察方法分類用CNNに従って動作する。統合処理部226は、観察方法混合認識処理部223による認識結果と、観察方法別認識処理部224による認識結果の統合処理を行う。出力処理部227は、統合処理結果に基づいて出力処理を行う。
第2の実施形態では、第2の観察方法が特殊光観察又は色素散布観察のいずれか一方である例を示した。しかし特殊光観察と色素散布観察はいずれか一方を処理対象とするものに限定されず、その両方を処理対象としてもよい。即ち、第3の実施形態における観察方法は、通常光観察と、特殊光観察と、色素散布観察の3つを含む。
Claims (13)
- 内視鏡撮像装置によって撮像された生体内画像を、処理対象画像として取得する画像取得部と、
学習済モデルに従って動作することによって、前記処理対象画像において注目領域を認識した結果である認識結果を出力する処理を行う処理部と、
を含み、
前記学習済モデルは、
第1観察方法において撮像された画像を含む第1画像群を用いてプレトレーニングされ、前記プレトレーニング後に、第2観察方法において撮像された画像を含む第2画像群と、前記第2画像群に含まれる前記注目領域に関する正解データを用いてファインチューニングされることによって学習されており、
前記第1観察方法は、通常光を照明光とする観察方法であり、
前記第2観察方法は、特殊光を前記照明光とする観察方法、又は、被写体に対して色素散布が行われた観察方法であり、
前記第2画像群は、少なくとも1枚は前記注目領域が撮影されている画像を含み、且つ、前記第1画像群よりも枚数が少なく、
前記学習済モデルは、
前記第1画像群を用いてプレトレーニングされ、前記第1観察方法において撮像された画像及び前記第2観察方法において撮像された画像を含む画像群を用いてファインチューニングされることによって学習された第1学習済モデルと、
前記第1画像群を用いてプレトレーニングされ、前記第1観察方法において撮像された画像を含む画像群を用いてファインチューニングされることによって学習された学習済モデル、又は、前記第1画像群を用いてプレトレーニングされ、前記第2観察方法において撮像された画像を含む画像群を用いてファインチューニングされることによって学習された学習済モデルである第2学習済モデルと、
を含み、
前記処理部は、
前記第1学習済モデルに従って動作することによって求めた第1認識結果と、前記第2学習済モデルに従って動作することによって求めた第2認識結果との統合処理を行い、前記統合処理の結果を前記認識結果として出力することを特徴とする画像処理システム。 - 請求項1において、
前記注目領域は、ポリープであることを特徴とする画像処理システム。 - 請求項1において、
前記正解データは、画像内の前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データと、画像内の前記注目領域の悪性度を示す局所分類データのうち少なくとも1つを含むデータであって、
前記認識結果は、画像内の前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出結果と、画像内の前記注目領域の前記悪性度に関連する局所分類結果のうち少なくとも1つを含む結果であることを特徴とする画像処理システム。 - 請求項3において、
前記処理部は、
前記学習済モデルに基づいて、前記検出結果の確からしさを示す検出スコアと、前記局所分類結果の確からしさを示す局所分類スコアと、を求め、
前記検出スコアが所与の検出閾値より大きい場合に、前記検出結果を出力し、前記局所分類スコアが所与の分類閾値より大きい場合に前記局所分類結果を出力することを特徴とする画像処理システム。 - 請求項3において、
前記処理部は、
前記検出結果に基づいて、前記注目領域の大きさ、ボケ、ブレの少なくとも1つに関する条件が満たされるか否かの判定を行い、
前記条件が満たされた場合に、前記検出結果及び前記局所分類結果を出力し、
前記条件が満たされない場合に、前記検出結果を出力し、且つ、前記局所分類結果を出力しない、
ことを特徴とする画像処理システム。 - 請求項3において、
前記処理部は、
前記第1学習済モデルに従って動作することによって前記注目領域に対応する領域である第1領域を前記検出結果として求め、前記第2学習済モデルに従って動作することによって前記注目領域に対応する領域である第2領域を前記検出結果として求め、
前記第1領域と前記第2領域の重なり度合いに基づいて、前記第1領域及び前記第2領域が同一の前記注目領域に対応する領域であるか否かを判定することを特徴とする画像処理システム。 - 請求項6おいて、
前記第1領域及び前記第2領域は、画像内の前記注目領域を囲う枠である検出枠であり、
前記処理部は、
前記第1領域に対応する前記検出枠と、前記第2領域に対応する前記検出枠の前記重なり度合いであるIOU(Intersection over Union)を算出し、前記IOUが所定の閾値以上である場合に、前記第1領域及び前記第2領域が同一の前記注目領域に対応すると判定することを特徴とする画像処理システム。 - 請求項6において、
前記処理部は、
前記第1領域と前記第2領域が同一の前記注目領域に対応すると判定され、且つ、前記第1領域に対応する前記局所分類結果と、前記第2領域に対応する前記局所分類結果が異なる場合に、前記局所分類結果の確からしさを表す局所分類スコアの大きな前記局所分類結果を選択する処理を行うことを特徴とする画像処理システム。 - 請求項1において、
前記学習済モデルは、コンボリューショナルニューラルネットワーク(Convolutional Neural Network)からなることを特徴とする画像処理システム。 - 請求項1において、
前記第2学習済モデルは、
前記第1画像群を用いてプレトレーニングされ、前記第2画像群を用いてファインチューニングされることによって学習された第2観察方法用学習済モデルと、
前記第1画像群を用いてプレトレーニングされ、前記第1観察方法において撮像された画像を含む第3画像群を用いてファインチューニングされることによって学習された第1観察方法用学習済モデルと、を含むことを特徴とする画像処理システム。 - 請求項10において、
前記第1画像群は、前記第1観察方法において撮像された画像に対して、前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データが前記正解データとして付与された画像を含み、
前記第3画像群は、前記第1観察方法において撮像された画像に対して、前記検出データ、及び、前記注目領域の悪性度を示す局所分類データが前記正解データとして付与された画像を含むことを特徴とする画像処理システム。 - 請求項3において、
前記学習済モデルは、
前記処理対象画像に基づいて特徴量を出力する特徴量抽出層と、前記特徴量に基づいて前記検出結果を表す情報を出力する検出層と、前記特徴量に基づいて前記局所分類結果を表す情報を出力する局所分類層と、を含み、
前記検出データが前記正解データとして付与された画像を含む前記第1画像群を用いた前記プレトレーニングによって、前記特徴量抽出層及び前記検出層における重み付け係数が学習され、
前記検出データ及び前記局所分類データが前記正解データとして付与された画像を含む前記第2画像群を用いた前記ファインチューニングによって、前記特徴量抽出層及び前記検出層及び前記局所分類層における前記重み付け係数が学習されることを特徴とする画像処理システム。 - 内視鏡撮像装置によって撮像された生体内画像を、処理対象画像として取得し、
学習済モデルに従って動作することによって、前記処理対象画像において注目領域を認識した結果である認識結果を出力する処理を行う、
ステップをコンピュータに実行させるプログラムであって、
前記学習済モデルは、
第1観察方法において撮像された画像を含む第1画像群を用いてプレトレーニングされ、前記プレトレーニング後に、第2観察方法において撮像された画像を含む第2画像群と、前記第2画像群に含まれる前記注目領域に関する正解データを用いてファインチューニングされることによって学習されており、
前記第1観察方法は、通常光を照明光とする観察方法であり、
前記第2観察方法は、特殊光を前記照明光とする観察方法、又は、被写体に対して色素散布が行われた観察方法であり、
前記第2画像群は、少なくとも1枚は前記注目領域が撮影されている画像を含み、且つ、前記第1画像群よりも枚数が少なく、
前記学習済モデルは、
前記第1画像群を用いてプレトレーニングされ、前記第1観察方法において撮像された画像及び前記第2観察方法において撮像された画像を含む画像群を用いてファインチューニングされることによって学習された第1学習済モデルと、
前記第1画像群を用いてプレトレーニングされ、前記第1観察方法において撮像された画像を含む画像群を用いてファインチューニングされることによって学習された学習済モデル、又は、前記第1画像群を用いてプレトレーニングされ、前記第2観察方法において撮像された画像を含む画像群を用いてファインチューニングされることによって学習された学習済モデルである第2学習済モデルと、
を含み、
前記認識結果を出力する処理を行うステップにおいて、
前記第1学習済モデルに従って動作することによって求めた第1認識結果と、前記第2学習済モデルに従って動作することによって求めた第2認識結果との統合処理を行い、前記統合処理の結果を前記認識結果として出力することを特徴とするプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/000377 WO2021140602A1 (ja) | 2020-01-09 | 2020-01-09 | 画像処理システム、学習装置及び学習方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021140602A1 JPWO2021140602A1 (ja) | 2021-07-15 |
JPWO2021140602A5 JPWO2021140602A5 (ja) | 2022-08-30 |
JP7346596B2 true JP7346596B2 (ja) | 2023-09-19 |
Family
ID=76787910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021569657A Active JP7346596B2 (ja) | 2020-01-09 | 2020-01-09 | 画像処理システム及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220335610A1 (ja) |
JP (1) | JP7346596B2 (ja) |
WO (1) | WO2021140602A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023126999A1 (ja) | 2021-12-27 | 2023-07-06 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び、記憶媒体 |
CN115019092B (zh) * | 2022-06-02 | 2024-06-14 | 深圳市华汉伟业科技有限公司 | 一种基于伪彩色图的分类网络辅助分析方法及装置 |
WO2024084578A1 (ja) * | 2022-10-18 | 2024-04-25 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
CN116862868B (zh) * | 2023-07-05 | 2024-07-09 | 重庆大学 | 低光度混凝土桥梁表观病害智能检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180225820A1 (en) | 2015-08-07 | 2018-08-09 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy |
CN109523532A (zh) | 2018-11-13 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
WO2020003991A1 (ja) | 2018-06-28 | 2020-01-02 | 富士フイルム株式会社 | 医療画像学習装置、方法及びプログラム |
-
2020
- 2020-01-09 WO PCT/JP2020/000377 patent/WO2021140602A1/ja active Application Filing
- 2020-01-09 JP JP2021569657A patent/JP7346596B2/ja active Active
-
2022
- 2022-07-05 US US17/857,385 patent/US20220335610A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180225820A1 (en) | 2015-08-07 | 2018-08-09 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy |
WO2020003991A1 (ja) | 2018-06-28 | 2020-01-02 | 富士フイルム株式会社 | 医療画像学習装置、方法及びプログラム |
CN109523532A (zh) | 2018-11-13 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
LIU, Xiaoqi et al.,Fine-tuning Pre-trained Convolutional Neural Networks for Gastric Precancerous Disease Classificatio,Neurocomputing,2019年,ISSN: 0925-2312, DOI: 10.1016/j.neucom.2018.10.100 |
Also Published As
Publication number | Publication date |
---|---|
WO2021140602A1 (ja) | 2021-07-15 |
JPWO2021140602A1 (ja) | 2021-07-15 |
US20220335610A1 (en) | 2022-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7346596B2 (ja) | 画像処理システム及びプログラム | |
US11721086B2 (en) | Image processing system and image processing method | |
Iqbal et al. | Recent trends and advances in fundus image analysis: A review | |
US10482313B2 (en) | Method and system for classification of endoscopic images using deep decision networks | |
EP3829416B1 (en) | Method and system for augmented imaging in open treatment using multispectral information | |
Akbar et al. | Automated techniques for blood vessels segmentation through fundus retinal images: A review | |
JP2021532881A (ja) | マルチスペクトル情報を用いた拡張画像化のための方法およびシステム | |
JP2020509455A (ja) | プログラム可能光源を使用する画像のマルチクラス分類のシステムおよび方法 | |
JP7231762B2 (ja) | 画像処理方法、学習装置、画像処理装置及びプログラム | |
US20220351483A1 (en) | Image processing system, endoscope system, image processing method, and storage medium | |
JP7278202B2 (ja) | 画像学習装置、画像学習方法、ニューラルネットワーク、及び画像分類装置 | |
JP7005767B2 (ja) | 内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラム | |
WO2021181520A1 (ja) | 画像処理システム、画像処理装置、内視鏡システム、インターフェース及び画像処理方法 | |
US20230050945A1 (en) | Image processing system, endoscope system, and image processing method | |
US20230005247A1 (en) | Processing system, image processing method, learning method, and processing device | |
US20240127446A1 (en) | Semi-supervised fundus image quality assessment method using ir tracking | |
Kiefer et al. | A survey of glaucoma detection algorithms using fundus and OCT images | |
US20230260117A1 (en) | Information processing system, endoscope system, and information processing method | |
JP7162744B2 (ja) | 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法 | |
US20230100147A1 (en) | Diagnosis support system, diagnosis support method, and storage medium | |
WO2021044590A1 (ja) | 内視鏡システム、処理システム、内視鏡システムの作動方法及び画像処理プログラム | |
WO2022228396A1 (zh) | 内窥镜多光谱图像处理系统及处理和训练方法 | |
WO2023049401A1 (en) | Systems and methods for perfusion quantification | |
CA3205896A1 (en) | Machine learning enabled system for skin abnormality interventions | |
WO2021140601A1 (ja) | 画像処理システム、内視鏡システム及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230906 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7346596 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |