JP7346603B2 - 生物学関連のデータを処理するためのシステムおよび方法ならびに顕微鏡 - Google Patents
生物学関連のデータを処理するためのシステムおよび方法ならびに顕微鏡 Download PDFInfo
- Publication number
- JP7346603B2 JP7346603B2 JP2021572432A JP2021572432A JP7346603B2 JP 7346603 B2 JP7346603 B2 JP 7346603B2 JP 2021572432 A JP2021572432 A JP 2021572432A JP 2021572432 A JP2021572432 A JP 2021572432A JP 7346603 B2 JP7346603 B2 JP 7346603B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional representation
- biologically
- machine learning
- input data
- based input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
Description
1.事前にトレーニングされた視覚モデルは、撮像装置またはデータベースから到来した画像の画像コンテンツを認識することができ、適切な第2のモデルを選択する。このモデル選択は、上述したように達成可能である。
2.第2の事前にトレーニングされた視覚モデルは、撮像装置またはデータベースから到来した一連の画像のそれぞれの埋め込みを生成することができる。
3.これらの意味論的埋め込みを、テキスト・ツー・イメージ検索またはイメージ・ツー・イメージ検索または他の検索のような将来の検索のためにデータベースに書き込むことができる。
4.オプションとして埋め込みを、適切なモデルによってテキストに、または(上記のような)粗視化された検索用語または他の対人可読形式に再変換することができる。
107 生物学関連の画像ベースの入力データ
109 生物学関連の言語ベースの出力データ
110 1つまたは複数のプロセッサ
120 1つまたは複数のストレージデバイス
200 生物学関連のデータを処理するためのシステム
201 リポジトリ
210 第1のモデル
220 事前にトレーニングされた視覚モデル
230 意味論的埋め込み;高次元表現
240 事前にトレーニングされた視覚モデル;トレーニングされた視覚認識機械学習アルゴリズム
250 テキストモデル;トレーニングされた言語認識機械学習アルゴリズム
260 データベース
300 生物学関連のデータを処理するためのシステム
310 顕微鏡
320 コンピュータデバイス
400 生物学関連の画像ベースの入力データを処理するための方法
410 生物学関連の画像ベースの入力データを取得すること
420 高次元表現を生成すること
430 格納または出力のうちの少なくとも1つを実施すること
Claims (15)
- 1つまたは複数のプロセッサ(110)と、1つまたは複数のストレージデバイス(120)と、を含むシステム(100,200)であって、前記システム(100,200)は、
生物学関連の画像ベースの入力データ(107)を取得し、
前記1つまたは複数のプロセッサ(110)によって実行されるトレーニングされた視覚認識機械学習アルゴリズム(220)によって、前記生物学関連の画像ベースの入力データ(107)の高次元表現(230)を生成し、前記高次元表現(230)は、それぞれ異なる値を有する少なくとも3つのエントリを含み、前記高次元表現(230)は、100を超える次元を含み、前記高次元表現(230)は、ベクトルであり、
前記1つまたは複数のストレージデバイス(120)によって、前記生物学関連の画像ベースの入力データ(107)の前記高次元表現(230)を、前記生物学関連の画像ベースの入力データ(107)と共に格納する、
ように構成されており、
前記システム(100)は、前記1つまたは複数のプロセッサ(110)によって実行されるトレーニングされた言語認識機械学習アルゴリズム(250)のデコーダによって、前記高次元表現(230)に基づいて、前記生物学関連の言語ベースの出力データ(109)を決定するようにさらに構成されている、
システム(100,200)。 - 前記生物学関連の言語ベースの出力データ(109)は、前記トレーニングされた言語認識機械学習アルゴリズム(250)によってトレーニングされた語彙のエントリである、
請求項1記載のシステム。 - 1つまたは複数のプロセッサ(110)と、1つまたは複数のストレージデバイス(120)と、を含むシステム(100,200)であって、前記システム(100,200)は、
生物学関連の画像ベースの入力データ(107)を取得し、
前記1つまたは複数のプロセッサ(110)によって実行されるトレーニングされた視覚認識機械学習アルゴリズム(220)によって、前記生物学関連の画像ベースの入力データ(107)の高次元表現(230)を生成し、前記高次元表現(230)は、それぞれ異なる値を有する少なくとも3つのエントリを含み、前記高次元表現(230)は、100を超える次元を含み、前記高次元表現(230)は、ベクトルであり、
前記1つまたは複数のストレージデバイス(120)によって、前記生物学関連の画像ベースの入力データ(107)の前記高次元表現(230)を、前記生物学関連の画像ベースの入力データ(107)と共に格納する、
ように構成されており、
前記システム(100)は、
複数のトレーニングされた視覚認識機械学習アルゴリズムから、第1の高次元表現(230)を生成するための第1のトレーニングされた視覚認識機械学習アルゴリズム(220)を選択し、
前記複数のトレーニングされた視覚認識機械学習アルゴリズムから、第2のトレーニングされた視覚認識機械学習アルゴリズムを選択し、
前記1つまたは複数のプロセッサ(110)によって実行される前記第2のトレーニングされた視覚認識機械学習アルゴリズムによって、前記生物学関連の画像ベースの入力データ(107)の第2の高次元表現を生成し、前記第2の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含み、
前記1つまたは複数のストレージデバイス(120)によって、前記生物学関連の画像ベースの入力データ(107)の前記第2の高次元表現を、前記第1の高次元表現(230)および前記生物学関連の画像ベースの入力データ(107)と共に格納すること、または、前記第2の高次元表現に対応する、第1の生物学関連の言語ベースの出力データと第2の生物学関連の言語ベースの出力データとを出力すること、のうちの少なくとも1つを実施する、
ようにさらに構成されている、
システム(100,200)。 - 前記生物学関連の画像ベースの入力データ(107)は、ヌクレオチド配列を含む生物学的構造、タンパク質配列を含む生物学的構造、生物学的分子、生物学的組織、特定の挙動を有する生物学的構造、または、特定の生物学的機能もしくは特定の生物学的活動を有する生物学的構造のうちの少なくとも1つの画像の画像データである、
請求項1から3までのいずれか1項記載のシステム。 - 前記高次元表現(230)の1つまたは複数のエントリの値は、特定の生物学的機能または特定の生物学的活動が存在する尤度に比例する、
請求項1から4までのいずれか1項記載のシステム。 - 前記生物学関連の言語ベースの出力データ(109)は、ヌクレオチド配列、タンパク質配列、生物学的分子もしくは生物学的構造の記述、生物学的分子もしくは生物学的構造の挙動の記述、または、生物学的機能もしくは生物学的活動の記述のうちの少なくとも1つである、
請求項1から5までのいずれか1項記載のシステム。 - 前記システムは、生物学的標本の画像を撮影することによって前記生物学関連の画像ベースの入力データ(107)を取得するように構成された顕微鏡をさらに含む、
請求項1から6までのいずれか1項記載のシステム。 - 前記高次元表現(230)は、数値表現である、
請求項1から7までのいずれか1項記載のシステム。 - 前記高次元表現(230)のエントリの値の50%超は、0に等しくない、
請求項1から8までのいずれか1項記載のシステム。 - 前記高次元表現(230)の5つを超えるエントリの値は、前記高次元表現(230)のエントリの最大絶対値の10%よりも大きい、
請求項1から9までのいずれか1項記載のシステム。 - 前記システム(100)は、
複数の生物学関連の画像ベースのデータセットを取得し、
前記1つまたは複数のプロセッサ(110)によって実行される前記トレーニングされた視覚認識機械学習アルゴリズム(220)によって、前記複数の生物学関連の画像ベースのデータセットのうちのそれぞれの生物学関連の画像ベースの入力データセットごとに個々の高次元表現を生成し、
前記1つまたは複数のストレージデバイス(120)によって、前記個々の高次元表現を、それぞれ対応する生物学関連の画像ベースの入力データセットと共に格納すること、または、前記個々の高次元表現に対応する生物学関連の言語ベースの出力データセットを出力すること、のうちの少なくとも1つを実施する、
ように構成されている、
請求項1から10までのいずれか1項記載のシステム。 - 請求項1から11までのいずれか1項記載のシステムを含む、顕微鏡。
- 生物学関連の画像ベースの入力データを処理するための方法(400)であって、前記方法は、
生物学関連の画像ベースの入力データを取得するステップ(410)と、
トレーニングされた視覚認識機械学習アルゴリズムによって、前記生物学関連の画像ベースの入力データの高次元表現を生成するステップであって、前記高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含み、前記高次元表現(230)は、100を超える次元を含み、前記高次元表現(230)は、ベクトルであるステップ(420)と、
前記生物学関連の画像ベースの入力データの前記高次元表現を、前記生物学関連の画像ベースの入力データと共に格納するステップと、
トレーニングされた言語認識機械学習アルゴリズム(250)のデコーダによって、前記高次元表現(230)に基づいて、前記生物学関連の言語ベースの出力データ(109)を決定するステップと、
を含む方法。 - 生物学関連の画像ベースの入力データを処理するための方法(400)であって、前記方法は、
生物学関連の画像ベースの入力データを取得するステップ(410)と、
トレーニングされた視覚認識機械学習アルゴリズムによって、前記生物学関連の画像ベースの入力データの高次元表現を生成するステップであって、前記高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含み、前記高次元表現(230)は、100を超える次元を含み、前記高次元表現(230)は、ベクトルであるステップ(420)と、
前記生物学関連の画像ベースの入力データの前記高次元表現を、前記生物学関連の画像ベースの入力データと共に格納するステップと、
複数のトレーニングされた視覚認識機械学習アルゴリズムから、第1の高次元表現(230)を生成するための第1のトレーニングされた視覚認識機械学習アルゴリズム(220)を選択するステップと、
前記複数のトレーニングされた視覚認識機械学習アルゴリズムから、第2のトレーニングされた視覚認識機械学習アルゴリズムを選択するステップと、
前記第2のトレーニングされた視覚認識機械学習アルゴリズムによって、前記生物学関連の画像ベースの入力データ(107)の第2の高次元表現を生成するステップであって、前記第2の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含むステップと、
前記生物学関連の画像ベースの入力データ(107)の前記第2の高次元表現を、前記第1の高次元表現(230)および前記生物学関連の画像ベースの入力データ(107)と共に格納するステップ、または、前記第2の高次元表現に対応する、第1の生物学関連の言語ベースの出力データと第2の生物学関連の言語ベースの出力データとを出力するステップのうちの少なくとも1つと、
を含む方法。 - プロセッサによって実行されるときに請求項13または14記載の方法を実施するためのプログラムコードを有する、コンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2019/064971 WO2020244776A1 (en) | 2019-06-07 | 2019-06-07 | System and method for processing biology-related data and a microscope |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022542753A JP2022542753A (ja) | 2022-10-07 |
JP7346603B2 true JP7346603B2 (ja) | 2023-09-19 |
Family
ID=66857881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572432A Active JP7346603B2 (ja) | 2019-06-07 | 2019-06-07 | 生物学関連のデータを処理するためのシステムおよび方法ならびに顕微鏡 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220254177A1 (ja) |
EP (1) | EP3980920A1 (ja) |
JP (1) | JP7346603B2 (ja) |
CN (1) | CN114391162A (ja) |
WO (1) | WO2020244776A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115063635A (zh) * | 2022-06-23 | 2022-09-16 | 澜途集思生态科技集团有限公司 | 基于DetNAS算法的生态生物识别方法 |
CN115457548B (zh) * | 2022-09-19 | 2023-06-16 | 清华大学 | 冷冻电镜中的高分辨率密度图配准方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013201909A (ja) | 2012-03-27 | 2013-10-07 | National Institute Of Advanced Industrial Science & Technology | 細胞画像判定装置、方法、並びにプログラム |
JP2016517115A (ja) | 2013-04-17 | 2016-06-09 | ゼネラル・エレクトリック・カンパニイ | 連続的に染色した組織における、1つの細胞の分割を使用する多重化バイオマーカー定量用のシステム及び方法 |
US20170249548A1 (en) | 2016-02-26 | 2017-08-31 | Google Inc. | Processing cell images using neural networks |
JP2018125019A (ja) | 2018-03-27 | 2018-08-09 | エルピクセル株式会社 | 画像処理装置及び画像処理方法 |
US20180232400A1 (en) | 2015-08-03 | 2018-08-16 | Orand S.A. | Sketch-based image searching system using cell-orientation histograms and outline extraction based on medium-level features |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10049450B2 (en) * | 2015-12-03 | 2018-08-14 | Case Western Reserve University | High-throughput adaptive sampling for whole-slide histopathology image analysis |
EP3432784B1 (en) * | 2016-03-24 | 2020-09-23 | The Regents of The University of California | Deep-learning-based cancer classification using a hierarchical classification framework |
WO2018091486A1 (en) * | 2016-11-16 | 2018-05-24 | Ventana Medical Systems, Inc. | Convolutional neural networks for locating objects of interest in images of biological samples |
US10573003B2 (en) * | 2017-02-13 | 2020-02-25 | Amit Sethi | Systems and methods for computational pathology using points-of-interest |
US10769501B1 (en) * | 2017-02-15 | 2020-09-08 | Google Llc | Analysis of perturbed subjects using semantic embeddings |
US10282589B2 (en) * | 2017-08-29 | 2019-05-07 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for detection and classification of cells using convolutional neural networks |
US10846367B2 (en) * | 2017-09-15 | 2020-11-24 | Case Western Reserve University University | Predicting recurrence in early stage non-small cell lung cancer (NSCLC) with integrated radiomic and pathomic features |
US10496884B1 (en) * | 2017-09-19 | 2019-12-03 | Deepradiology Inc. | Transformation of textbook information |
WO2019133538A2 (en) * | 2017-12-29 | 2019-07-04 | Leica Biosystems Imaging, Inc. | Processing of histology images with a convolutional neural network to identify tumors |
US10902591B2 (en) * | 2018-02-09 | 2021-01-26 | Case Western Reserve University | Predicting pathological complete response to neoadjuvant chemotherapy from baseline breast dynamic contrast enhanced magnetic resonance imaging (DCE-MRI) |
JP7126864B2 (ja) * | 2018-05-25 | 2022-08-29 | キヤノンメディカルシステムズ株式会社 | 医用信号処理装置及び学習プログラム |
US11017896B2 (en) * | 2018-06-28 | 2021-05-25 | Case Western Reserve University | Radiomic features of prostate bi-parametric magnetic resonance imaging (BPMRI) associate with decipher score |
US11087864B2 (en) * | 2018-07-17 | 2021-08-10 | Petuum Inc. | Systems and methods for automatically tagging concepts to, and generating text reports for, medical images based on machine learning |
WO2020182710A1 (en) * | 2019-03-12 | 2020-09-17 | F. Hoffmann-La Roche Ag | Multiple instance learner for prognostic tissue pattern identification |
US20240054384A1 (en) * | 2020-07-31 | 2024-02-15 | Meta Platforms, Inc. | Operation-based partitioning of a parallelizable machine learning model network on accelerator hardware |
-
2019
- 2019-06-07 WO PCT/EP2019/064971 patent/WO2020244776A1/en active Application Filing
- 2019-06-07 JP JP2021572432A patent/JP7346603B2/ja active Active
- 2019-06-07 US US17/596,279 patent/US20220254177A1/en active Pending
- 2019-06-07 EP EP19730299.5A patent/EP3980920A1/en active Pending
- 2019-06-07 CN CN201980099041.1A patent/CN114391162A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013201909A (ja) | 2012-03-27 | 2013-10-07 | National Institute Of Advanced Industrial Science & Technology | 細胞画像判定装置、方法、並びにプログラム |
JP2016517115A (ja) | 2013-04-17 | 2016-06-09 | ゼネラル・エレクトリック・カンパニイ | 連続的に染色した組織における、1つの細胞の分割を使用する多重化バイオマーカー定量用のシステム及び方法 |
US20180232400A1 (en) | 2015-08-03 | 2018-08-16 | Orand S.A. | Sketch-based image searching system using cell-orientation histograms and outline extraction based on medium-level features |
US20170249548A1 (en) | 2016-02-26 | 2017-08-31 | Google Inc. | Processing cell images using neural networks |
JP2018125019A (ja) | 2018-03-27 | 2018-08-09 | エルピクセル株式会社 | 画像処理装置及び画像処理方法 |
Non-Patent Citations (2)
Title |
---|
Caleb VUNUNU et al.,A Deep Feature Learning Scheme for Counting the Cells in Microscopy Data,2018 IEEE International Conference on Electronics and Communication Engineering(ICECE),IEEE,2018年,pp.22-26 |
村本尚生他,ヒントワードを活用した画像キャプションの自動生成,情報知識学会誌,日本,情報知識学会,2019年05月25日,第29巻 第2号,pp.153-158 |
Also Published As
Publication number | Publication date |
---|---|
WO2020244776A1 (en) | 2020-12-10 |
US20220254177A1 (en) | 2022-08-11 |
CN114391162A (zh) | 2022-04-22 |
EP3980920A1 (en) | 2022-04-13 |
JP2022542753A (ja) | 2022-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7443401B2 (ja) | 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムおよび方法、顕微鏡ならびにトレーニングされた機械学習アルゴリズム | |
Nguyen et al. | GraphDTA: predicting drug–target binding affinity with graph neural networks | |
Jeckel et al. | Advances and opportunities in image analysis of bacterial cells and communities | |
Villegas-Morcillo et al. | Unsupervised protein embeddings outperform hand-crafted sequence and structure features at predicting molecular function | |
Sommer et al. | Machine learning in cell biology–teaching computers to recognize phenotypes | |
Sekhon et al. | DeepDiff: DEEP-learning for predicting DIFFerential gene expression from histone modifications | |
Oldenhof et al. | ChemGrapher: optical graph recognition of chemical compounds by deep learning | |
Hong et al. | DTranNER: biomedical named entity recognition with deep learning-based label-label transition model | |
Ieremie et al. | TransformerGO: predicting protein–protein interactions by modelling the attention between sets of gene ontology terms | |
Arowolo et al. | A survey of dimension reduction and classification methods for RNA-Seq data on malaria vector | |
US20220245188A1 (en) | A system and method for processing biology-related data, a system and method for controlling a microscope and a microscope | |
JP7346603B2 (ja) | 生物学関連のデータを処理するためのシステムおよび方法ならびに顕微鏡 | |
Sanchez-Fernandez et al. | CLOOME: contrastive learning unlocks bioimaging databases for queries with chemical structures | |
US11960518B2 (en) | System and method for processing biology-related data, a system and method for controlling a microscope and a microscope | |
Ullah et al. | PScL-DDCFPred: an ensemble deep learning-based approach for characterizing multiclass subcellular localization of human proteins from bioimage data | |
Yang et al. | AnnoFly: annotating Drosophila embryonic images based on an attention-enhanced RNN model | |
George et al. | Significance of global vectors representation in protein sequences analysis | |
Wemmert et al. | Deep learning for histopathological image analysis | |
EP4116869A1 (en) | A method and an apparatus for predicting a future state of a biological system, a system and a computer program | |
Eftekhar | Prediction of protein subcellular localization using deep learning and data augmentation | |
Pan et al. | Predicting protein subcellular location using learned distributed representations from a protein-protein network | |
EP3980938A1 (en) | A system and method for generating a biology-related image-based output data set of a typical image of a biological structure and a system and method for training a generative adversarial network | |
Maddouri | Deep learning on biological knowledge graphs | |
Szymborski et al. | INTREPPPID-An Orthologue-Informed Quintuplet Network for Cross-Species Prediction of Protein-Protein Interaction | |
Silvestre | Identifying negative results using biomedical relation extraction systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7346603 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |