JP2024509105A - Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム - Google Patents
Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム Download PDFInfo
- Publication number
- JP2024509105A JP2024509105A JP2023551750A JP2023551750A JP2024509105A JP 2024509105 A JP2024509105 A JP 2024509105A JP 2023551750 A JP2023551750 A JP 2023551750A JP 2023551750 A JP2023551750 A JP 2023551750A JP 2024509105 A JP2024509105 A JP 2024509105A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- pathological
- turp
- learning
- artificial neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001575 pathological effect Effects 0.000 title claims abstract description 148
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 141
- 206010060862 Prostate cancer Diseases 0.000 title claims abstract description 63
- 208000000236 Prostatic Neoplasms Diseases 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 55
- 210000002307 prostate Anatomy 0.000 claims abstract description 62
- 238000013188 needle biopsy Methods 0.000 claims abstract description 23
- 230000003902 lesion Effects 0.000 claims abstract description 22
- 238000011471 prostatectomy Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 230000007170 pathology Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 210000001519 tissue Anatomy 0.000 abstract description 11
- 238000010801 machine learning Methods 0.000 description 13
- 238000012549 training Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000002271 resection Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 7
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 7
- 201000010099 disease Diseases 0.000 description 6
- 206010028980 Neoplasm Diseases 0.000 description 4
- 201000011510 cancer Diseases 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 238000011472 radical prostatectomy Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000003741 urothelium Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010827 pathological analysis Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 206010004446 Benign prostatic hyperplasia Diseases 0.000 description 1
- 208000004403 Prostatic Hyperplasia Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30081—Prostate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Business, Economics & Management (AREA)
- Surgery (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Heart & Thoracic Surgery (AREA)
- Image Processing (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Entrepreneurship & Innovation (AREA)
- Gynecology & Obstetrics (AREA)
Abstract
TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステムが開示される。 本発明の一態様によると、ニューラルネットワーク学習システムが、複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検の病理画像、又は前立腺切除術の病理画像である)と、前記ニューラルネットワーク学習システムが、前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、前記ニューラルネットワーク学習システムが、複数のTURPの病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、を含み、前記複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法が提供される。
Description
本発明は、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する(training)方法、及びこれを行うコンピューティングシステムに関する。より詳しくは、TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステムに関する。
病理学又は病理科で行う主なタスクの1つは、患者の生体組織のスライド画像を読み取り、特定疾患に対する状態又は徴候を判定する診断を行うことである。従来の病理診断方法は、検体から製作された診断用病理スライド画像を光学顕微鏡を介して病理専門医が目視で観察及び読取する方式でなされていた。コンピュータに接続された顕微鏡カメラを活用して病理スライドをデジタル画像に変換した後、モニターで観察して読み取る方式がデジタル病理学の始まりといえる。最近、デジタルスライドスキャナが登場し、病理スライド全体を1つのデジタル画像に変換して病理スライド画像で製作した後、これをコンピュータモニターを介して観察して読み取る方式が広く普及されている。
最近、機械学習(machine learning)の発達により、画像を認識又は分類するなどのタスクをコンピューティングシステムによって自動化しようとする試みが盛んに行われている。特に、機械学習の一種であるニューラルネットワーク(例えば、畳み込みニューラルネットワーク(Convolution Neural Network;CNN)を用いたディープラーニング方式)を用いて、熟練した医療関係者が行っていた診断を自動化するための試みがなされている。特に、ニューラルネットワーク(例えば、CNN)を用いたディープラーニングによる診断は、従来の熟練した医療関係者の経験と知識を単に自動化するのではなく、自ら学習を通じて特徴的な要素を見つけて所望の解答を導き出すという点において、むしろ熟練した医療関係者が知らない疾患因子の特徴を画像から見つける場合もある。
一般に、生体画像を用いるニューラルネットワークを介した疾患の診断は、生体画像(例えば、生体組織のスライド画像)の断片、すなわちパッチ(patch;タイル(tile)ともいう)を用いる。すなわち、該当パッチに対して熟練した医療関係者は、特定疾患の状態(例えば、癌の発現有無)をアノテーション(annotation)し、このようなアノテーションされた複数のパッチをトレーニングデータとして用いてニューラルネットワークを学習することになる。このとき、ニューラルネットワークとして畳み込みニューラルネットワークを用いることができる。
一方、前立腺肥大症などの良性疾患の治療のために経尿道的前立腺切除術(transurethral resection of prostate;TURP)を施術する場合が多く、TURPの施術時に採取された検体に対して前立腺癌の有無を病理的に判別することが必要である。
TURPの病理画像から前立腺癌を検出する機械学習モデルを訓練するために、前立腺癌の病変領域がアノテーションされたTURPの病理画像データのみを用いることは非常に困難であり、その理由は以下の通りである。
第一に、TURPの病理画像の規模が非常に大きい。患者毎に平均N個(Nは2以上の整数)の2cm×3cmガラススライドが製作され、これを400倍率にスキャンしてデジタル画像にすることで、N×80,000×120,000画素サイズの画像が製作される。第二に、TURPの病理画像内の前立腺癌の病変領域のサイズは非常に小さい。TURP施術患者で前立腺癌が発見される割合は20%未満であり、前立腺癌が発見された場合でも、病理画像1つの局所領域でのみ発見される場合がほとんどである。すなわち、学習データのサイズと容量は非常に膨大である一方、全体組織に対する前立腺癌で標識される領域の割合が非常に小さいため、TURPの病理画像データだけで感度が十分に高い機械学習モデルを訓練するためには、非常に多くのデータが必要であるという問題が発生する可能性がある。
また、TURPの病理画像から前立腺癌を検出する機械学習モデルを訓練するために、前立腺癌の病変領域がアノテーションされた前立腺針生検(prostate needle biopsy)又は前立腺切除術(radical prostatectomy)により採取された検体病理画像データを用いることは、以下のような理由で問題があり得る。TURPの特性上、前立腺ではなく組織(膀胱、尿路上皮など)又は焼灼された(cauterized)前立腺組織が存在し、これは前立腺針生検又は切除術の検体では現れなくなる。よって、前立腺針生検(prostate needle biopsy)又は前立腺切除術(radical prostatectomy)により採取された検体病理画像データを用いてTURPの病理画像から前立腺癌を検出する機械学習モデルを訓練する場合、前立腺ではなく組織(膀胱、尿路上皮など)又は焼灼された(cauterized)前立腺組織を癌と誤診するという問題が発生し得る。
本発明が達成しようとする技術的な課題は、上記の問題を解決し、TURPの病理画像において前立腺癌を高性能で検出できる機械学習モデルを訓練する方法を提供することである。より詳しくは、TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる機械学習モデルを訓練する効率的な方法を提供することである。
本発明の一態様によると、ニューラルネットワーク学習システムが、複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検(prostate needle biopsy)により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術(radical prostatectomy)により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方である)と、前記ニューラルネットワーク学習システムが、前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、前記ニューラルネットワーク学習システムが、経尿道的前立腺切除術(transurethral resection of prostate;TURP)により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、を含み、前記複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法が提供される。
一実施形態において、前記人工ニューラルネットワークは、U-Net、DeepLabv3+、Mask R-CNN、DenseNetのいずれかであることを特徴とすることができる。
本発明の他の態様によると、前記人工ニューラルネットワークを学習する方法によって学習された人工ニューラルネットワークを介して、所定の判定対象TURPの病理画像に対する判定結果を提供する方法であって、コンピューティングシステムが、前記判定対象TURPの病理画像を取得するステップと、前記コンピューティングシステムが、前記人工ニューラルネットワークが前記判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力するステップと、を含む方法が提供される。
本発明の他の態様によると、データ処理装置に設置され、上述の方法を行うための媒体に記録されたコンピュータプログラムが提供される。
本発明の他の態様によると、上述の方法を行うためのコンピュータプログラムが記録されたコンピュータ読み取り可能な記録媒体が提供される。
本発明の他の態様によると、ニューラルネットワーク学習システムであって、プロセッサ、及びコンピュータプログラムを記憶するメモリを含み、前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記ニューラルネットワーク学習システムが、上述した人工ニューラルネットワークを学習する方法を行うようにするニューラルネットワーク学習システムが提供される。
本発明の他の態様によると、所定の判定対象TURPの病理画像に対する判定結果を提供するコンピューティングシステムであって、プロセッサ、及びコンピュータプログラムを記憶するメモリを含み、前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記コンピューティングシステムが、上述した人工ニューラルネットワーク学習方法によって学習された人工ニューラルネットワークを介して、前記判定対象TURPの病理画像に対する判定結果を提供する方法を行うようにするコンピューティングシステムが提供される。
本発明の他の態様によると、ニューラルネットワーク学習システムが、前立腺針生検(prostate needle biopsy)により採取された病理検体のスライドをスキャンした画像である複数の前立腺針生検の病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前立腺切除術(radical prostatectomy)により採取された病理検体のスライドをスキャンした画像である複数の前立腺切除術の病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数の前立腺針生検の病理画像及び前記複数の前立腺切除術の病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、前記ニューラルネットワーク学習システムが、経尿道的前立腺切除術(transurethral resection of prostate;TURP)により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、を含み、前記複数のTURPの病理画像は、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法が提供される。
本発明の技術的思想によると、TURPの病理画像に特徴的に現れる組織形態を考慮して、TURPの病理画像内の前立腺癌病変を効果的に検出できる機械学習モデルを訓練する効率的な方法及びシステムを提供することができる。
本発明の詳細な説明で引用される図面をより十分に理解するために各図面の簡単な説明が提供される。
本発明は、様々な変換を加えることができ、様々な実施形態を有することができるので、特定の実施形態を図面に示し、詳細に説明する。しかしながら、これは本発明を特定の実施形態に限定することを意図するものではなく、本発明の精神および技術的範囲に含まれるすべての変換、等価物から代替物を含むことを理解されたい。本発明の説明において、関連する公知技術の具体的な説明が本発明の要旨を不明瞭にすると判定される場合、その詳細な説明は省略する。
第1、第2などの用語は様々な構成要素を説明するために使用することができるが、構成要素はその用語によって限定されるべきではない。第1、第2などの用語は特別な順序を表すものではなく、ある構成要素を他の構成要素から区別する目的でのみ使用される。
本出願で使用される用語は、単に特定の実施形態を説明するために使用されたものであり、本発明を限定することを意図していない。単数の表現は、文脈上明らかに他に意味がない限り、複数の表現を含む。
本明細書において、「含む」または「有する」などの用語は、本明細書に記載の特徴、数字、ステップ、動作、構成要素、部品、またはそれらを組み合わせたものが存在することを指定するものであり、1つまたは複数の他の特徴、数、ステップ、動作、構成要素、部品、またはそれらを組み合わせたものの存在または追加の可能性を事前に除外しないことを理解されたい。
また、本明細書において、ある構成要素が他の構成要素にデータを「伝送」する場合、構成要素は、他の構成要素に直接データを伝送することもでき、少なくとも1つの別の構成要素を介して、データを他の構成要素に伝送することもできることを意味する。逆に、ある構成要素が他の構成要素にデータを「直接伝送」する場合、構成要素はまた他の構成要素を介さずに他の構成要素にデータを伝送することを意味する。
以下、添付の図面を参照して本発明の実施形態を中心に本発明を詳細に説明する。各図に示されている同じ参照符号は同じ部材を示す。
図1は、本発明の技術的思想による人工ニューラルネットワーク学習方法、及び病理検体に対する判定結果の提供方法が行われる環境を概略的に示す図である。
図1を参照すると、本発明の一実施形態による人工ニューラルネットワーク学習方法は、ニューラルネットワーク学習システム100によって行うことができ、本発明の一実施形態による病理検体に対する判定結果の提供方法は、病理検体に対する判定結果提供システム200(以下、「判定結果提供システム」という)によって行うことができる。
人工ニューラルネットワーク学習システム100は、人工ニューラルネットワーク300を学習することができる。人工ニューラルネットワーク300は、経尿道的前立腺切除術により採取された病理検体に対する診断情報を提供するためのニューラルネットワークであってもよい。病理検体は、人体の様々な臓器で採取した生検及び手術によって切除された生体組織であってもよい。
特に、人工ニューラルネットワーク300は、TURPの病理画像を入力し、入力されたTURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークであってもよい。判定結果提供システム200は、学習された人工ニューラルネットワーク300を用いてTURPの病理画像から前立腺癌に対する検出有無を判定することができる。本明細書において、TURPの病理画像は、経尿道的前立腺切除術(TURP)により採取された病理検体のスライドをスキャンした画像又はその一部を意味し得る。TURPの病理画像は、病理スライドをスキャンした全体スライド画像(Whole Slide Image)を意味し、実施形態によっては、TURPの病理画像全体スライド画像を所定の単位サイズに分割したパッチ又はタイルを意味し得る。
一実施形態において、ニューラルネットワーク300は、前立腺癌の発現有無に対する確率値を出力するように学習された機械学習モデルであってもよい。ニューラルネットワーク300は、入力層を介して入力されたデータに基づいて、対象検体に対する判定結果(例えば、疾患の発現有無の可能性)を示す数値、すなわち確率値を出力することができる。
一実施形態において、人工ニューラルネットワーク300は、全体スライド画像を入力し、前立腺癌による病変の有無を判定するか又は病変領域を検出する機械学習モデルであってもよく、実施形態によっては、スライド画像のパッチを入力し、該当パッチに前立腺癌による病変の有無又は病変領域を判定する機械学習モデルであってもよい。
本明細書において、人工ニューラルネットワークは、人間のニューロンの動作原理に基づいて人工的に構築したニューラルネットワークであり、多層パーセプトロンモデルを含み、人工ニューラルネットワークを定義する一連の設計事項を表現する情報の集合を意味し得る。
一実施形態において、人工ニューラルネットワーク300は、画像分析に主に活用される畳み込みニューラルネットワークであるか、又は畳み込みニューラルネットワークを含んでもよい。特に、領域分割に効果的であると知られたU-Net(Ronneberger2015)やDeepLabv3+(Chen2018)、Mask R-CNN(He2017)などが用いられてもよく、画素単位の微細な領域検出機能が不要な場合には、小さなサイズのパッチ画像単位で前立腺癌の有無を判別するように学習されたResNet(He2016)やDenseNet(Huang2017)などの分類モデルが活用されてもよい。
ニューラルネットワーク学習システム100及び/又は判定結果提供システム200は、本発明の技術的思想を実現するための演算能力を有するデータ処理装置であるコンピューティングシステムであってもよく、一般に、ネットワークを介してクライアントが接続可能なデータ処理装置であるサーバだけでなく、パーソナルコンピュータや携帯端末などのコンピューティタ装置を含んでもよい。
ニューラルネットワーク学習システム100及び/又は判定結果提供システム200は、いずれかの物理装置で実現されてもよいが、必要に応じて複数の物理装置が有機的に結合されて本発明の技術的思想によるニューラルネットワーク学習システム100及び/又は判定結果提供システム200を実現できることを、本発明の技術分野の平均的な専門家であれば容易に推論することができるであろう。
ニューラルネットワーク学習システム100は、複数の病理検体から生成された学習データに基づいて人工ニューラルネットワーク300を学習することができる。ニューラルネットワーク学習システム100は、病理検体のスライドをスキャンした画像又はスキャンしたスライド画像の一部(すなわち、パッチ)を用いて個別学習データを生成し、これをニューラルネットワーク300の入力層に入力してニューラルネットワーク300を学習することができる。このとき、病理検体は、前立腺針生検又は前立腺切除術により採取された検体、又はTURP施術により採取された検体であってもよい。
一方、学習されたニューラルネットワーク300は、判定結果提供システム200に記憶されてもよく、判定結果提供システム200は、学習された人工ニューラルネットワークを用いて所定の診断対象TURP検体に対する判定を行うことができる。
図1に示すように、ニューラルネットワーク学習システム100及び/又は判定結果提供システム200は、所定の親システム10のサブシステムの形態で実現されてもよい。親システム10はサーバであってもよい。サーバ10は、本発明の技術的思想を実現するための演算能力を有するデータ処理装置を意味し、一般に、ネットワークを介してクライアントが接続可能なデータ処理装置だけでなく、パーソナルコンピュータ、携帯端末などのように特定サービスを行うことができるいかなる装置もサーバとして定義できることを、本発明の技術分野の平均的な専門家であれば容易に推論することができるであろう。
或いは、実施形態によって、ニューラルネットワーク学習システム100及び判定結果提供システム200は、互いに分離した形態で実現されてもよい。
図2は、本発明の一実施形態によるニューラルネットワーク学習方法を説明するためのフローチャートである。図2の学習方法によって人工ニューラルネットワーク300が学習されてもよく、前述のように、人工ニューラルネットワーク300は、病理画像から前立腺癌を検出するための人工ニューラルネットワークである。
人工ニューラルネットワーク300は、TURPの病理画像で前立腺癌に対する診断を行うニューラルネットワークであるが、人工ニューラルネットワーク300を学習する過程では、TURPの病理画像だけでなく、前立腺針生検又は前立腺切除術により採取された検体の画像を用いることができる。
図2を参照すると、ニューラルネットワーク学習システム100は、複数の一次学習用病理画像を取得することができる(S100)。ここで、複数の一次学習用病理画像のそれぞれは、前立腺針生検(prostate needle biopsy)により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術(radical prostatectomy)により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方であってもよい。
一方、複数の一次学習用病理画像のそれぞれには、前立腺癌による病変が予めアノテーションされていてもよく、アノテーションされた情報を学習データのラベルとして用いてもよい。
前立腺針生検は、前立腺の生体組織を針(ニードル)によって採取する方法を意味する。前立腺針生検の検体の病理画像の一例が図3に示されている。
ニューラルネットワーク学習システム100は、複数の一次学習用病理画像を用いて、人工ニューラルネットワーク300を一次学習することができる(S110)。
アノテーションされた前立腺針生検の病理画像又はアノテーションされた前立腺切除術の病理画像は、比較的容易に採取することができるため、ニューラルネットワーク学習方法では、容易に採取可能なアノテーションされた前立腺針生検の病理画像又はアノテーションされた前立腺切除術の病理画像により人工ニューラルネットワーク300を一次学習する。複数の一次学習用病理画像のうち一定比率以上を前立腺癌による病変領域を含む画像として構成してもよく、このようにすることで、人工ニューラルネットワーク300の感度を一定レベル以上に高めることができる。
一方、TURPの病理画像の場合、TURP施術の特性上、前立腺ではなく組織(膀胱、尿路上皮など)の領域又は焼灼された前立腺組織領域が存在し、これは前立腺針生検の検体又は切除術の検体では現れない。よって、一次学習された人工ニューラルネットワーク300のTURPの病理画像に対する特異性を高めるために、以下のような過程をさらに行わなければならない。
また、図2を参照すると、ニューラルネットワーク学習システム100は、経尿道的前立腺切除術により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得することができる(S120)。
このとき、二次学習に用いられる複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んではならない。図4a及び図5aは、それぞれ二次学習に用いられるTURPの病理画像の例を示す図である。図4aは、焼灼された前立腺組織領域が含まれた例であり、図4bは、焼灼された前立腺組織領域を拡大した図である。図5aは、非前立腺組織領域が含まれた例であり、図5bは、非前立腺組織領域を拡大した図である。
一実施形態において、二次学習に用いられる複数のTURPの病理画像のうちの一部は、非前立腺組織領域を含むが、前立腺癌の病変領域は全く含んでいない画像であり、残りの一部は、焼灼された前立腺組織領域を含むが、前立腺癌の病変領域は全く含んでいない画像であってもよい。
このように、二次学習に用いられる複数のTURPの病理画像は、いずれも前立腺癌の病変領域が全く含まれてはならないため、二次学習に用いられる複数のTURPの病理画像は、一括して正常(benign)とラベル付けすることができ、別の病変領域に対するアノテーションが不要な学習データである。
その後、ニューラルネットワーク学習システム100は、複数のTURPの病理画像を用いて、一次学習された人工ニューラルネットワーク300を二次学習することができる(S130)。
図6は、本発明の一実施形態による判定結果の提供方法の一例を示す図である。
図6を参照すると、判定結果提供システム200は、所定の判定対象TURPの病理画像を取得することができる(S200)。判定対象TURPの病理画像は、経尿道的前立腺切除術(TURP)により採取された所定の判定対象病理検体のスライドをスキャンした画像である。
判定結果提供システム200は、人工ニューラルネットワーク300に判定対象TURPの病理画像を入力し、人工ニューラルネットワーク300が判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力することができる(S210)。
図7は、本発明の一実施形態による人工ニューラルネットワーク学習システム100の概略的な構成を示す図であり、図8は、発明の一実施形態による判定結果提供システム200の概略的な構成を示す図である。
人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、本発明の技術的思想を実現するために必要なハードウェアリソース(resource)及び/又はソフトウェアを備えた論理的な構成を意味し、必ずしも1つの物理的な構成要素又は1つの装置を意味するわけではない。すなわち、人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、本発明の技術的思想を実現するために備えられるハードウェア及び/又はソフトウェアの論理的な結合を意味し、必要に応じては互いに離隔した装置に設置され、それぞれの機能を行うことで本発明の技術的思想を実現するための論理的な構成の集合で実現されてもよい。また、人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、本発明の技術的思想を実現するためのそれぞれの機能又は役割毎に別に実現される構成の集合を意味し得る。人工ニューラルネットワーク学習システム100及び判定結果提供システム200の各構成は、互いに異なる物理装置に位置することもでき、同一の物理装置に位置することもできる。また、実施形態によっては、人工ニューラルネットワーク学習システム100及び判定結果提供システム200の構成要素のそれぞれを構成するソフトウェア及び/又はハードウェアの結合も互いに異なる物理装置に位置し、互いに異なる物理装置に位置した構成が互いに有機的に結合されてそれぞれのモジュールを実現することもできる。
また、本明細書でモジュールとは、本発明の技術的思想を行うためのハードウェア、及びハードウェアを駆動するためのソフトウェアの機能的、構造的結合を意味し得る。例えば、モジュールは、所定のコードと、所定のコードが行われるためのハードウェアリソース(resource)の論理的な単位を意味し、必ずしも物理的に接続されたコードを意味したり、一種類のハードウェアを意味するわけではないことは、本発明の技術分野の平均的な専門家であれば容易に推論することができる。
図7を参照すると、人工ニューラルネットワーク学習システム100は、記憶モジュール110、取得モジュール120、及び学習モジュール130を含んでもよい。本発明の実施形態によっては、上述の構成要素のうちの一部の構成要素は、必ずしも本発明の実現に必須な構成要素に該当しなくてもよく、また実施形態によっては、人工ニューラルネットワーク学習システム100は、これよりも多くの構成要素を含んでもよいことは言うまでもない。例えば、人工ニューラルネットワーク学習システム100は、外部装置と通信するための通信モジュール(図示せず)、人工ニューラルネットワーク学習システム100の構成要素及びリソースを制御するための制御モジュール(図示せず)をさらに含んでもよい。
記憶モジュール110は、学習される人工ニューラルネットワーク300を記憶することができる。
取得モジュール120は、複数の一次学習用病理画像を取得することができ、複数の一次学習用病理画像のそれぞれは、前立腺針生検により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方であってもよい。
また取得モジュール120は、経尿道的前立腺切除術により採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得することができる。このとき、複数のTURPの病理画像のそれぞれは、非前立腺組織領域又は焼灼された(cauterized)前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいなくてもよい。
学習モジュール130は、複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習することができ、複数のTURPの病理画像を用いて、一次学習された人工ニューラルネットワークを二次学習することができる。
図8を参照すると、判定結果提供システム200は、記憶モジュール210、取得モジュール220、及び判定モジュール230を含んでもよい。本発明の実施形態によっては、上述の構成要素のうちの一部の構成要素は、必ずしも本発明の実現に必須な構成要素に該当しなくてもよく、また実施形態によって、判定結果提供システム200は、これよりも多くの構成要素を含んでもよいことは言うまでもない。例えば、判定結果提供システム200は、通信モジュール(図示せず)、判定結果提供システム200の構成要素及びリソースを制御するための制御モジュール(図示せず)をさらに含んでもよい。
記憶モジュール210は、学習された人工ニューラルネットワーク300を記憶することができる。
取得モジュール220は、所定の判定対象TURPの病理画像を取得することができる。
判定モジュール230は、判定対象TURPの病理画像を人工ニューラルネットワーク300に入力し、人工ニューラルネットワーク300が判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力することができる。
一方、実施形態によって、人工ニューラルネットワーク学習システム100及び判定結果提供システム200は、プロセッサ、及びプロセッサによって実行されるプログラムを記憶するメモリを含んでもよい。プロセッサは、シングルコアCPU又はマルチコアCPUを含んでもよい。メモリは、高速ランダムアクセスメモリを含んでもよく、1つ以上の磁気ディスク記憶装置、フラッシュメモリ装置、又はその他不揮発性固体状態メモリ装置のような不揮発性メモリを含んでもよい。プロセッサ、及びその他構成要素によるメモリへのアクセスは、メモリコントローラによって制御することができる。
一方、本発明の実施形態による方法は、コンピュータ読み取り可能なプログラム命令形態で実現され、コンピュータで読み取り可能な記録媒体に記憶されてもよく、本発明の実施形態による制御プログラム及び対象プログラムもコンピュータで読み取り可能な記録媒体に記憶されてもよい。コンピュータ読み取り可能な記録媒体は、コンピューティングシステムによって読み取り可能なデータが記憶されるあらゆる種類の記録装置を含む。
記録媒体に記録されるプログラム命令は、本発明のために特別に設計及び構成されたものであってもよく、ソフトウェア分野の当業者に公知として使用可能なものであってもよい。
コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体(magnetic media)、CD-ROM、DVDのような光記録媒体(optical media)、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)及びROM、RAM、フラッシュメモリなどのようなプログラム命令を記憶して実行するために特別に構成されたハードウェア装置が含まれる。またコンピュータ読み取り可能な記録媒体は、ネットワークで接続されたコンピューティングシステムに分散され、分散方式でコンピュータ読み取り可能なコードを記憶して実行することができる。
プログラム命令の例としては、コンパイラによって作成される機械語コードだけでなく、インタプリタなどを用いて電子的に情報を処理する装置、例えば、コンピュータによって実行することができる高級言語コードを含む。
上述のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
上述した本発明の説明は例示のためのものであり、本発明が属する技術分野の通常の知識を有する者であれば、本発明の技術的思想や必須の特徴を変更することなく他の具体的な形態に容易に変形が可能であることを理解することができるであろう。従って、上記で説明した実施形態はすべての点で例示的なものであり、限定的なものではないと理解すべきである。例えば、単一の形態で説明されている各構成要素は分散して実施することができ、同様に分散されたと記載されている構成要素も組み合わせた形で実施することができる。
本発明の範囲は、上記の詳細な説明ではなく、後述する特許請求の範囲によって示され、特許請求の範囲の意味及び範囲、またその均等概念から導出される全ての変更又は変形された形態が本発明の範囲に含まれるものと解釈されるべきである。
本発明は、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステムに用いることができる。
Claims (6)
- ニューラルネットワーク学習システムが、複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のうちのいずれか一方である)と、
前記ニューラルネットワーク学習システムが、前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、
前記ニューラルネットワーク学習システムが、TURPにより採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、
前記ニューラルネットワーク学習システムが、前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、
を含み、
前記複数のTURPの病理画像のそれぞれは、
非前立腺組織領域又は焼灼された前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、TURPの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法。 - 請求項1に記載の人工ニューラルネットワークを学習する方法によって学習された人工ニューラルネットワークを介して、所定の判定対象TURPの病理画像に対する判定結果を提供する方法であって、
コンピューティングシステムが、前記判定対象TURPの病理画像を取得するステップと、
前記コンピューティングシステムが、前記人工ニューラルネットワークが前記判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力するステップと、
を含む、方法。 - データ処理装置に設置され、請求項1又は請求項2のいずれか一項に記載の方法を行うための媒体に記録されたコンピュータプログラム。
- 請求項1又は請求項2のいずれか一項に記載の方法を行うためのコンピュータプログラムが記録されたコンピュータ読み取り可能な記録媒体。
- ニューラルネットワーク学習システムであって、
プロセッサと、コンピュータプログラムを記憶するメモリと、を含み、
前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記コンピューティングシステムが人工ニューラルネットワークを学習する方法を行うようにし、
前記人工ニューラルネットワーク学習方法は、
複数の一次学習用病理画像を取得するステップ(ここで、前記複数の一次学習用病理画像のそれぞれは、前立腺針生検により採取された病理検体のスライドをスキャンした画像である前立腺針生検の病理画像、又は前立腺切除術により採取された病理検体のスライドをスキャンした画像である前立腺切除術の病理画像のいずれか一方である)と、
前記複数の一次学習用病理画像を用いて、前立腺癌判定用人工ニューラルネットワークを一次学習するステップ(前記前立腺癌判定用人工ニューラルネットワークは、病理画像から前立腺癌を検出するための人工ニューラルネットワークである)と、
前記ニューラルネットワーク学習システムが、TURPにより採取された病理検体のスライドをスキャンした画像である複数のTURPの病理画像を取得するステップと、
前記複数のTURPの病理画像を用いて、一次学習された前記人工ニューラルネットワークを二次学習するステップと、
を含み、
前記複数のTURPの病理画像のそれぞれは、
非前立腺組織領域又は焼灼された前立腺組織領域の少なくとも一方を必ず含み、前立腺癌の病変領域は全く含んでいないことを特徴とする、ニューラルネットワーク学習システム。 - 所定の判定対象TURPの病理画像に対する判定結果を提供するコンピューティングシステムであって、
プロセッサと、
コンピュータプログラムを記憶するメモリと、
を含み、
前記コンピュータプログラムは、前記プロセッサによって実行される場合、前記コンピューティングシステムが、請求項1に記載の人工ニューラルネットワーク学習方法によって学習された人工ニューラルネットワークを介して、前記判定対象TURPの病理画像に対する判定結果を提供する方法を行うようにし、
前記判定結果を提供する方法は、
前記判定対象TURPの病理画像を取得するステップと、
前記人工ニューラルネットワークが前記判定対象TURPの病理画像に基づいて判定した前立腺癌検出結果を出力するステップと、
を含む、コンピューティングシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210029876A KR102316525B1 (ko) | 2021-03-08 | 2021-03-08 | Turp 병리 이미지로부터 전립선암을 검출하기 위한 용도의 인공 뉴럴 네트워크를 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템 |
KR10-2021-0029876 | 2021-03-08 | ||
PCT/KR2022/003178 WO2022191539A1 (ko) | 2021-03-08 | 2022-03-07 | Turp 병리 이미지로부터 전립선암을 검출하기 위한 용도의 인공 뉴럴 네트워크를 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024509105A true JP2024509105A (ja) | 2024-02-29 |
Family
ID=78275729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023551750A Pending JP2024509105A (ja) | 2021-03-08 | 2022-03-07 | Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20240153073A1 (ja) |
EP (1) | EP4290529A1 (ja) |
JP (1) | JP2024509105A (ja) |
KR (1) | KR102316525B1 (ja) |
CN (1) | CN117337473A (ja) |
WO (1) | WO2022191539A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102395664B1 (ko) | 2022-01-26 | 2022-05-09 | 주식회사 몰팩바이오 | Hsv 색 공간과 clahe를 이용한 병리 슬라이드 이미지 색감 표준화 방법 및 장치 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6004267A (en) * | 1997-03-07 | 1999-12-21 | University Of Florida | Method for diagnosing and staging prostate cancer |
KR101944536B1 (ko) | 2016-12-11 | 2019-02-01 | 주식회사 딥바이오 | 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법 |
JP7217589B2 (ja) * | 2018-02-27 | 2023-02-03 | シスメックス株式会社 | 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム |
KR102172213B1 (ko) * | 2018-06-04 | 2020-10-30 | 주식회사 딥바이오 | 투 페이스 질병 진단 시스템 및 그 방법 |
WO2020005815A1 (en) * | 2018-06-29 | 2020-01-02 | Miraki Innovation Think Tank, Llc | Miniaturized intra-body controllable medical device employing machine learning and artificial intelligence |
KR102236948B1 (ko) * | 2019-01-25 | 2021-04-06 | 주식회사 딥바이오 | 준-지도학습을 이용하여 질병의 발병 영역에 대한 어노테이션을 수행하기 위한 방법 및 이를 수행하는 진단 시스템 |
KR102100698B1 (ko) * | 2019-05-29 | 2020-05-18 | (주)제이엘케이 | 앙상블 학습 알고리즘을 이용한 인공지능 기반 진단 보조 시스템 |
-
2021
- 2021-03-08 KR KR1020210029876A patent/KR102316525B1/ko active IP Right Grant
-
2022
- 2022-03-07 WO PCT/KR2022/003178 patent/WO2022191539A1/ko active Application Filing
- 2022-03-07 US US18/280,662 patent/US20240153073A1/en active Pending
- 2022-03-07 CN CN202280020209.7A patent/CN117337473A/zh active Pending
- 2022-03-07 JP JP2023551750A patent/JP2024509105A/ja active Pending
- 2022-03-07 EP EP22767435.5A patent/EP4290529A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022191539A1 (ko) | 2022-09-15 |
EP4290529A1 (en) | 2023-12-13 |
CN117337473A (zh) | 2024-01-02 |
KR102316525B1 (ko) | 2021-10-22 |
US20240153073A1 (en) | 2024-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Automatically discriminating and localizing COVID-19 from community-acquired pneumonia on chest X-rays | |
US20180263568A1 (en) | Systems and Methods for Clinical Image Classification | |
Yogapriya et al. | Gastrointestinal tract disease classification from wireless endoscopy images using pretrained deep learning model | |
CN111278348A (zh) | 基于消化器官的内视镜影像的疾病的诊断支援方法、诊断支援系统、诊断支援程序及存储着此诊断支援程序的计算机能够读取的记录介质 | |
JP2021521553A (ja) | 画像認識方法、装置、端末機器及び医療システム、並びにそのコンピュータプログラム | |
KR102237198B1 (ko) | 인공지능 기반의 의료영상 판독 서비스 시스템 | |
Estrade et al. | Towards automatic recognition of pure and mixed stones using intra‐operative endoscopic digital images | |
KR102531400B1 (ko) | 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법 | |
CN109460717A (zh) | 消化道共聚焦激光显微内镜病变图像识别方法及装置 | |
JP7140630B2 (ja) | 画像処理装置、データ生成装置及びプログラム | |
KR102245219B1 (ko) | 의료 영상에서 악성의심 병변을 구별하는 방법, 이를 이용한 의료 영상 판독 방법 및 컴퓨팅 장치 | |
Qiu et al. | Endoscopic image recognition method of gastric cancer based on deep learning model | |
Xu et al. | Upper gastrointestinal anatomy detection with multi‐task convolutional neural networks | |
JP2024509105A (ja) | Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム | |
Midya et al. | Computerized diagnosis of liver tumors from CT scans using a deep neural network approach | |
Bugday et al. | Automatic diagnosis of ureteral stone and degree of hydronephrosis with proposed convolutional neural network, RelieF, and gradient‐weighted class activation mapping based deep hybrid model | |
Yue et al. | Benchmarking polyp segmentation methods in narrow-band imaging colonoscopy images | |
Fang et al. | Post-COVID highlights: Challenges and solutions of artificial intelligence techniques for swift identification of COVID-19 | |
EP4266247A1 (en) | Method for refining tissue specimen image, and computing system performing same | |
JP6710853B2 (ja) | プローブ型共焦点レーザー顕微内視鏡画像診断支援装置 | |
JP2024519459A (ja) | 乳がんの病変領域を判別するための人工ニューラルネットワークの学習方法、及びこれを行うコンピュータシステム | |
Kvak | Visualizing CoAtNet predictions for aiding melanoma detection | |
Zhang et al. | A spatial regulated patch-wise approach for cervical dysplasia diagnosis | |
WO2013150419A1 (en) | Quality-check during medical imaging procedure | |
WO2022049577A1 (en) | Systems and methods for comparing images of event indicators |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |