JP2021513435A - 胃腸腫瘍を診断するシステム及び方法 - Google Patents
胃腸腫瘍を診断するシステム及び方法 Download PDFInfo
- Publication number
- JP2021513435A JP2021513435A JP2020564808A JP2020564808A JP2021513435A JP 2021513435 A JP2021513435 A JP 2021513435A JP 2020564808 A JP2020564808 A JP 2020564808A JP 2020564808 A JP2020564808 A JP 2020564808A JP 2021513435 A JP2021513435 A JP 2021513435A
- Authority
- JP
- Japan
- Prior art keywords
- image
- training
- cancer
- network
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 208000002699 Digestive System Neoplasms Diseases 0.000 title claims abstract description 10
- 238000012549 training Methods 0.000 claims abstract description 143
- 206010028980 Neoplasm Diseases 0.000 claims abstract description 115
- 201000011510 cancer Diseases 0.000 claims abstract description 113
- 230000011218 segmentation Effects 0.000 claims abstract description 76
- 238000001839 endoscopy Methods 0.000 claims abstract description 66
- 231100001014 gastrointestinal tract lesion Toxicity 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 11
- 230000004807 localization Effects 0.000 claims description 8
- 241000017103 Palpigradi Species 0.000 claims description 4
- 238000001228 spectrum Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 2
- 238000000701 chemical imaging Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 8
- 238000013528 artificial neural network Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 21
- 238000012360 testing method Methods 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 4
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 4
- 101150095908 apex1 gene Proteins 0.000 description 4
- 230000002496 gastric effect Effects 0.000 description 4
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 101100269674 Mus musculus Alyref2 gene Proteins 0.000 description 3
- 208000005718 Stomach Neoplasms Diseases 0.000 description 3
- 238000013434 data augmentation Methods 0.000 description 3
- 206010017758 gastric cancer Diseases 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 201000011549 stomach cancer Diseases 0.000 description 3
- 241000819777 Dalbergia hostilis Species 0.000 description 2
- 206010017993 Gastrointestinal neoplasms Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101100498818 Arabidopsis thaliana DDR4 gene Proteins 0.000 description 1
- 208000023514 Barrett esophagus Diseases 0.000 description 1
- 208000023665 Barrett oesophagus Diseases 0.000 description 1
- 206010009900 Colitis ulcerative Diseases 0.000 description 1
- 208000001333 Colorectal Neoplasms Diseases 0.000 description 1
- 208000011231 Crohn disease Diseases 0.000 description 1
- 208000004232 Enteritis Diseases 0.000 description 1
- 208000000461 Esophageal Neoplasms Diseases 0.000 description 1
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 208000022559 Inflammatory bowel disease Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010030155 Oesophageal carcinoma Diseases 0.000 description 1
- 201000006704 Ulcerative Colitis Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 206010009887 colitis Diseases 0.000 description 1
- 238000004195 computer-aided diagnosis Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 201000004101 esophageal cancer Diseases 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 201000011591 microinvasive gastric cancer Diseases 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 208000022131 polyp of large intestine Diseases 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
- G09B23/285—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/273—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
- A61B1/2736—Gastroscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Radiology & Medical Imaging (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Primary Health Care (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Pure & Applied Mathematics (AREA)
- Pulmonology (AREA)
- Chemical & Material Sciences (AREA)
- Medicinal Chemistry (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Business, Economics & Management (AREA)
- Surgery (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
Abstract
Description
本出願は、2018年2月12日に出願された米国特許出願第62/629,600号及び2019年2月11日に出願された米国特許出願第16/273,016号に対する優先権を主張し、その内容はどちらも、引用することによりその全体が本明細書の一部をなすものとする。
1.高性能コンピュータ支援診断システムが、癌領域のローカライゼーション及び検出を提供する。
2.効果的で効率的なディープラーニングフレームワークが、トレーニングに対する小規模なサンプルデータセットの使用を可能にする。
1.He, Kaiming他著「Mask r-cnn」(arXiv preprint arXiv:1703.06870 (2017))。
2.Long, Jonathan、Evan Shelhamer、及びTrevor Darrell著「Fully convolutional networks for semantic segmentation」(Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (2015))。
3.Shrivastava, Ashish他著「Learning from simulated and unsupervised images through adversarial training」(arXiv preprint arXiv:1612.07828 (2016))。
・全てが3*3カーネル:従来のCNNは、7*7カーネル又はそれよりも更に大きなカーネルを最初の1層〜3層に用いて計算複雑度を削減する。しかしながら、そのサイズはこの点で空間解像度を削減し、M−NBIにおける特徴は非常に無意味なものとなり、そのため、空間解像度を維持するために、より小さなカーネルサイズが利用される。
・プーリングが用いられず、ストライドされた畳み込みが用いられる:プーリングは空間関係を破壊し、M−NBI画像では、ピクセル間の関係が重要であり、これが、プーリングが用いられない理由である。
・複数の特徴抽出器層(例えば、6つ)、複数のセグメンテーション層(例えば、4つ)、及び複数の予測層(例えば、4つ):新たなCNNアーキテクチャにおけるこれらの層の数は、幾つかの実験に従って実験的に求められる。或る特定の実施形態では、これらの値は、計算複雑度と性能との間の最良のトレードオフを提供する。
・サンプルの小規模なデータセットしかトレーニングに必要とされない。
・内視鏡検査のリアルタイムのコンピュータ支援診断システム
・高速で正確な癌領域ローカライゼーション
・内視鏡検査システムにおける癌ロケーション検出のための高速で効果的なCNN
・リアルタイムのコンピュータ支援内視鏡検査診断システム
・小規模なデータセットからのレベル2予測ネットワークのトレーニングフェーズのコンテンツ認識型データ拡張
・癌領域を有する/有しない合成NBI画像を生成するのに用いることができるM−NBI画像合成技法
1.畳み込みニューラルネットワーク構造は、本開発技術において新しいものである。この特有のCNN構造(図2、図3及び図5〜図7)は、レベル1出力(癌の有無の全体画像診断)及びレベル2出力(ピクセルレベル癌領域表示)を生成するように設計されている。
2.癌領域を有する/有しないリアルなトレーニングM−NBI画像の自動生成。
1.敵対的ネットワーク(AN)によって、癌領域(複数の場合もある)を有する又は有しないトレーニング画像をランダムに生成する。
1.1.トレーニング画像(T1)を収集する。
1.2.対応するセグメンテーションマップに従って画像を正常ブロック及び癌ブロックに分割する。
1.3.トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN:cancerous generative adversarial network)を用いて癌ブロックを自動的に生成することを学習する。
1.4.トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN:normal generative adversarial network)を用いて正常拡大狭帯域撮像(M−NBI:magnified narrow band imaging)画像ブロックを自動的に生成することを学習する。
1.5.セグメンテーションマップ(白色領域が癌領域を意味するだけの白黒画像)をランダムに生成する。このセグメンテーションマップは、癌が存在しないことを意味する黒色ピクセルのみである場合がある。
1.6.上記1.5に従って、黒色領域は、1.4における結果から満たされるのに対して、白色領域は、1.3における結果から満たされる。
1.7.上記1.6における結果からANにおける生成器ネットワークを用いてリアルなM−NBI画像を自動的に生成することを学習する。生成された結果は、新たなトレーニングサンプル(T2)とみなすことができる。
2.L1PNを用いて、収集されたT1及びT2からレベル1予測結果(M−NBI画像の癌確率)を学習する。ここで、T2はANによって生成される。
3.L2PNを用いて、収集されたT1及びT2からレベル2予測結果(M−NBI画像の癌領域の検出)を学習する。ここで、T2はANによって生成される。
4.トレーニングプロセスが行われた後、L1PN及びL2PNを用いて、M−NBI画像のL1結果及びL2結果を予測する。このステップでは、ANはもはや必要とされない。
A.敵対的ネットワーク(AN)−これは、L1PN及びL2PNをトレーニングするのに用いられ、試験フェーズでは用いられない。試験フェーズ=M−NBI画像の診断結果を生成する。
B.CNNのレベル1予測ネットワーク(L1PN:Level 1 prediction network)
C.CNNのレベル2予測ネットワーク(L2PN:Level 2 prediction network)
A.敵対的ネットワーク(AN)
1.トレーニング画像
2.癌GAN(CGAN)
3.正常GAN(NGAN)
4.生成器ネットワーク
5.弁別器ネットワーク
6.最終GAN
7.合成画像
B.レベル1予測ネットワーク(L1PN)
1.L1PNの損失関数
2.特徴抽出器
3.レベル1予測
C.レベル2予測ネットワーク(L2PN)
1.L2PNの損失関数
2.特徴抽出器
3.セグメンテーション
4.レベル2セグメンテーションマップ
知られているように、ニューラルネットワークは、データセットを用いてトレーニングされると、画像認識機能を提供することができる。図2を参照すると、システム120のトレーニングフェーズ200が記載されている。このフレームワークは3つの主要部分を含む。
1.レベル1予測ネットワーク(L1PN):画像に癌があるか否かを検出する。また、システムは検出結果の信頼度パラメータも提供する。
2.レベル2予測ネットワーク(L2PN):画像内の癌領域(存在する場合)(複数の場合もある)のロケーションをラベル付けする。
3.敵対的ネットワーク(AN):癌領域を有する又は有しない合成M−NBI画像を生成するのに用いられる。
L1PNの損失関数は、任意のラベルごとの損失関数として定義することができる。或る特定の実施形態では、以下のように、交差エントロピーが用いられる。
L2PNの損失関数は、任意の再構築損失関数として定義することができる。或る特定の実施形態では、以下のように、L2ノルム距離が、予測されたセグメンテーションマップとそのL2グラウンドトゥルースとの間の距離を測定するのに用いられる。
図4に記載しているように、コンテンツ認識型データ拡張(CDA:Content-aware Data Augmentation)方法400では、任意のトレーニング画像410を幾つかのステップによって処理することができる。最初に、標準的なデータ拡張430が、上下反転、左右反転、及び90度回転、180度回転、及び270度回転を含む、224×224としてサイズ決めされたトレーニング画像410に対して実行される。これによって、元の画像を含む6つの可能な画像が得られる。次に、2048×2048の解像度を有する誘導セグメンテーションマップ420が作成される。ランダムなクロッピング操作450が、この誘導セグメンテーションマップ420に対して用いられ、224×224としてサイズ決めされたサブマップ470が得られる。次に、画像470及び画像440が乗算され(460)、処理されたトレーニング画像480が得られる。このように、各トレーニング画像は、誘導セグメンテーションマップ420に従って幾つかの部分にランダムに破損され、トレーニングセットのサイズを拡大する。幾つかの実施形態では、誘導セグメンテーションマップは、任意に変更することができる。
敵対的生成ネットワーク(GAN)の基本的な考えは、ミニマックス最適化である[Ref3:Goodfellow, Ian他著「Generative adversarial nets」(Advances in neural information processing systems, 2014)]。図5に示す例では、生成器530及び560は、入力から、弁別器540及び570を欺くことができる画像を合成することを目的とする。弁別器の主なタスクは、入力画像が合成されているか否かを調べることである。生成器が勝者である場合には、生成された画像をリアリズム画像とみなすことができる。生成器560及び弁別器570のネットワークアーキテクチャは、図6に生成器610及び弁別器620として示されている。従来のGANは、ランダムノイズから任意のリアリズム画像をランダムに生成するのに用いられる[Ref.3]。本開発技術では、癌領域(複数の場合もある)を有する又は有しない合成画像を制御する必要がある。しかしながら、従来のGANは、合成画像のタイプを指定することができないので、このタスクに用いることができない。本開発技術の新たなANは、図5に示すように、この問題点を解決するのに用いることができる。
図7に示すように、L1PN750及びL2PN760の試験フェーズ構成700は、画像710、特徴抽出器720、セグメンテーション層730、及び予測層740を備えることができる。M−NBI画像のL1予測結果及びL2予測結果は、L1PN及びL2PNに画像を通過させることによって取得することができる。
第1の実験セットには、A(130個の画像)、B(343個の画像)及びC(ビデオ、3000個のフレーム)の全部で3つのデータセットがある。T1:データセットA及びBからの70個の癌画像及び60個の正常画像と、T2:3つのデータセットからの30個の癌画像及び30個の正常画像との2つの試験セットがある。結果を表Iに列挙する。Nvidia GPU Titan Xを備えるパーソナルコンピュータでは、画像のランタイムは10msであり、フレームレートはほぼ70フレーム毎秒(FPS)である。表IはL1性能結果を示し、表IIはL2性能結果を示す。
L1出力−改善された結果
・3つのデータセット:ビデオフレーム(5565個の画像)、セット2(343個の画像)、セット1(130個の画像)
・トレーニングセット:5978個の画像
・試験セット:30個の正の画像、30個の負の画像
・2つのデータセット:セット2(343個の画像)、セット1(130個の画像)
・トレーニングセット:473個の画像
・試験セット:30個の正の画像、30個の負の画像
上記で説明した実施形態の代替形態を次に説明する。或る特定の実施形態では、GANは、画像を合成するのに用いることができる任意のCNNに置き換えることができる。或る特定の実施形態では、弁別トレーニングサンプルを生成することができる任意のフレームワークを、前述した実施形態と同様のフレームワークとして扱うことができる。
当業者には、情報及び信号を、様々な異なる技術及び技法のうちの任意のものを用いて表すことができることが分かる。例えば、上記説明全体を通して参照され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、及びチップは、電圧、電流、電磁波、磁場若しくは磁性粒子、光場若しくは光学粒子、又はそれらの任意の組み合わせによって表すことができる。
Claims (16)
- 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断する方法であって、
敵対的ネットワーク(AN)によって、癌領域を有する又は有しないトレーニング画像サンプルをランダムに生成することであって、該生成することは、
内視鏡検査トレーニング画像(T1)を収集することと、
前記トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割することと、
前記トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌ブロックを自動的に生成することを学習することと、
前記トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常IEE画像ブロックを自動的に生成することを学習することと、
前記自動的に生成された癌ブロック及び前記自動的に生成された正常IEE画像ブロックに基づいて、白黒画像を含むセグメンテーションマップ(S2)をランダムに生成することであって、任意の白色ピクセルは癌領域を示し、前記セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合があることと、
前記生成されたセグメンテーションマップから、前記ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習することと
を含むことと、
レベル1予測ネットワーク(L1PN)を用いて、前記収集されたT1及びT2から、レベル1予測結果が前記IEE画像の癌確率であることを学習することであって、前記T2は前記ANによって生成されることと、
レベル2予測ネットワーク(L2PN)を用いて、前記収集されたT1及びT2から、レベル2予測結果が前記IEE画像の検出された癌領域であることを学習することであって、前記T2は前記ANによって生成されることと、
前記ANを用いることなく、前記L1PN及び前記L2PNを用いて、前記IEE画像の前記レベル1結果及び前記レベル2結果を予測することと
を含んでなる方法。 - 前記IEE画像は、拡大狭帯域撮像、エンドサイトマイクロスコーピ、i−SCAN、フレキシブルスペクトル撮像カラー強調、青色レーザ撮像、及びブライトレーザ撮像のうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記セグメンテーションマップ(S1)はグラウンドトゥルースを含む、請求項1に記載の方法。
- 前記グラウンドトゥルースは医師によってラベル付けされる、請求項3に記載の方法。
- 前記収集された内視鏡検査トレーニング画像に基づいて追加のトレーニング画像を生成することを更に含み、
前記生成することは、
前記収集された内視鏡検査トレーニング画像を回転又は反転させて、1つ以上の拡張されたトレーニング画像を作成することと、
前記収集された内視鏡検査トレーニング画像よりも大きな解像度を有する誘導セグメンテーションマップを準備することと、
前記誘導セグメンテーションマップをランダムにクロッピングして、前記収集された内視鏡検査トレーニング画像の前記解像度と等しい解像度を有するサブマップを取得することと、
追加のトレーニング画像を生成するために前記サブマップを前記拡張されたトレーニング画像のそれぞれと乗算することと
を含む、請求項1に記載の方法。 - 前記レベル2予測結果の前記検出された癌領域はピクセルレベルの解像度にある、請求項1に記載の方法。
- 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断するシステムであって、
敵対的ネットワーク(AN)によって、癌領域を有する又は有しないトレーニング画像サンプルをランダムに生成する手段であって、
内視鏡検査トレーニング画像(T1)を収集する手段と、
前記トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割する手段と、
前記トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌ブロックを自動的に生成することを学習する手段と、
前記トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常IEE画像ブロックを自動的に生成することを学習する手段と、
前記自動的に生成された癌ブロック及び前記自動的に生成された正常IEE画像ブロックに基づいて、白黒画像を含むセグメンテーションマップ(S2)をランダムに生成する手段であって、任意の白色ピクセルは癌領域を示し、前記セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合がある、生成する手段と、
前記生成されたセグメンテーションマップから、前記ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習する手段と
を備える、トレーニング画像サンプルをランダムに生成する手段と、
レベル1予測ネットワーク(L1PN)を用いて、前記収集されたT1及びT2から、レベル1予測結果が前記IEE画像の癌確率であることを学習する手段であって、前記T2は前記ANによって生成される、学習する手段と、
レベル2予測ネットワーク(L2PN)を用いて、前記収集されたT1及びT2から、レベル2予測結果が前記IEE画像の検出された癌領域であることを学習する手段であって、前記T2は前記ANによって生成される、学習する手段と、
前記ANを用いることなく、前記L1PN及び前記L2PNを用いて、前記IEE画像の前記レベル1結果及び前記レベル2結果を予測する手段と
を備えてなるシステム。 - 前記IEE画像は、拡大狭帯域撮像、エンドサイトマイクロスコーピ、i−SCAN、フレキシブルスペクトル撮像カラー強調、青色レーザ撮像、及びブライトレーザ撮像のうちの少なくとも1つを含む、請求項7に記載のシステム。
- 前記セグメンテーションマップ(S1)はグラウンドトゥルースを含む、請求項7に記載のシステム。
- 前記グラウンドトゥルースは医師によってラベル付けされる、請求項9に記載のシステム。
- 前記収集された内視鏡検査トレーニング画像に基づいて追加のトレーニング画像を生成する手段を更に備え、
前記生成する手段は、
前記収集された内視鏡検査トレーニング画像を回転又は反転させて、1つ以上の拡張されたトレーニング画像を作成する手段と、
前記収集された内視鏡検査トレーニング画像よりも大きな解像度を有する誘導セグメンテーションマップを準備する手段と、
前記誘導セグメンテーションマップをランダムにクロッピングして、前記収集された内視鏡検査トレーニング画像の前記解像度と等しい解像度を有するサブマップを取得する手段と、
追加のトレーニング画像を生成するために前記サブマップを前記拡張されたトレーニング画像のそれぞれと乗算する手段と
を備えてなる、請求項7に記載のシステム。 - 前記レベル2予測結果の前記検出された癌領域はピクセルレベルの解像度にある、請求項7に記載のシステム。
- 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える胃腸腫瘍又は胃腸病変を診断する内視鏡検査システムにおいて、敵対的ネットワーク(AN)によって癌領域を有する又は有しないトレーニング画像サンプルをランダムに生成する方法であって、
内視鏡検査トレーニング画像(T1)を準備することと、
前記トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割することと、
前記トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌画像ブロックを自動的に生成することを学習することと、
前記トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常画像ブロックを自動的に生成することを学習することと、
前記自動的に生成された癌画像ブロック及び前記自動的に生成された正常画像ブロックに基づいて、画像を含むセグメンテーションマップ(S2)をランダムに生成することと、
前記生成されたセグメンテーションマップから、前記ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習することと
を含んでなる方法。 - いずれの白色ピクセルも前記セグメンテーションマップにおける癌領域を示し、前記セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合がある、請求項13に記載の方法。
- 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断する方法であって、
特徴抽出とその後に続くセグメンテーションとを含むレベル1予測ネットワーク(L1PN)を用いて、収集されたトレーニング画像から、レベル1予測結果がIEE画像の癌確率であることを学習することと、
予測ネットワークにフィードする特徴抽出を含むレベル2予測ネットワーク(L2PN)を用いて、前記収集されたトレーニング画像から、レベル2予測結果が前記IEE画像の検出された癌領域であることを学習することと、
前記L1PN及び前記L2PNを用いて前記IEE画像の前記レベル1結果及び前記レベル2結果を予測することと
を含んでなる方法。 - 処理される放射線画像を受信するように構成された特徴抽出ネットワークと、
前記特徴抽出ネットワークの出力を受信し、癌ローカライゼーション結果を生成するように構成されたセグメンテーションネットワークと、
前記特徴抽出ネットワークの出力を受信し、癌検出結果を生成するように構成された予測ネットワークと
を備えてなる、放射線画像を処理するシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862629600P | 2018-02-12 | 2018-02-12 | |
US62/629,600 | 2018-02-12 | ||
US16/273,016 | 2019-02-11 | ||
US16/273,016 US11011275B2 (en) | 2018-02-12 | 2019-02-11 | System and method for diagnosing gastrointestinal neoplasm |
PCT/US2019/017668 WO2019157508A1 (en) | 2018-02-12 | 2019-02-12 | System and method for diagnosing gastrointestinal neoplasm |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021513435A true JP2021513435A (ja) | 2021-05-27 |
Family
ID=67541069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564808A Pending JP2021513435A (ja) | 2018-02-12 | 2019-02-12 | 胃腸腫瘍を診断するシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11011275B2 (ja) |
EP (1) | EP3753006A1 (ja) |
JP (1) | JP2021513435A (ja) |
CN (1) | CN112041912A (ja) |
TW (1) | TWI823897B (ja) |
WO (1) | WO2019157508A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108734211B (zh) * | 2018-05-17 | 2019-12-24 | 腾讯科技(深圳)有限公司 | 图像处理的方法和装置 |
WO2019241155A1 (en) * | 2018-06-11 | 2019-12-19 | Arterys Inc. | Simulating abnormalities in medical images with generative adversarial networks |
US10810460B2 (en) | 2018-06-13 | 2020-10-20 | Cosmo Artificial Intelligence—AI Limited | Systems and methods for training generative adversarial networks and use of trained generative adversarial networks |
US11100633B2 (en) * | 2018-06-13 | 2021-08-24 | Cosmo Artificial Intelligence—Al Limited | Systems and methods for processing real-time video from a medical image device and detecting objects in the video |
US10902238B2 (en) * | 2018-11-28 | 2021-01-26 | Toyota Research Institute, Inc. | Systems and methods for predicting semantics of a particle using semantic segmentation |
KR102034248B1 (ko) * | 2019-04-19 | 2019-10-18 | 주식회사 루닛 | GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템 |
AU2020327651A1 (en) * | 2019-08-13 | 2022-03-03 | University Of Hertfordshire Higher Education Corporation | Predicting visible/infrared band images using radar reflectance/backscatter images of a terrestrial region |
TWI723547B (zh) * | 2019-09-19 | 2021-04-01 | 宏碁股份有限公司 | 風格移轉的方法及其電腦程式產品 |
CN110852332B (zh) * | 2019-10-29 | 2020-12-01 | 腾讯科技(深圳)有限公司 | 训练样本的生成方法、装置、存储介质及电子设备 |
CN110827297A (zh) * | 2019-11-04 | 2020-02-21 | 中国科学院自动化研究所 | 基于改进的条件生成对抗网络的绝缘子分割方法 |
TWI719713B (zh) * | 2019-11-14 | 2021-02-21 | 緯創資通股份有限公司 | 物件偵測方法、電子裝置與物件偵測系統 |
CN111047582A (zh) * | 2019-12-17 | 2020-04-21 | 山东大学齐鲁医院 | 基于深度学习的小肠镜下克罗恩病辅助诊断系统 |
CN111341438B (zh) * | 2020-02-25 | 2023-04-28 | 中国科学技术大学 | 图像处理方法、装置、电子设备及介质 |
CN111462048A (zh) * | 2020-03-09 | 2020-07-28 | 平安科技(深圳)有限公司 | 多标签多示例的图像检测方法、装置、设备及存储介质 |
CN111488911B (zh) * | 2020-03-15 | 2022-04-19 | 北京理工大学 | 基于Mask R-CNN与GAN的图像实体抽取方法 |
CN111311614B (zh) * | 2020-03-27 | 2021-10-29 | 西安电子科技大学 | 基于分割网络和对抗网络的三维点云语义分割方法 |
CN111524580B (zh) * | 2020-04-13 | 2024-04-19 | 吴刚 | 一种基于神经网络的病毒筛查与防疫系统及方法 |
CN111488865B (zh) | 2020-06-28 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 图像优化方法、装置、计算机存储介质以及电子设备 |
CN111967930A (zh) * | 2020-07-10 | 2020-11-20 | 西安工程大学 | 一种基于多网络融合的服装风格识别推荐方法 |
WO2022076516A1 (en) * | 2020-10-09 | 2022-04-14 | The Trustees Of Columbia University In The City Of New York | Adaptable automated interpretation of rapid diagnostic tests using self-supervised learning and few-shot learning |
CN112837338B (zh) * | 2021-01-12 | 2022-06-21 | 浙江大学 | 一种基于生成对抗网络的半监督医学图像分割方法 |
CN112426119B (zh) * | 2021-01-26 | 2021-04-13 | 上海孚慈医疗科技有限公司 | 一种内窥镜筛查处理方法和装置 |
CN112885464B (zh) * | 2021-03-12 | 2022-10-04 | 华东师范大学 | 一种基于Att-Res2-CE-Net的鼻内部疾病实时辅助诊疗系统 |
CN113159047B (zh) * | 2021-04-16 | 2024-02-06 | 南通大学 | 一种基于cgan图像扩增的变电设备红外图像温度值识别方法 |
CN113052865B (zh) * | 2021-04-16 | 2023-12-19 | 南通大学 | 一种基于图像相似度的输电线路小样本温度图像扩增方法 |
CN114391792B (zh) * | 2021-09-13 | 2023-02-24 | 南京诺源医疗器械有限公司 | 基于窄带成像的肿瘤预测方法、装置及成像内镜 |
TWI830161B (zh) * | 2022-02-25 | 2024-01-21 | 國立陽明交通大學 | 腦部腫瘤種類自動判別系統、其伺服計算機裝置及計算機可讀取的儲存媒體 |
CN116327103B (zh) * | 2023-05-30 | 2023-07-21 | 北京大学第三医院(北京大学第三临床医学院) | 一种基于深度学习的大视角喉镜 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1091782A (ja) * | 1996-09-10 | 1998-04-10 | Olympus Optical Co Ltd | 濃淡画像用特定部位抽出方法 |
JP2011135983A (ja) * | 2009-12-28 | 2011-07-14 | Olympus Corp | 画像処理装置、電子機器、プログラム及び画像処理方法 |
WO2018008593A1 (ja) * | 2016-07-04 | 2018-01-11 | 日本電気株式会社 | 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7461048B2 (en) * | 2003-07-21 | 2008-12-02 | Aureon Laboratories, Inc. | Systems and methods for treating, diagnosing and predicting the occurrence of a medical condition |
TW201000074A (en) * | 2008-06-18 | 2010-01-01 | Qi-Wen Xie | Pathologic detecting system by using the detection of perspective image of breast and the method thereof |
WO2013091186A1 (zh) * | 2011-12-21 | 2013-06-27 | 中国科学院自动化研究所 | 多参数三维磁共振图像脑肿瘤分割方法 |
WO2014152919A1 (en) * | 2013-03-14 | 2014-09-25 | Arizona Board Of Regents, A Body Corporate Of The State Of Arizona For And On Behalf Of Arizona State University | Kernel sparse models for automated tumor segmentation |
CN106339591B (zh) * | 2016-08-25 | 2019-04-02 | 汤一平 | 一种基于深度卷积神经网络的预防乳腺癌自助健康云服务系统 |
US10679352B2 (en) * | 2016-11-07 | 2020-06-09 | Institute Of Automation, Chinese Academy Of Sciences | Method for automatic segmentation of brain tumors merging full convolution neural networks with conditional random fields |
US10575774B2 (en) * | 2017-02-27 | 2020-03-03 | Case Western Reserve University | Predicting immunotherapy response in non-small cell lung cancer with serial radiomics |
US10699412B2 (en) * | 2017-03-23 | 2020-06-30 | Petuum Inc. | Structure correcting adversarial network for chest X-rays organ segmentation |
US20190042826A1 (en) * | 2017-08-04 | 2019-02-07 | Oregon Health & Science University | Automatic nuclei segmentation in histopathology images |
JP7076698B2 (ja) * | 2017-11-17 | 2022-05-30 | 国立研究開発法人国立がん研究センター | 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム |
CN109242844B (zh) * | 2018-09-04 | 2021-08-06 | 青岛大学附属医院 | 基于深度学习的胰腺癌肿瘤自动识别系统、计算机设备、存储介质 |
-
2019
- 2019-02-11 US US16/273,016 patent/US11011275B2/en active Active
- 2019-02-12 EP EP19707973.4A patent/EP3753006A1/en not_active Withdrawn
- 2019-02-12 WO PCT/US2019/017668 patent/WO2019157508A1/en active Search and Examination
- 2019-02-12 TW TW108104644A patent/TWI823897B/zh active
- 2019-02-12 CN CN201980025246.5A patent/CN112041912A/zh active Pending
- 2019-02-12 JP JP2020564808A patent/JP2021513435A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1091782A (ja) * | 1996-09-10 | 1998-04-10 | Olympus Optical Co Ltd | 濃淡画像用特定部位抽出方法 |
JP2011135983A (ja) * | 2009-12-28 | 2011-07-14 | Olympus Corp | 画像処理装置、電子機器、プログラム及び画像処理方法 |
WO2018008593A1 (ja) * | 2016-07-04 | 2018-01-11 | 日本電気株式会社 | 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体 |
Non-Patent Citations (2)
Title |
---|
LE HOU, ET AL.: "Unsupervised Histopathology Image Synthesis", AEXIV, JPN6023001516, 2017, ISSN: 0004968823 * |
MAAYAN FRID-ADAR, ET AL.: "SYNTHETIC DATA AUGMENTATION USING GAN FOR IMPROVED LIVER LESION CLASSIFICATION", ARXIV, JPN6023001515, 2018, ISSN: 0004968822 * |
Also Published As
Publication number | Publication date |
---|---|
US20190252073A1 (en) | 2019-08-15 |
TWI823897B (zh) | 2023-12-01 |
US11011275B2 (en) | 2021-05-18 |
WO2019157508A1 (en) | 2019-08-15 |
EP3753006A1 (en) | 2020-12-23 |
CN112041912A (zh) | 2020-12-04 |
TW201941217A (zh) | 2019-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021513435A (ja) | 胃腸腫瘍を診断するシステム及び方法 | |
US20210406591A1 (en) | Medical image processing method and apparatus, and medical image recognition method and apparatus | |
Yap et al. | Deep learning in diabetic foot ulcers detection: A comprehensive evaluation | |
Wang et al. | Automatically discriminating and localizing COVID-19 from community-acquired pneumonia on chest X-rays | |
Altaf et al. | Going deep in medical image analysis: concepts, methods, challenges, and future directions | |
Gottlieb et al. | Central reading of ulcerative colitis clinical trial videos using neural networks | |
Sun et al. | Colorectal polyp segmentation by U-Net with dilation convolution | |
Zhou et al. | Cross-level feature aggregation network for polyp segmentation | |
Liu et al. | Detection and diagnosis of colitis on computed tomography using deep convolutional neural networks | |
Zhu et al. | A 3d coarse-to-fine framework for automatic pancreas segmentation | |
CN112466466B (zh) | 基于深度学习的消化道辅助检测方法、装置和计算设备 | |
Taş et al. | Super resolution convolutional neural network based pre-processing for automatic polyp detection in colonoscopy images | |
CN113129293A (zh) | 医学图像分类方法、装置、计算机设备和存储介质 | |
Nizamani et al. | Advance Brain Tumor segmentation using feature fusion methods with deep U-Net model with CNN for MRI data | |
Ma et al. | Deep learning for classification and localization of early gastric cancer in endoscopic images | |
Mahmood et al. | Multimodal densenet | |
Fu et al. | Deep supervision feature refinement attention network for medical image segmentation | |
Wang et al. | A novel automatic acne detection and severity quantification scheme using deep learning | |
CN116958535B (zh) | 一种基于多尺度残差推理的息肉分割系统及方法 | |
Maram et al. | Brain tumour detection on brats 2020 using u-net | |
Galdran et al. | A hierarchical multi-task approach to gastrointestinal image analysis | |
Mirza et al. | Computer Aided Diagnosis for Gastrointestinal Cancer Classification using Hybrid Rice Optimization with Deep Learning | |
Waseem Sabir et al. | FibroVit—Vision transformer-based framework for detection and classification of pulmonary fibrosis from chest CT images | |
Singh et al. | Counterfactual explainable gastrointestinal and colonoscopy image segmentation | |
CN113096132A (zh) | 图像处理的方法、装置、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230120 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230420 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230815 |