JP2021513435A - 胃腸腫瘍を診断するシステム及び方法 - Google Patents

胃腸腫瘍を診断するシステム及び方法 Download PDF

Info

Publication number
JP2021513435A
JP2021513435A JP2020564808A JP2020564808A JP2021513435A JP 2021513435 A JP2021513435 A JP 2021513435A JP 2020564808 A JP2020564808 A JP 2020564808A JP 2020564808 A JP2020564808 A JP 2020564808A JP 2021513435 A JP2021513435 A JP 2021513435A
Authority
JP
Japan
Prior art keywords
image
training
cancer
network
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020564808A
Other languages
English (en)
Inventor
シュウ,チーチャン
リー,ツァンチャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AiSkopy Inc
Original Assignee
AiSkopy Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AiSkopy Inc filed Critical AiSkopy Inc
Publication of JP2021513435A publication Critical patent/JP2021513435A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2736Gastroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Pulmonology (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Business, Economics & Management (AREA)
  • Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

IEE画像を表示するディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断するシステム及び方法である。この方法は、内視鏡検査トレーニング画像T1を収集することと、生成されたセグメンテーションマップから、敵対的ネットワークANにおける生成器ネットワークを用いてリアルなIEE画像を新たなトレーニング画像サンプルT2として自動的に生成することとを含む、ANによって癌領域を有する又は有しないトレーニング画像サンプルをランダムに生成することと、予測ネットワークL1PNを用いて、収集されたT1及びT2から、レベル1予測結果がIEE画像の癌確率であることを学習することと、予測ネットワークL2PNを用いて、レベル2予測結果がIEE画像の検出された癌領域であることを学習することと、ANを用いずにL1PN及びL2PNを用いて、IEE画像のレベル1結果及びレベル2結果を予測することとを含む。【選択図】図2

Description

開示されている技術は、内視鏡検査に関し、より詳細には、内視鏡検査によって初期段階胃癌(及び他のGI癌)の早期の診断及び検出に関する。
[関連出願の相互参照]
本出願は、2018年2月12日に出願された米国特許出願第62/629,600号及び2019年2月11日に出願された米国特許出願第16/273,016号に対する優先権を主張し、その内容はどちらも、引用することによりその全体が本明細書の一部をなすものとする。
内視鏡検査によって胃腸(GI:gastrointestinal)癌を診断する要求が高まってきているが、病変(特に、初期段階癌)を検出することができ見逃すことがない経験を積んだ内視鏡検査医師は限られた数しかいない。したがって、ディープラーニングの進歩によって、正解率/感度/特異度性能を従来の画像特徴解析方法(幾つかの研究では、約50%〜70%のレベルにある)よりも大幅に高めている(95%レベルまで)コンピュータ支援診断は、内視鏡検査を実践して初期段階GI癌を診断及び検出する医師の支援を容易にすることができる。
既定の画像特徴を用いて初期段階胃癌を診断する従来の画像解析方法は、正解率、感度及び特異度が約50%〜70%の範囲でしか動作しないことが分かっている。
本技術のシステム及び方法はそれぞれ、幾つかの態様を有し、それらのいずれの1つも、その望ましい属性を単独で担うものではない。本発明の範囲を限定することなく、幾つかの態様を以下に簡潔に論述する。
本開発技術の1つの態様において、画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断する方法であって、敵対的ネットワーク(AN)によって、癌領域(複数の場合もある)を有する又は有しないトレーニング画像サンプルをランダムに生成することであって、この生成することは、内視鏡検査トレーニング画像(T1)を収集することと、トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割することと、トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌ブロックを自動的に生成することを学習することと、トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常IEE画像ブロックを自動的に生成することを学習することと、自動的に生成された癌ブロック及び自動的に生成された正常IEE画像ブロックに基づいて、白黒画像を含むセグメンテーションマップ(S2)をランダムに生成することであって、任意の白色ピクセルは癌領域を示し、セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合があることと、生成されたセグメンテーションマップから、ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習することとを含むことと、レベル1予測ネットワーク(L1PN)を用いて、収集されたT1及びT2から、レベル1予測結果がIEE画像の癌確率であることを学習することであって、T2はANによって生成されることと、レベル2予測ネットワーク(L2PN)を用いて、収集されたT1及びT2から、レベル2予測結果がIEE画像の検出された癌領域(複数の場合もある)であることを学習することであって、T2はANによって生成されることと、ANを用いることなく、L1PN及びL2PNを用いて、IEE画像のレベル1結果及びレベル2結果を予測することとを含む方法がもたらされる。
IEE画像は、拡大狭帯域撮像、エンドサイトマイクロスコーピ、i−SCAN、フレキシブルスペクトル撮像カラー強調、青色レーザ撮像、及びブライトレーザ撮像のうちの少なくとも1つを含むことができる。セグメンテーションマップ(S1)はグラウンドトゥルースを含むことができる。グラウンドトゥルースは医師によってラベル付けすることができる。方法は、収集された内視鏡検査トレーニング画像に基づいて追加のトレーニング画像を生成することを更に含むことができ、生成することは、収集された内視鏡検査トレーニング画像を回転又は反転させて、1つ以上の拡張されたトレーニング画像を作成することと、収集された内視鏡検査トレーニング画像よりも大きな解像度を有する誘導セグメンテーションマップを準備することと、誘導セグメンテーションマップをランダムにクロッピングして、収集された内視鏡検査トレーニング画像の解像度と等しい解像度を有するサブマップを取得することと、追加のトレーニング画像を生成するためにサブマップを拡張されたトレーニング画像のそれぞれと乗算することとを含む。レベル2予測結果の検出された癌領域(複数の場合もある)はピクセルレベルの解像度にあるものとすることができる。
本開発技術の別の態様において、画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断するシステムであって、敵対的ネットワーク(AN)によって、癌領域(複数の場合もある)を有する又は有しないトレーニング画像サンプルをランダムに生成する手段であって、内視鏡検査トレーニング画像(T1)を収集する手段と、トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割する手段と、トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌ブロックを自動的に生成することを学習する手段と、トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常IEE画像ブロックを自動的に生成することを学習する手段と、自動的に生成された癌ブロック及び自動的に生成された正常IEE画像ブロックに基づいて、白黒画像を含むセグメンテーションマップ(S2)をランダムに生成する手段であって、任意の白色ピクセルは癌領域を示し、セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合がある、生成する手段と、生成されたセグメンテーションマップから、ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習する手段とを備える、トレーニング画像サンプルをランダムに生成する手段と、レベル1予測ネットワーク(L1PN)を用いて、収集されたT1及びT2から、レベル1予測結果がIEE画像の癌確率であることを学習する手段であって、T2はANによって生成される、学習する手段と、レベル2予測ネットワーク(L2PN)を用いて、収集されたT1及びT2から、レベル2予測結果がIEE画像の検出された癌領域(複数の場合もある)であることを学習する手段であって、T2はANによって生成される、学習する手段と、ANを用いることなく、L1PN及びL2PNを用いて、IEE画像のレベル1結果及びレベル2結果を予測する手段とを備えるシステムがもたらされる。
IEE画像は、拡大狭帯域撮像、エンドサイトマイクロスコーピ、i−SCAN、フレキシブルスペクトル撮像カラー強調、青色レーザ撮像、及びブライトレーザ撮像のうちの少なくとも1つを含むことができる。セグメンテーションマップ(S1)はグラウンドトゥルースを含むことができる。グラウンドトゥルースは医師によってラベル付けすることができる。システムは、収集された内視鏡検査トレーニング画像に基づいて追加のトレーニング画像を生成する手段を更に備えることができ、生成する手段は、収集された内視鏡検査トレーニング画像を回転又は反転させて、1つ以上の拡張されたトレーニング画像を作成する手段と、収集された内視鏡検査トレーニング画像よりも大きな解像度を有する誘導セグメンテーションマップを準備する手段と、誘導セグメンテーションマップをランダムにクロッピングして、収集された内視鏡検査トレーニング画像の解像度と等しい解像度を有するサブマップを取得する手段と、追加のトレーニング画像を生成するためにサブマップを拡張されたトレーニング画像のそれぞれと乗算する手段とを備える。レベル2予測結果の検出された癌領域(複数の場合もある)はピクセルレベルの解像度にあるものとすることができる。
本開発技術の別の態様において、画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える胃腸腫瘍又は胃腸病変を診断する内視鏡検査システムにおいて、敵対的ネットワーク(AN)によって癌領域(複数の場合もある)を有する又は有しないトレーニング画像サンプルをランダムに生成する方法であって、内視鏡検査トレーニング画像(T1)を準備することと、トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割することと、トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌画像ブロックを自動的に生成することを学習することと、トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常画像ブロックを自動的に生成することを学習することと、自動的に生成された癌画像ブロック及び自動的に生成された正常画像ブロックに基づいて、画像を含むセグメンテーションマップ(S2)をランダムに生成することと、生成されたセグメンテーションマップから、ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習することとを含む方法がもたらされる。
いずれの白色ピクセルもセグメンテーションマップにおける癌領域を示すことができ、セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合がある。
本開発技術の別の態様において、画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断する方法であって、特徴抽出とその後に続くセグメンテーションとを含むレベル1予測ネットワーク(L1PN)を用いて、収集されたトレーニング画像から、レベル1予測結果がIEE画像の癌確率であることを学習することと、予測ネットワークにフィードする特徴抽出を含むレベル2予測ネットワーク(L2PN)を用いて、収集されたトレーニング画像から、レベル2予測結果がIEE画像の検出された癌領域(複数の場合もある)であることを学習することと、L1PN及びL2PNを用いてIEE画像のレベル1結果及びレベル2結果を予測することとを含む方法がもたらされる。
本開発技術の更に別の態様において、処理される放射線画像を受信するように構成された特徴抽出ネットワークと、特徴抽出ネットワークの出力を受信し、癌ローカライゼーション結果を生成するように構成されたセグメンテーションネットワークと、特徴抽出ネットワークの出力を受信し、癌検出結果を生成するように構成された予測ネットワークとを備える、放射線画像を処理するシステムがもたらされる。
本出願は、カラーで作製された少なくとも1つの図面を含む。カラー図面(複数の場合もある)を有する本特許のコピーは、要求及び必要な手数料の支払いに応じて米国特許商標庁によって提供される。
AI.SKOPYシステムとして知られている画像認識用の人工知能構成要素を備えるコンピュータ支援診断システムの全体的なフレームワークを示すブロック図である。 AI.SKOPYシステムのトレーニングフェーズを示すブロック図である。 特徴抽出器ネット、セグメンテーションネット、及び予測ネットのネットワークアーキテクチャを示すブロック図である。 敵対的ネットワーク(AN:adversarial network)のトレーニングフェーズのデータ拡張方法を示すブロック図である。 ANのトレーニングフェーズを示すブロック図である。 生成器ネットワーク及び弁別器ネットワークのネットワークアーキテクチャを示すブロック図である。 レベル1予測及びレベル2予測の双方の試験フェーズを示すブロック図である。 医師注釈付き(physician annotated)癌エリア出力と対比した癌エリアを特定するレベル2予測ネットワーク出力の画像例である。 医師注釈付き癌エリア出力と対比した癌エリアを特定するレベル2予測ネットワーク出力の別の画像例である。 医師注釈付き癌エリア出力と対比した癌エリアを特定するレベル2予測ネットワーク出力の別の画像例である。 医師注釈付き癌エリア出力と対比した癌エリアを特定するレベル2予測ネットワーク出力の別の画像例である。 医師注釈付き癌エリア出力と対比した癌エリアを特定するレベル2予測ネットワーク出力の更に別の画像例である。
或る特定の例示の実施形態の以下の詳細な説明は、本発明の特定の実施形態の様々な説明を提示する。しかしながら、本発明は、多数の異なる方法で具現化することができる。
本明細書に提示される説明に用いられる術語は、単に本発明の幾つかの特定の実施形態の詳細な説明とともに利用されているだけのものであるので、限定的にも制限的にも解釈されることを意図したものではない。さらに、本発明の実施形態は、幾つかの新規な特徴を含む場合があり、それらの特徴のいずれの1つも、その望ましい属性を単独で担うものではないか、又は、本明細書において説明する本発明の実施に必須のものではない。
関数、アルゴリズム、システム等のデータ関係及びパターンを表すモデルは、入力(入力ベクトルと呼ばれることがある)を受け取り、或る方法で入力に対応する出力(出力ベクトルと呼ばれることがある)を生成することができる。例えば、モデルは、人工ニューラルネットワーク(NN:neural network)として実施することができる。人工ニューラルネットワークは、動物の生物学的な神経ネットワークと類似した計算実体であるが、コンピューティングデバイスによって実施されるという意味で人工である。NNベースのモデルにおける出力は、フォワードパスを行うことによって得られる。フォワードパスは、モデルのパラメータを表す大きなNN重み行列に、入力特徴ベクトル又は隠れた中間表現に対応するベクトルを乗算することを伴う。音声、手書き、顔等を認識するように設計されたシステム等の認識システムでは、NNベースのモデルは、フォワードパスを介して確率スコアを生成することができる。確率スコアは、入力が特定のラベル、クラス等に対応する確率を示すことができる。
NNのパラメータは、トレーニングと呼ばれるプロセスにおいて設定することができる。例えば、NNベースのモデルは、入力データと、対応する入力データに対するモデルの正しい又は好ましい出力とを含むトレーニングデータを用いてトレーニングすることができる。個々の入力ベクトルの集合は、単一の入力ベクトルの代わりに入力行列を用いることによって同時に処理することができる。モデルが、正しい又は好ましい出力を生成する(すなわち、正しい又は好ましい出力に収束する)まで、NNは入力データを繰り返し処理することができ、NNのパラメータ(例えば、重み行列)を変更することができる。重み値の変更は、バックプロパゲーションと呼ばれるプロセスを通じて行うことができる。バックプロパゲーションは、予想されたモデル出力と取得されたモデル出力との間の差を求めることと、次に、モデルの幾つか又は全てのパラメータの値を変更して、予想されたモデル出力と取得されたモデル出力との間の差を削減する方法を求めることとを含む。
一般的に説明すれば、人工ニューラルネットワークは複数のノード層を有する。人工ニューラルネットワークには、ディープニューラルネットワークが含まれるが、これに限定されるものではない。例示として、NNは、入力層及び出力層、並びに入力層と出力層との間の任意の数の中間層又は隠れ層を備えることができる。個々の層は、任意の数の個別のノードを備えることができる。隣接する層のノードは、互いに接続することができ、隣接する層の様々なノードの間の各接続は、それぞれの重みに関連付けることができる。概念上、ノードは、複数の異なる入力値の関数として出力値を計算する計算ユニットであると考えることができる。入力値は、前層内のノードの出力に、前層内のノードと現在のノードとの間の接続に関連付けられた重みを乗算したものを含むことができる。NNが、入力ベクトルの行列(例えば、トレーニングデータ入力ベクトルのバッチ)の形で入力データを処理するとき、NNは、フォワードパスを実行して出力ベクトルの行列を生成することができる。入力ベクトルはそれぞれ、NN入力層のn個のノードに対応するn個の個別のデータ要素又はデータディメンションを含むことができる(ここで、nは或る正の整数である)。各データ要素は、浮動小数点数又は整数等の値とすることができる。フォワードパスは、入力ベクトルの行列に、入力層のノードと次層のノードとの間の接続に関連付けられた重みを表す行列を乗算することと、それらの結果に活性化関数を適用することとを含む。このプロセスは、その後、後続の各NN層について繰り返される。
エンドツーエンドディープラーニング方法論を用いることによって、初期段階胃癌の診断及び癌エリアの検出の性能は、少なくとも1つの研究では、85%〜95%の範囲に飛躍的に改善した。
一般に、ディープラーニングは、様々なタスクに関して良好で安定した性能に達するのに大規模なトレーニングセットを必要とする。しかしながら、医用撮像又は新たなデバイスからキャプチャされる撮像等の幾つかの用途では、十分なトレーニングサンプルがない。本開発技術(development)は、指定された物体のローカライゼーション及び検出のための小規模なトレーニングサンプルに関して用いることができる効果的で効率的なディープラーニングフレームワークを提供する。
本開発技術の例示的な使用事例には、内視鏡検査システムにおける胃腸癌の検出及びローカライゼーション、又は、内視鏡検査システムを補う胃腸癌の検出及びローカライゼーションが含まれる。システムは、画像強調内視鏡検査(IEE:image enhanced endoscopy)画像(例えば、拡大狭帯域撮像内視鏡検査)に関する早期の胃癌の診断及び検出に的を絞ることができるが、同じワーキングモデル及びプロセスは、他の胃腸の病変/癌、例えば、早期食道癌、バレット食道、及び結腸直腸ポリープ/癌にも同様に適用することができる。
本開発技術の他の追加の臨床応用には、炎症性腸疾患(クローン病、潰瘍性大腸炎)における腸炎(例えば、大腸炎)のモニタリング及び監視が含まれる。
本開発技術は、IEEのタイプに制限されず、拡大狭帯域撮像、エンドサイトマイクロスコーピ(endocytomicroscopy)、i−SCAN、フレキシブルスペクトル撮像カラー強調、青色レーザ撮像、及びブライトレーザ撮像を含むIEEに適用可能である。拡大狭帯域撮像は、本明細書では、例示的な使用事例として利用される。
2つの高レベル能力は、以下のとおりである。
1.高性能コンピュータ支援診断システムが、癌領域のローカライゼーション及び検出を提供する。
2.効果的で効率的なディープラーニングフレームワークが、トレーニングに対する小規模なサンプルデータセットの使用を可能にする。
このフレームワークは、畳み込みニューラルネットワーク(CNN:convolutional neural network)及び敵対的生成ネットワーク(GAN:generative adversarial network)を用いる。システムの目標は、対象領域の検出及びローカライゼーション又はセマンティックセグメンテーションである。既存の技法を以下のリストに提供する。これらの3つの文献のそれぞれは、引用することによって、その全体が本明細書の一部をなすものとする。
1.He, Kaiming他著「Mask r-cnn」(arXiv preprint arXiv:1703.06870 (2017))。
2.Long, Jonathan、Evan Shelhamer、及びTrevor Darrell著「Fully convolutional networks for semantic segmentation」(Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (2015))。
3.Shrivastava, Ashish他著「Learning from simulated and unsupervised images through adversarial training」(arXiv preprint arXiv:1612.07828 (2016))。
或る特定の実施形態では、本開発技術の画像拡張技法は、3つのGANを含み、コントローラファクタによって制御される指定された同一物の弁別画像を生成することができる。その上、指定された癌領域を有するM−NBI画像を生成することができる。従来の方法は、指定された癌領域を有するその画像を生成することができない。
以下のものを備える新たなCNNアーキテクチャが設計された。
・全てが3*3カーネル:従来のCNNは、7*7カーネル又はそれよりも更に大きなカーネルを最初の1層〜3層に用いて計算複雑度を削減する。しかしながら、そのサイズはこの点で空間解像度を削減し、M−NBIにおける特徴は非常に無意味なものとなり、そのため、空間解像度を維持するために、より小さなカーネルサイズが利用される。
・プーリングが用いられず、ストライドされた畳み込みが用いられる:プーリングは空間関係を破壊し、M−NBI画像では、ピクセル間の関係が重要であり、これが、プーリングが用いられない理由である。
・複数の特徴抽出器層(例えば、6つ)、複数のセグメンテーション層(例えば、4つ)、及び複数の予測層(例えば、4つ):新たなCNNアーキテクチャにおけるこれらの層の数は、幾つかの実験に従って実験的に求められる。或る特定の実施形態では、これらの値は、計算複雑度と性能との間の最良のトレードオフを提供する。
本開発技術の利点は以下のものを含む。
・サンプルの小規模なデータセットしかトレーニングに必要とされない。
・内視鏡検査のリアルタイムのコンピュータ支援診断システム
・高速で正確な癌領域ローカライゼーション
・内視鏡検査システムにおける癌ロケーション検出のための高速で効果的なCNN
・リアルタイムのコンピュータ支援内視鏡検査診断システム
・小規模なデータセットからのレベル2予測ネットワークのトレーニングフェーズのコンテンツ認識型データ拡張
・癌領域を有する/有しない合成NBI画像を生成するのに用いることができるM−NBI画像合成技法
この開発技術の新たな特徴は以下のとおりである。
1.畳み込みニューラルネットワーク構造は、本開発技術において新しいものである。この特有のCNN構造(図2、図3及び図5〜図7)は、レベル1出力(癌の有無の全体画像診断)及びレベル2出力(ピクセルレベル癌領域表示)を生成するように設計されている。
2.癌領域を有する/有しないリアルなトレーニングM−NBI画像の自動生成。
プロセスを実行するステップ及び構成要素のセットの一実施形態
1.敵対的ネットワーク(AN)によって、癌領域(複数の場合もある)を有する又は有しないトレーニング画像をランダムに生成する。
1.1.トレーニング画像(T1)を収集する。
1.2.対応するセグメンテーションマップに従って画像を正常ブロック及び癌ブロックに分割する。
1.3.トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN:cancerous generative adversarial network)を用いて癌ブロックを自動的に生成することを学習する。
1.4.トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN:normal generative adversarial network)を用いて正常拡大狭帯域撮像(M−NBI:magnified narrow band imaging)画像ブロックを自動的に生成することを学習する。
1.5.セグメンテーションマップ(白色領域が癌領域を意味するだけの白黒画像)をランダムに生成する。このセグメンテーションマップは、癌が存在しないことを意味する黒色ピクセルのみである場合がある。
1.6.上記1.5に従って、黒色領域は、1.4における結果から満たされるのに対して、白色領域は、1.3における結果から満たされる。
1.7.上記1.6における結果からANにおける生成器ネットワークを用いてリアルなM−NBI画像を自動的に生成することを学習する。生成された結果は、新たなトレーニングサンプル(T2)とみなすことができる。
2.L1PNを用いて、収集されたT1及びT2からレベル1予測結果(M−NBI画像の癌確率)を学習する。ここで、T2はANによって生成される。
3.L2PNを用いて、収集されたT1及びT2からレベル2予測結果(M−NBI画像の癌領域の検出)を学習する。ここで、T2はANによって生成される。
4.トレーニングプロセスが行われた後、L1PN及びL2PNを用いて、M−NBI画像のL1結果及びL2結果を予測する。このステップでは、ANはもはや必要とされない。
トレーニング画像の処理を行って拡大狭帯域撮像(M−NBI)結果を生成するシステムの3つの最上位レベル構成要素は、以下のとおりである。
A.敵対的ネットワーク(AN)−これは、L1PN及びL2PNをトレーニングするのに用いられ、試験フェーズでは用いられない。試験フェーズ=M−NBI画像の診断結果を生成する。
B.CNNのレベル1予測ネットワーク(L1PN:Level 1 prediction network)
C.CNNのレベル2予測ネットワーク(L2PN:Level 2 prediction network)
以下は、AN、L1PN及びL2PNの第2レベル構成要素である。
A.敵対的ネットワーク(AN)
1.トレーニング画像
2.癌GAN(CGAN)
3.正常GAN(NGAN)
4.生成器ネットワーク
5.弁別器ネットワーク
6.最終GAN
7.合成画像
B.レベル1予測ネットワーク(L1PN)
1.L1PNの損失関数
2.特徴抽出器
3.レベル1予測
C.レベル2予測ネットワーク(L2PN)
1.L2PNの損失関数
2.特徴抽出器
3.セグメンテーション
4.レベル2セグメンテーションマップ
レベル1予測及びレベル2セグメンテーションマップは、M−NBI画像を生成するのに用いられる。上記ステップのセットにおいて説明したように、リアルなM−NBI画像は、ANのみを用いて生成される。ANがトレーニングされている間、ANを用いて、任意の正常M−NBI画像及び癌M−NBI画像を合成することができる。これは、トレーニングセットのサイズを拡張するのに用いることができる。大規模なトレーニングセットがあるとき、効果的なL1PN及びL2PNをトレーニングすることができる。最後に、L1PN及びL2PNを用いて、M−NBI画像の癌確率及びそのロケーションを予測することができる。
全結合(FC:Fully Connected)層及びSoftmax関数をL1PNの最後部に配置することができる。これらは、CNNを良好に機能させる共通のストラテジーである。
図1は、例示的なコンピュータ支援診断システム100の全体的なフレームワークを示している。AI.SKOPYシステムと呼ばれる構成要素の人工知能システム120は、任意のビデオ信号出力(例えば、RGB又はYCbCr)を有する任意の適した既存の内視鏡検査システム110から画像入力を受信するのに適用することができる。従来の内視鏡検査システムは、内視鏡検査画像を表示モニタ160上に示す。医師は、その場合、内視鏡検査画像を視認し、内視鏡検査システムディスプレイ上の画像を視認することに基づいて、内視鏡検査画像に癌があるか否かについての診断170を行うことができる。AI.SKOPYシステム120は、内視鏡検査画像信号(静止フレーム画像又はビデオ)を受信し、この画像信号(静止フレーム画像又はビデオ)のコンテンツを解析することができ、その後、1)癌検出140及びその確率と、2)癌領域ローカライゼーション150(存在する場合)との2つの情報レベルを有する出力結果をディスプレイ130上に生成することができる。
L1PN/L2PNのトレーニングフェーズ
知られているように、ニューラルネットワークは、データセットを用いてトレーニングされると、画像認識機能を提供することができる。図2を参照すると、システム120のトレーニングフェーズ200が記載されている。このフレームワークは3つの主要部分を含む。
1.レベル1予測ネットワーク(L1PN):画像に癌があるか否かを検出する。また、システムは検出結果の信頼度パラメータも提供する。
2.レベル2予測ネットワーク(L2PN):画像内の癌領域(存在する場合)(複数の場合もある)のロケーションをラベル付けする。
3.敵対的ネットワーク(AN):癌領域を有する又は有しない合成M−NBI画像を生成するのに用いられる。
システム120のトレーニングフェーズの詳細は、以下のとおりに説明される。ラベル210bを有するトレーニング画像は、特徴抽出器ネットワーク220、セグメンテーションネットワーク230、予測ネットワーク240及び敵対的ネットワーク280の4つのネットワークをトレーニングするのに用いられる。まず、トレーニング画像210bが特徴抽出器ネット220(そのアーキテクチャ/構造は図3に示されている)に入力され、或る特定の実施形態では、256個の特徴マップが抽出される。各特徴マップは予測ネットワーク240に入力され、0〜1の範囲にある2つの応答値が生成される。第1の応答値は、画像における癌の確率Pを示し、第2の応答値は、画像における非癌の確率Pを示す。画像の癌確率Pは、以下の式によって求められる。
Figure 2021513435
ネットワーク220及び240は、予測ネット240によって予測されたラベル250をグラウンドトゥルース210a(医師によってラベル付けされる)と比較することによって更新することができる。このブランチはL1PN(ネットワーク220〜ネットワーク240)と呼ばれる。
図3を参照すると、ネットワークアーキテクチャ300が示されている。トレーニング画像310のセットが、6つの密ブロックによって構築される特徴抽出器ネットワーク320[Ref1:Huang、Gao他著「Densely connected convolutional networks」(CVPR, Vol. 1, No. 2, 2017, p. 3)]への入力として提供される。Ref1では、任意の層から全ての後続の層に直接接続を用いる高密度に接続された畳み込みネットワーク(DenseNet)が提案されている。その結果、第l層は、全ての先行層x、...、xl−1の特徴マップを入力として受信する。すなわち、x=H([x,x,...,xl−1])であり、ここで、[x,x,...,xl−1]は、層0、...、l−1において生成された特徴マップを連結したものを指す。実施を容易にするために、この段落の式におけるH(・)の複数の入力は、単一のテンソルに連結することができる。画像xは、L個の層を有する畳み込みネットワークを通過する。L個の層のそれぞれは非線形変換H(・)を実施する。ここで、lは層のインデックスである。H(・)は、バッチ正規化(BN:batch normalization)、正規化線形ユニット(ReLU:rectified linear units)、プーリング、又は畳み込み(Conv:convolution)等の演算の合成関数とすることができる。第l層の出力はxとして特定される。
DenseNetは、幾つかの密ブロックによって構築される。Ref1の第4頁の表1に述べられているように、通常のDenseNetは、少なくとも58個の密ブロックである。本開発技術では、より効率的な性能を有するように、6つの密ブロックのみが特徴抽出器ネットワークにおいて採用される。このシステムの1つのタスクは、画像に癌があるか否かを特定することである。Ref1に記載されたタスクと比較して、このシステムのタスクは異なっており、したがって、このシステムはそれほど多くの密ブロックを必要としない。
セグメンテーションネットワーク330は、特徴抽出器ネットワーク320の出力を受信する。セグメンテーションネットワーク330は、[Ref2:Long, Jonathan、Evan Shelhamer、及びTrevor Darrell著「Fully convolutional networks for semantic segmentation」(Proceedings of the IEEE conference on Computer Vision and Pattern Recognition, 2015)]に提案されている完全畳み込みネットワークによって触発されたものであり、畳み込み層は、高密度接続層に置き換えられた最後の層に用いられる[Ref2の第3頁、図2]。セグメンテーションネットワークと完全畳み込みネットワーク(FCN:fully convolutional networks)との間の相違は、セグメンテーションネットワークへの入力として特徴抽出器ネットワークが用いられるのに対して、FCNは、AlexNet、Vgg16、又はGoogleNetのネットワークアーキテクチャを最終畳み込み層への入力として用いることである[Ref2の第5頁、表1]。AlexNetと比較して、DenseNetは、より意味のある特徴表現を提供することができるとともに、セグメンテーション結果においてより高い性能も提供することができる。
図2を再び参照すると、256個の特徴マップが、セグメンテーションネットワーク230の入力とみなされる(ここで、アーキテクチャは図3を参照することができる)。その場合、セグメンテーションネットワークは、これらの特徴を高解像度セグメンテーション結果にアップサンプリングするのに用いられる。この場合も、特徴抽出器ネットワーク220及びセグメンテーションネットワーク230は、予測されたセグメンテーションマップ260をグラウンドトゥルース210aと比較することによって更新することができる。このブランチは、ネットワーク220及びネットワーク230を用いるL2PNと呼ばれる。L1PN及びL2PNのトレーニングフェーズの詳細は以下で説明される。
トレーニングフェーズでは、元のトレーニング画像を用いて、既定の損失関数に基づいてL1PN及びL2PNの双方がトレーニングされる。その間、トレーニング画像は、タイプコントローラ(TC:type controller)295によって、ANからの生成された画像とランダムに置き換えられる。TCは、生成された画像が癌領域(複数の場合もある)を含むか否かを判断するのに用いられるスカラーである。この場合、TCは0又は1のいずれかである。TC=1は、生成された画像が癌領域を含むに違いないことを意味する。ANのトレーニングフェーズは後に説明される。このステップは、トレーニングサンプルの多様性を増大するのに用いられ、小規模なトレーニングセットについて効果的なモデルをトレーニングすることも重要である。その後、特徴抽出器220及び予測ネット240はトレーニングされる。特徴抽出器ネットワーク及び予測ネットワークにおける最適な重みは、トレーニング処理後に保存される。その後、予測ネットワークにおける全ての重み、及び、特徴抽出器ネットワーク220における畳み込み(Conv.)1〜Conv.5の重みが固定される。その間、セグメンテーションネットワーク230における重み及び特徴抽出器ネットワーク220におけるConv.6の重みが、L2PNにおいて用いられる損失関数によって学習される。最後に、学習された全ての重みはモデルファイルとして保存される。いずれの試験タスクにおいても、システムは、モデルファイルをプリロードして全ての最適な重みを特徴抽出器ネットワーク、セグメンテーションネットワーク、及び予測ネットワークにリストアし、M−NBI画像をAI.SKOPYシステム120に供給して、それぞれL1結果及びL2結果を取得する。
L1PNのトレーニングフェーズ
L1PNの損失関数は、任意のラベルごとの損失関数として定義することができる。或る特定の実施形態では、以下のように、交差エントロピーが用いられる。
Figure 2021513435
上記式において、pは予測されたラベルであり、qはL1グラウンドトゥルースである(1は癌画像を示し、0は非癌画像を示す)。L1出力及びそのグラウンドトゥルースはスカラー値であることに留意されたい。このように、損失関数は、予測された結果とそのグラウンドトゥルース(正解)との間の相違を評価するのに用いられ、これは、勾配情報を推論するのに用いることができる。損失関数によって得られる勾配は、特徴抽出器ネットワーク220及び予測ネットワーク240(図2)における重みを更新するのに用いることができる。更新方法は、標準的な確率勾配降下法(SGD:stochastic gradient descent)[Ref4:Kingma, D. P., & Ba, J. L. (2015), Adam: A Method for Stochastic Optimization, International Conference on Learning Representations, 1-13]に基づいている。
L2PNのトレーニングフェーズ
L2PNの損失関数は、任意の再構築損失関数として定義することができる。或る特定の実施形態では、以下のように、L2ノルム距離が、予測されたセグメンテーションマップとそのL2グラウンドトゥルースとの間の距離を測定するのに用いられる。
Figure 2021513435
予測された結果及びそのグラウンドトゥルースは画像タイプであることに留意されたい。L2PNでも同様に、損失関数270(図2)が、標準的なSGD[Ref4]によって特徴抽出ネットワーク及びセグメンテーションネットワークの重みを更新するのに用いられる。最後に、図2のブロック220、230及び240における重みは、上記の2つの損失関数によって更新することができる。
加えて、効果的なディープラーニングニューラルネットワーク、すなわち、複数のレベルを有するニューラルネットワークは、特に、トレーニング画像の数が相対的に少ないL2PNでは、小規模なデータセットを用いてトレーニングすることが困難である可能性がある。したがって、以下のように、この欠点を克服するために、特有のデータ拡張方法が設計及び開発された。
L2PNのトレーニングフェーズのコンテンツ認識型データ拡張
図4に記載しているように、コンテンツ認識型データ拡張(CDA:Content-aware Data Augmentation)方法400では、任意のトレーニング画像410を幾つかのステップによって処理することができる。最初に、標準的なデータ拡張430が、上下反転、左右反転、及び90度回転、180度回転、及び270度回転を含む、224×224としてサイズ決めされたトレーニング画像410に対して実行される。これによって、元の画像を含む6つの可能な画像が得られる。次に、2048×2048の解像度を有する誘導セグメンテーションマップ420が作成される。ランダムなクロッピング操作450が、この誘導セグメンテーションマップ420に対して用いられ、224×224としてサイズ決めされたサブマップ470が得られる。次に、画像470及び画像440が乗算され(460)、処理されたトレーニング画像480が得られる。このように、各トレーニング画像は、誘導セグメンテーションマップ420に従って幾つかの部分にランダムに破損され、トレーニングセットのサイズを拡大する。幾つかの実施形態では、誘導セグメンテーションマップは、任意に変更することができる。
ANのトレーニングフェーズ
敵対的生成ネットワーク(GAN)の基本的な考えは、ミニマックス最適化である[Ref3:Goodfellow, Ian他著「Generative adversarial nets」(Advances in neural information processing systems, 2014)]。図5に示す例では、生成器530及び560は、入力から、弁別器540及び570を欺くことができる画像を合成することを目的とする。弁別器の主なタスクは、入力画像が合成されているか否かを調べることである。生成器が勝者である場合には、生成された画像をリアリズム画像とみなすことができる。生成器560及び弁別器570のネットワークアーキテクチャは、図6に生成器610及び弁別器620として示されている。従来のGANは、ランダムノイズから任意のリアリズム画像をランダムに生成するのに用いられる[Ref.3]。本開発技術では、癌領域(複数の場合もある)を有する又は有しない合成画像を制御する必要がある。しかしながら、従来のGANは、合成画像のタイプを指定することができないので、このタスクに用いることができない。本開発技術の新たなANは、図5に示すように、この問題点を解決するのに用いることができる。
図5に示すANには、指定された画像合成タスク用の3つのGAN(敵対的生成ネットワーク)がある。第1のGAN及び第2のGANは、癌画像ブロック又は正常画像ブロックを生成するのに用いられる。この目的のために、トレーニング画像は、癌画像ブロック及び正常画像ブロックにそれぞれ分割される。次に、癌画像ブロック520aを用いて、第1のGAN(癌GAN(CGAN)530−black及び550−blackと呼ばれる)がトレーニングされ、第1のGANのパラメータが、以下の標準的なGAN損失関数によって更新される。
Figure 2021513435
上記式において、D1(550−black)は弁別器であり、G1(530−black)は生成器である。
同様に、正常画像ブロックのGANモデル(正常GAN(NGAN)と呼ばれる)を以下のように同じ方法でトレーニングすることができる。
Figure 2021513435
上記式において、D2(550−brown)は弁別器であり、G2(530−brown)は生成器である。NGAN及びCGANにおける構成要素は互いに同じものとすることができることに留意されたい。
CGAN及びNGANのモデルがトレーニングされると、生成器ネットワーク560は、ランダムに生成されたセグメンテーションマップ594に従って、癌画像ブロック及び正常画像ブロックを融合するように適合されている。コントローラファクタ596は0又は1にいずれかである。コントローラファクタは、次のように用いることができる。コントローラファクタが1であるとき、癌領域は、セグメンテーションマップにおいて任意の形状及びサイズによってランダムに生成される。コントローラファクタが0であるとき、セグメンテーションマップ594は空白画像(すなわち、無癌領域)となる。生成器による合成画像は、弁別器ネットワーク570に送信され、この画像が真であるか又は偽であるかが調べられる。弁別器ネットワーク570が合成画像を真であるとみなすと、トレーニングプロセスを終了することができる。最後に、最終GAN(560及び570)を以下の式によって更新することができる。
Figure 2021513435
上記式において、D3(570)は弁別器であり、G3(560)は生成器である。或る特定の実施形態では、このGANにおける構成要素は、NGAN及びCGANと同様に同じものとすることができる。
試験フェーズ
図7に示すように、L1PN750及びL2PN760の試験フェーズ構成700は、画像710、特徴抽出器720、セグメンテーション層730、及び予測層740を備えることができる。M−NBI画像のL1予測結果及びL2予測結果は、L1PN及びL2PNに画像を通過させることによって取得することができる。
実験
第1の実験セットには、A(130個の画像)、B(343個の画像)及びC(ビデオ、3000個のフレーム)の全部で3つのデータセットがある。T1:データセットA及びBからの70個の癌画像及び60個の正常画像と、T2:3つのデータセットからの30個の癌画像及び30個の正常画像との2つの試験セットがある。結果を表Iに列挙する。Nvidia GPU Titan Xを備えるパーソナルコンピュータでは、画像のランタイムは10msであり、フレームレートはほぼ70フレーム毎秒(FPS)である。表IはL1性能結果を示し、表IIはL2性能結果を示す。
Figure 2021513435
Figure 2021513435
第2の実験セットには、A(130個の画像)、B(343個の画像)及びC(ビデオフレーム、5565個の画像)のL1試験用の3つのデータセットがある。試験セットは、30個の正の画像及び30個の負の画像を含む。表IIIはL1性能結果を示している。L2試験の場合、A(130個の画像)及びB(343個の画像)の2つのデータセットがある。試験セットは、30個の正の画像及び30個の負の画像を含む。表IVはL2性能結果を示している。
L1出力−改善された結果
・3つのデータセット:ビデオフレーム(5565個の画像)、セット2(343個の画像)、セット1(130個の画像)
・トレーニングセット:5978個の画像
・試験セット:30個の正の画像、30個の負の画像
Figure 2021513435
ピクセルごとの正解率によるL2出力−改善結果
・2つのデータセット:セット2(343個の画像)、セット1(130個の画像)
・トレーニングセット:473個の画像
・試験セット:30個の正の画像、30個の負の画像
Figure 2021513435
病院における近年の実験セットでは、試験される1つの構成は、16GB DDR4 RAMと、GTX1080Ti 11GBグラフィックスカードと、480GB SSDとともにIntel i7−7700プロセッサを有するPCを備える。或る特定の実施形態では、HDMI/VGA変換器を用いて、640×480のシステム解像度を提供した。変更されたAlexNet(6つの畳み込み層のみ)及びFCN特徴量に基づく第1バージョンアルゴリズムをこの構成に用いて平均(FPS)=12.25を達成した。
別の構成は、Nvidia Jetson TX2モジュールを利用した。このモジュールは、CPU複合体としてのデュアルコアNvidia Denver2及びクアッドコアARM Cortex−A57と、256コアPascal GPUと、8GB LPDDR4と、32GB eMMCとを備える。Jetson TX2は、高速で最も電力効率の良い組み込みAIコンピューティングデバイスである。変更されたAlexNet(6つの畳み込み層のみ)及びFCN特徴量に基づく第2バージョンアルゴリズムをこの構成に用いて平均(FPS)=10.15を達成した。この第2バージョンアルゴリズムは、実行複雑度を低減するためにパイソンコード最適化が行われていた点で第1のバージョンと異なっていた。同じNvidia Jetson TX2モジュールを利用した第3バージョンアルゴリズムは、6つの密ブロックのスタック、FCN特徴及びコンテンツ認識型データ拡張に基づいている。この構成の平均FPSは8.1である。
代替の実施形態
上記で説明した実施形態の代替形態を次に説明する。或る特定の実施形態では、GANは、画像を合成するのに用いることができる任意のCNNに置き換えることができる。或る特定の実施形態では、弁別トレーニングサンプルを生成することができる任意のフレームワークを、前述した実施形態と同様のフレームワークとして扱うことができる。
結論
当業者には、情報及び信号を、様々な異なる技術及び技法のうちの任意のものを用いて表すことができることが分かる。例えば、上記説明全体を通して参照され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、及びチップは、電圧、電流、電磁波、磁場若しくは磁性粒子、光場若しくは光学粒子、又はそれらの任意の組み合わせによって表すことができる。
当業者には、本明細書に開示された例に関して説明された様々な例示の論理ブロック、モジュール、回路、方法及びアルゴリズムを、電子ハードウェア、コンピュータソフトウェア、又は双方の組み合わせとして実施することができることが更に理解される。ハードウェア及びソフトウェアのこの互換性を明確に示すために、様々な例示の構成要素、ブロック、モジュール、回路、方法及びアルゴリズムが、上記において、それらの機能の点から一般的に説明されている。そのような機能がハードウェアとして実施されるのか又はソフトウェアとして実施されるのかは、特定の用途と、全体的なシステムに課される設計制約とに依存する。当業者は、説明された機能を特定の用途ごとに異なる方法で実施することができるが、そのような実施の決定は、本発明の範囲から逸脱するものと解釈されるべきではない。
本明細書に開示された例に関して説明された様々な例示の論理ブロック、モジュール、及び回路は、本明細書に説明された機能を実行するように設計された汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)若しくは他のプログラマブルロジックデバイス、離散ゲート若しくはトランジスタロジック、離散ハードウェア構成要素、又はそれらの任意の組み合わせを用いて実施又は実行することができる。汎用プロセッサは、マイクロプロセッサとすることができるが、代替形態では、このプロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、又は状態機械とすることができる。プロセッサは、コンピューティングデバイスの組み合わせ、例えば、DSP及びマイクロプロセッサの組み合わせ、複数のマイクロプロセッサの組み合わせ、DSPコアを伴った1つ以上のマイクロプロセッサの組み合わせ、又は他の任意のそのような構成として実施することもできる。
本明細書に開示された例に関して説明された方法又はアルゴリズムは、ハードウェア、プロセッサによって実行されるソフトウェアモジュール、又はそれらの2つの組み合わせにおいて直接具現化することができる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROM、又は現在知られているか若しくは今後利用可能になる他の任意の適した形態のデータ記憶媒体に存在することができる。記憶媒体は、プロセッサが記憶媒体からの情報の読み出し及び記憶媒体への情報の書き込みを行うことができるようにプロセッサに接続することができる。代替形態では、記憶媒体はプロセッサと一体化することができる。プロセッサ及び記憶媒体はASICに存在することができる。
実施形態に応じて、本明細書に説明された方法のうちの任意のものの或る特定の動作、イベント、又は機能は、異なる順序で実行することができ、追加、結合、又は完全に省略することができる(例えば、説明された全ての動作又はイベントが方法の実施に必要であるとは限らない)。その上、或る特定の実施形態では、動作又はイベントは、連続的ではなく同時に実行することができる。
開示された例の上記説明は、当業者が本発明を行い又は用いることを可能にするために提供される。これらの例に対する様々な変更は、当業者に容易に明らかであり、本明細書に定義された一般原理は、本発明の趣旨又は範囲から逸脱することなく、他の例に適用することができる。認識されるように、幾つかの特徴は、他の特徴とは別個に使用又は実施することができるので、本明細書に説明された本発明の或る特定の実施形態は、本明細書に述べた特徴及び利点の全てを提供するとは限らない形で具現化することができる。本明細書に開示された或る特定の発明の範囲は、上記説明ではなく添付の特許請求の範囲によって示される。特許請求の範囲と均等なものの意味及び範囲に含まれる全ての変更は、それらの範囲内に包含される。したがって、本発明は、本明細書に示された例に限定されるように意図されているのではなく、本明細書に開示された原理及び新規な特徴と一致した最も広い範囲を与えられる。
本発明及び従来技術を上回って達成される利点を要約する目的で、本発明の或る特定の目的及び利点が本明細書において上記で説明された。もちろん、必ずしも全てのそのような目的又は利点を本発明のいずれの特定の実施形態によっても達成され得るとは限らないことが理解されるであろう。したがって、例えば、当業者は、本明細書に教示又は示唆され得る他の目的又は利点を必ずしも達成しないが、本明細書に教示又は示唆された1つの利点又は一群の利点を達成又は最大限に活かすように本発明を具現化又は実施することができることを認識する。
これらの実施形態の全ては、本明細書に開示されている本発明の範囲内にあることが意図されている。これらの実施形態及び他の実施形態は、添付図の参照を伴う好ましい実施形態の詳細な説明から当業者に容易に明らかになるが、本発明は、開示されているいずれの特定の好ましい実施形態(複数の場合もある)にも限定されるものではない。

Claims (16)

  1. 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断する方法であって、
    敵対的ネットワーク(AN)によって、癌領域を有する又は有しないトレーニング画像サンプルをランダムに生成することであって、該生成することは、
    内視鏡検査トレーニング画像(T1)を収集することと、
    前記トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割することと、
    前記トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌ブロックを自動的に生成することを学習することと、
    前記トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常IEE画像ブロックを自動的に生成することを学習することと、
    前記自動的に生成された癌ブロック及び前記自動的に生成された正常IEE画像ブロックに基づいて、白黒画像を含むセグメンテーションマップ(S2)をランダムに生成することであって、任意の白色ピクセルは癌領域を示し、前記セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合があることと、
    前記生成されたセグメンテーションマップから、前記ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習することと
    を含むことと、
    レベル1予測ネットワーク(L1PN)を用いて、前記収集されたT1及びT2から、レベル1予測結果が前記IEE画像の癌確率であることを学習することであって、前記T2は前記ANによって生成されることと、
    レベル2予測ネットワーク(L2PN)を用いて、前記収集されたT1及びT2から、レベル2予測結果が前記IEE画像の検出された癌領域であることを学習することであって、前記T2は前記ANによって生成されることと、
    前記ANを用いることなく、前記L1PN及び前記L2PNを用いて、前記IEE画像の前記レベル1結果及び前記レベル2結果を予測することと
    を含んでなる方法。
  2. 前記IEE画像は、拡大狭帯域撮像、エンドサイトマイクロスコーピ、i−SCAN、フレキシブルスペクトル撮像カラー強調、青色レーザ撮像、及びブライトレーザ撮像のうちの少なくとも1つを含む、請求項1に記載の方法。
  3. 前記セグメンテーションマップ(S1)はグラウンドトゥルースを含む、請求項1に記載の方法。
  4. 前記グラウンドトゥルースは医師によってラベル付けされる、請求項3に記載の方法。
  5. 前記収集された内視鏡検査トレーニング画像に基づいて追加のトレーニング画像を生成することを更に含み、
    前記生成することは、
    前記収集された内視鏡検査トレーニング画像を回転又は反転させて、1つ以上の拡張されたトレーニング画像を作成することと、
    前記収集された内視鏡検査トレーニング画像よりも大きな解像度を有する誘導セグメンテーションマップを準備することと、
    前記誘導セグメンテーションマップをランダムにクロッピングして、前記収集された内視鏡検査トレーニング画像の前記解像度と等しい解像度を有するサブマップを取得することと、
    追加のトレーニング画像を生成するために前記サブマップを前記拡張されたトレーニング画像のそれぞれと乗算することと
    を含む、請求項1に記載の方法。
  6. 前記レベル2予測結果の前記検出された癌領域はピクセルレベルの解像度にある、請求項1に記載の方法。
  7. 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断するシステムであって、
    敵対的ネットワーク(AN)によって、癌領域を有する又は有しないトレーニング画像サンプルをランダムに生成する手段であって、
    内視鏡検査トレーニング画像(T1)を収集する手段と、
    前記トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割する手段と、
    前記トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌ブロックを自動的に生成することを学習する手段と、
    前記トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常IEE画像ブロックを自動的に生成することを学習する手段と、
    前記自動的に生成された癌ブロック及び前記自動的に生成された正常IEE画像ブロックに基づいて、白黒画像を含むセグメンテーションマップ(S2)をランダムに生成する手段であって、任意の白色ピクセルは癌領域を示し、前記セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合がある、生成する手段と、
    前記生成されたセグメンテーションマップから、前記ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習する手段と
    を備える、トレーニング画像サンプルをランダムに生成する手段と、
    レベル1予測ネットワーク(L1PN)を用いて、前記収集されたT1及びT2から、レベル1予測結果が前記IEE画像の癌確率であることを学習する手段であって、前記T2は前記ANによって生成される、学習する手段と、
    レベル2予測ネットワーク(L2PN)を用いて、前記収集されたT1及びT2から、レベル2予測結果が前記IEE画像の検出された癌領域であることを学習する手段であって、前記T2は前記ANによって生成される、学習する手段と、
    前記ANを用いることなく、前記L1PN及び前記L2PNを用いて、前記IEE画像の前記レベル1結果及び前記レベル2結果を予測する手段と
    を備えてなるシステム。
  8. 前記IEE画像は、拡大狭帯域撮像、エンドサイトマイクロスコーピ、i−SCAN、フレキシブルスペクトル撮像カラー強調、青色レーザ撮像、及びブライトレーザ撮像のうちの少なくとも1つを含む、請求項7に記載のシステム。
  9. 前記セグメンテーションマップ(S1)はグラウンドトゥルースを含む、請求項7に記載のシステム。
  10. 前記グラウンドトゥルースは医師によってラベル付けされる、請求項9に記載のシステム。
  11. 前記収集された内視鏡検査トレーニング画像に基づいて追加のトレーニング画像を生成する手段を更に備え、
    前記生成する手段は、
    前記収集された内視鏡検査トレーニング画像を回転又は反転させて、1つ以上の拡張されたトレーニング画像を作成する手段と、
    前記収集された内視鏡検査トレーニング画像よりも大きな解像度を有する誘導セグメンテーションマップを準備する手段と、
    前記誘導セグメンテーションマップをランダムにクロッピングして、前記収集された内視鏡検査トレーニング画像の前記解像度と等しい解像度を有するサブマップを取得する手段と、
    追加のトレーニング画像を生成するために前記サブマップを前記拡張されたトレーニング画像のそれぞれと乗算する手段と
    を備えてなる、請求項7に記載のシステム。
  12. 前記レベル2予測結果の前記検出された癌領域はピクセルレベルの解像度にある、請求項7に記載のシステム。
  13. 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える胃腸腫瘍又は胃腸病変を診断する内視鏡検査システムにおいて、敵対的ネットワーク(AN)によって癌領域を有する又は有しないトレーニング画像サンプルをランダムに生成する方法であって、
    内視鏡検査トレーニング画像(T1)を準備することと、
    前記トレーニング画像を対応するセグメンテーションマップ(S1)に従ってトレーニング正常ブロック及びトレーニング癌ブロックに分割することと、
    前記トレーニング癌ブロックから癌敵対的生成ネットワーク(CGAN)を用いて癌画像ブロックを自動的に生成することを学習することと、
    前記トレーニング正常ブロックから正常敵対的生成ネットワーク(NGAN)を用いて正常画像ブロックを自動的に生成することを学習することと、
    前記自動的に生成された癌画像ブロック及び前記自動的に生成された正常画像ブロックに基づいて、画像を含むセグメンテーションマップ(S2)をランダムに生成することと、
    前記生成されたセグメンテーションマップから、前記ANにおける生成器ネットワークを用いて、新たなトレーニング画像サンプル(T2)としてリアルなIEE画像を自動的に生成することを学習することと
    を含んでなる方法。
  14. いずれの白色ピクセルも前記セグメンテーションマップにおける癌領域を示し、前記セグメンテーションマップは、癌がないことを示す黒色ピクセルのみである場合がある、請求項13に記載の方法。
  15. 画像強調内視鏡検査(IEE)画像を表示する内視鏡検査システムディスプレイを備える内視鏡検査システムにおいて胃腸腫瘍又は胃腸病変を診断する方法であって、
    特徴抽出とその後に続くセグメンテーションとを含むレベル1予測ネットワーク(L1PN)を用いて、収集されたトレーニング画像から、レベル1予測結果がIEE画像の癌確率であることを学習することと、
    予測ネットワークにフィードする特徴抽出を含むレベル2予測ネットワーク(L2PN)を用いて、前記収集されたトレーニング画像から、レベル2予測結果が前記IEE画像の検出された癌領域であることを学習することと、
    前記L1PN及び前記L2PNを用いて前記IEE画像の前記レベル1結果及び前記レベル2結果を予測することと
    を含んでなる方法。
  16. 処理される放射線画像を受信するように構成された特徴抽出ネットワークと、
    前記特徴抽出ネットワークの出力を受信し、癌ローカライゼーション結果を生成するように構成されたセグメンテーションネットワークと、
    前記特徴抽出ネットワークの出力を受信し、癌検出結果を生成するように構成された予測ネットワークと
    を備えてなる、放射線画像を処理するシステム。
JP2020564808A 2018-02-12 2019-02-12 胃腸腫瘍を診断するシステム及び方法 Pending JP2021513435A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862629600P 2018-02-12 2018-02-12
US62/629,600 2018-02-12
US16/273,016 2019-02-11
US16/273,016 US11011275B2 (en) 2018-02-12 2019-02-11 System and method for diagnosing gastrointestinal neoplasm
PCT/US2019/017668 WO2019157508A1 (en) 2018-02-12 2019-02-12 System and method for diagnosing gastrointestinal neoplasm

Publications (1)

Publication Number Publication Date
JP2021513435A true JP2021513435A (ja) 2021-05-27

Family

ID=67541069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564808A Pending JP2021513435A (ja) 2018-02-12 2019-02-12 胃腸腫瘍を診断するシステム及び方法

Country Status (6)

Country Link
US (1) US11011275B2 (ja)
EP (1) EP3753006A1 (ja)
JP (1) JP2021513435A (ja)
CN (1) CN112041912A (ja)
TW (1) TWI823897B (ja)
WO (1) WO2019157508A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734211B (zh) * 2018-05-17 2019-12-24 腾讯科技(深圳)有限公司 图像处理的方法和装置
WO2019241155A1 (en) * 2018-06-11 2019-12-19 Arterys Inc. Simulating abnormalities in medical images with generative adversarial networks
US10810460B2 (en) 2018-06-13 2020-10-20 Cosmo Artificial Intelligence—AI Limited Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
US11100633B2 (en) * 2018-06-13 2021-08-24 Cosmo Artificial Intelligence—Al Limited Systems and methods for processing real-time video from a medical image device and detecting objects in the video
US10902238B2 (en) * 2018-11-28 2021-01-26 Toyota Research Institute, Inc. Systems and methods for predicting semantics of a particle using semantic segmentation
KR102034248B1 (ko) * 2019-04-19 2019-10-18 주식회사 루닛 GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템
AU2020327651A1 (en) * 2019-08-13 2022-03-03 University Of Hertfordshire Higher Education Corporation Predicting visible/infrared band images using radar reflectance/backscatter images of a terrestrial region
TWI723547B (zh) * 2019-09-19 2021-04-01 宏碁股份有限公司 風格移轉的方法及其電腦程式產品
CN110852332B (zh) * 2019-10-29 2020-12-01 腾讯科技(深圳)有限公司 训练样本的生成方法、装置、存储介质及电子设备
CN110827297A (zh) * 2019-11-04 2020-02-21 中国科学院自动化研究所 基于改进的条件生成对抗网络的绝缘子分割方法
TWI719713B (zh) * 2019-11-14 2021-02-21 緯創資通股份有限公司 物件偵測方法、電子裝置與物件偵測系統
CN111047582A (zh) * 2019-12-17 2020-04-21 山东大学齐鲁医院 基于深度学习的小肠镜下克罗恩病辅助诊断系统
CN111341438B (zh) * 2020-02-25 2023-04-28 中国科学技术大学 图像处理方法、装置、电子设备及介质
CN111462048A (zh) * 2020-03-09 2020-07-28 平安科技(深圳)有限公司 多标签多示例的图像检测方法、装置、设备及存储介质
CN111488911B (zh) * 2020-03-15 2022-04-19 北京理工大学 基于Mask R-CNN与GAN的图像实体抽取方法
CN111311614B (zh) * 2020-03-27 2021-10-29 西安电子科技大学 基于分割网络和对抗网络的三维点云语义分割方法
CN111524580B (zh) * 2020-04-13 2024-04-19 吴刚 一种基于神经网络的病毒筛查与防疫系统及方法
CN111488865B (zh) 2020-06-28 2020-10-27 腾讯科技(深圳)有限公司 图像优化方法、装置、计算机存储介质以及电子设备
CN111967930A (zh) * 2020-07-10 2020-11-20 西安工程大学 一种基于多网络融合的服装风格识别推荐方法
WO2022076516A1 (en) * 2020-10-09 2022-04-14 The Trustees Of Columbia University In The City Of New York Adaptable automated interpretation of rapid diagnostic tests using self-supervised learning and few-shot learning
CN112837338B (zh) * 2021-01-12 2022-06-21 浙江大学 一种基于生成对抗网络的半监督医学图像分割方法
CN112426119B (zh) * 2021-01-26 2021-04-13 上海孚慈医疗科技有限公司 一种内窥镜筛查处理方法和装置
CN112885464B (zh) * 2021-03-12 2022-10-04 华东师范大学 一种基于Att-Res2-CE-Net的鼻内部疾病实时辅助诊疗系统
CN113159047B (zh) * 2021-04-16 2024-02-06 南通大学 一种基于cgan图像扩增的变电设备红外图像温度值识别方法
CN113052865B (zh) * 2021-04-16 2023-12-19 南通大学 一种基于图像相似度的输电线路小样本温度图像扩增方法
CN114391792B (zh) * 2021-09-13 2023-02-24 南京诺源医疗器械有限公司 基于窄带成像的肿瘤预测方法、装置及成像内镜
TWI830161B (zh) * 2022-02-25 2024-01-21 國立陽明交通大學 腦部腫瘤種類自動判別系統、其伺服計算機裝置及計算機可讀取的儲存媒體
CN116327103B (zh) * 2023-05-30 2023-07-21 北京大学第三医院(北京大学第三临床医学院) 一种基于深度学习的大视角喉镜

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091782A (ja) * 1996-09-10 1998-04-10 Olympus Optical Co Ltd 濃淡画像用特定部位抽出方法
JP2011135983A (ja) * 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7461048B2 (en) * 2003-07-21 2008-12-02 Aureon Laboratories, Inc. Systems and methods for treating, diagnosing and predicting the occurrence of a medical condition
TW201000074A (en) * 2008-06-18 2010-01-01 Qi-Wen Xie Pathologic detecting system by using the detection of perspective image of breast and the method thereof
WO2013091186A1 (zh) * 2011-12-21 2013-06-27 中国科学院自动化研究所 多参数三维磁共振图像脑肿瘤分割方法
WO2014152919A1 (en) * 2013-03-14 2014-09-25 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona For And On Behalf Of Arizona State University Kernel sparse models for automated tumor segmentation
CN106339591B (zh) * 2016-08-25 2019-04-02 汤一平 一种基于深度卷积神经网络的预防乳腺癌自助健康云服务系统
US10679352B2 (en) * 2016-11-07 2020-06-09 Institute Of Automation, Chinese Academy Of Sciences Method for automatic segmentation of brain tumors merging full convolution neural networks with conditional random fields
US10575774B2 (en) * 2017-02-27 2020-03-03 Case Western Reserve University Predicting immunotherapy response in non-small cell lung cancer with serial radiomics
US10699412B2 (en) * 2017-03-23 2020-06-30 Petuum Inc. Structure correcting adversarial network for chest X-rays organ segmentation
US20190042826A1 (en) * 2017-08-04 2019-02-07 Oregon Health & Science University Automatic nuclei segmentation in histopathology images
JP7076698B2 (ja) * 2017-11-17 2022-05-30 国立研究開発法人国立がん研究センター 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム
CN109242844B (zh) * 2018-09-04 2021-08-06 青岛大学附属医院 基于深度学习的胰腺癌肿瘤自动识别系统、计算机设备、存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091782A (ja) * 1996-09-10 1998-04-10 Olympus Optical Co Ltd 濃淡画像用特定部位抽出方法
JP2011135983A (ja) * 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
WO2018008593A1 (ja) * 2016-07-04 2018-01-11 日本電気株式会社 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LE HOU, ET AL.: "Unsupervised Histopathology Image Synthesis", AEXIV, JPN6023001516, 2017, ISSN: 0004968823 *
MAAYAN FRID-ADAR, ET AL.: "SYNTHETIC DATA AUGMENTATION USING GAN FOR IMPROVED LIVER LESION CLASSIFICATION", ARXIV, JPN6023001515, 2018, ISSN: 0004968822 *

Also Published As

Publication number Publication date
US20190252073A1 (en) 2019-08-15
TWI823897B (zh) 2023-12-01
US11011275B2 (en) 2021-05-18
WO2019157508A1 (en) 2019-08-15
EP3753006A1 (en) 2020-12-23
CN112041912A (zh) 2020-12-04
TW201941217A (zh) 2019-10-16

Similar Documents

Publication Publication Date Title
JP2021513435A (ja) 胃腸腫瘍を診断するシステム及び方法
US20210406591A1 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
Yap et al. Deep learning in diabetic foot ulcers detection: A comprehensive evaluation
Wang et al. Automatically discriminating and localizing COVID-19 from community-acquired pneumonia on chest X-rays
Altaf et al. Going deep in medical image analysis: concepts, methods, challenges, and future directions
Gottlieb et al. Central reading of ulcerative colitis clinical trial videos using neural networks
Sun et al. Colorectal polyp segmentation by U-Net with dilation convolution
Zhou et al. Cross-level feature aggregation network for polyp segmentation
Liu et al. Detection and diagnosis of colitis on computed tomography using deep convolutional neural networks
Zhu et al. A 3d coarse-to-fine framework for automatic pancreas segmentation
CN112466466B (zh) 基于深度学习的消化道辅助检测方法、装置和计算设备
Taş et al. Super resolution convolutional neural network based pre-processing for automatic polyp detection in colonoscopy images
CN113129293A (zh) 医学图像分类方法、装置、计算机设备和存储介质
Nizamani et al. Advance Brain Tumor segmentation using feature fusion methods with deep U-Net model with CNN for MRI data
Ma et al. Deep learning for classification and localization of early gastric cancer in endoscopic images
Mahmood et al. Multimodal densenet
Fu et al. Deep supervision feature refinement attention network for medical image segmentation
Wang et al. A novel automatic acne detection and severity quantification scheme using deep learning
CN116958535B (zh) 一种基于多尺度残差推理的息肉分割系统及方法
Maram et al. Brain tumour detection on brats 2020 using u-net
Galdran et al. A hierarchical multi-task approach to gastrointestinal image analysis
Mirza et al. Computer Aided Diagnosis for Gastrointestinal Cancer Classification using Hybrid Rice Optimization with Deep Learning
Waseem Sabir et al. FibroVit—Vision transformer-based framework for detection and classification of pulmonary fibrosis from chest CT images
Singh et al. Counterfactual explainable gastrointestinal and colonoscopy image segmentation
CN113096132A (zh) 图像处理的方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230815