JP2022536731A - 画像処理のための深層学習モデル - Google Patents

画像処理のための深層学習モデル Download PDF

Info

Publication number
JP2022536731A
JP2022536731A JP2021573612A JP2021573612A JP2022536731A JP 2022536731 A JP2022536731 A JP 2022536731A JP 2021573612 A JP2021573612 A JP 2021573612A JP 2021573612 A JP2021573612 A JP 2021573612A JP 2022536731 A JP2022536731 A JP 2022536731A
Authority
JP
Japan
Prior art keywords
cnn
layers
layer
input
upsampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021573612A
Other languages
English (en)
Inventor
ジョン、ガレオッティ
スダルシャン、テジャス、マタイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carnegie Mellon University
Original Assignee
Carnegie Mellon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carnegie Mellon University filed Critical Carnegie Mellon University
Publication of JP2022536731A publication Critical patent/JP2022536731A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

画像データを処理するための深層学習モデルを生成するためのシステム、方法、及びコンピュータプログラム製品が提供される。本方法は、畳み込みニューラルネットワーク(CNN)内の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立すること;CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングすること;及び入力を畳み込むことによりCNNの第2の分岐内の複数のアップサンプリング層の各アップサンプリング層の入力をアップサンプリングすることを含む。

Description

関連出願の相互参照
本出願は、その開示の全体を参照により本明細書に援用する、2019年6月12日出願の米国仮特許出願第62/860,392号からの優先権を主張する。
本開示は、一般的には深層学習に、及び非限定的実施形態では画像処理のための深層学習モデルに関する。
光コヒーレンストモグラフィ(OCT:Optical Coherence Tomography)は、マイクロメートル分解能でもって角膜構造、角膜縁構造及び網膜構造を視覚化するために部分的に使用される画像診断法である。OCTは、角膜曲率及び屈折力などの角膜生体測定パラメータを推定するために使用され得、及び、白内障手術、レーシック手術(LASIK)及び深部層状角膜移植手術(DALK:Deep Anterior Lamellar Keratoplasty)などの外科処置において使用される外科用顕微鏡内に取り込まれてきた。角膜の精確な再構築、及び臨床使用のためのこれらのパラメータの推定は、角膜組織界面の精密な描写を必要とし、したがってそれらの手術計画により外科医を助ける。既存画像解析ベース角膜界面分割手法は様々なOCTスキャナから取得されたボリュームに対して一般化されない。むしろ、このような既存手法は、主要パラメータが手動で選択される、その場しのぎのものである。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するためのコンピュータ実施方法であって、畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立すること;前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングすること;及び畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の各アップサンプリング層の入力をアップサンプリングすることを含む、方法が提供される。
非限定的実施形態又は態様では、前記方法は、前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理することをさらに含む。非限定的実施形態又は態様では、前記OCT角膜画像を処理することは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割することをさらに含む。非限定的実施形態又は態様では、前記少なくとも3つの角膜界面は上皮、Bowman層及び内皮を含む。非限定的実施形態又は態様では、前記方法は、前記OCT角膜画像の前部角膜組織界面及び前記OCT画像の後部角膜組織界面を分割することをさらに含む。非限定的実施形態又は態様では、前記CNNを使用することにより超音波画像を処理することをさらに含む。非限定的実施形態又は態様では、前記方法は、複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングすることをさらに含む。非限定的実施形態又は態様では、前記方法は、前記入力を畳み込むことは前記入力の3×3画素畳み込み又は異なるサイズの畳み込みを計算することを含む。非限定的実施形態又は態様では、前記密接続は少なくとも6層の深さである。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するためのシステムであって、畳み込みニューラルネットワーク(CNN)の複数の層
の各層間の密接続を確立し;前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングし;及び畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングするようにプログラムされるか又は構成された、少なくとも1つのプロセッサを含む、システムが提供される。
非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理するようにさらにプログラムされるか又は構成される。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割するようにさらにプログラムされるか又は構成される。非限定的実施形態又は態様では、前記少なくとも3つの角膜界面は、上皮、Bowman層及び内皮を含む。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、前記OCT角膜画像の前部角膜組織界面及び前記OCT画像の後部角膜組織界面を分割するようにさらにプログラムされるか又は構成される。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、前記CNNを使用することにより超音波画像を処理するようにさらにプログラムされるか又は構成される。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングするようにさらにプログラムされるか又は構成される。非限定的実施形態又は態様では、前記入力を畳み込むことは、前記入力の3×3畳み込みを計算することを含む。非限定的実施形態又は態様では、前記密接続は複数層の深さである。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、角膜輪部、角膜又はそれらの組み合わせのうちの少なくとも1つの光コヒーレンストモグラフィ(OCT)画像を、前記CNNを使用することにより処理するようにさらにプログラムされるか又は構成される。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、走査レーザ検眼鏡(SLO)画像、光コヒーレンストモグラフィ(OCT)画像、超音波画像、カメラ画像、明視野像、任意の次元及びデータタイプの任意の他のタイプの画像、又はそれらの任意の組み合わせのうちの少なくとも2つを含む複数の異なる撮像システムからの画像を、前記CNNを使用することにより処理するようにさらにプログラムされるか又は構成される。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するためのコンピュータプログラム製品であって、プログラム命令を含む少なくとも1つの非一時的コンピュータ可読媒体を含み、前記プログラム命令は、少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに、畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立させ;前記CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングさせ;及び畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングさせる、コンピュータプログラム製品が提供される。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するための、コンピュータ実施方法であって、畳み込みニューラルネットワーク(CNN)内の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立すること;前記CNNの前記複数の層及び前記CNNの前記複数の先行層の各層のビルディングブロック内に残差接続を確立すること;前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングすること;並びに前記CNNの第2の分岐内の複数のアップサンプリング層の各アップサンプリング層の入力をアップサンプリングすることを含む、方法が提供される。
非限定的実施形態又は態様では、前記密接続は、前記第1の分岐内のノード間及び前記
第2の分岐内のノード間で確立される。非限定的実施形態又は態様では、各アップサンプリング層の前記入力をアップサンプリングすることは、前記入力を畳み込むことを含む。非限定的実施形態又は態様では、各ダウンサンプリング層の前記入力をダウンサンプリングすることは、前記入力の最大プールを計算することを含む。非限定的実施形態又は態様では、各アップサンプリング層の前記入力をアップサンプリングことは、最近傍補間を計算することを含む。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するためのシステムであって、畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立し;前記CNNの前記複数の層及び前記CNNの前記複数の先行層の各層のビルディングブロック内に残差接続を確立し;前記CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングし;並びに前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングするように構成されたコンピュータ装置を含む、システムが提供される。
非限定的実施形態又は態様では、前記密接続は、前記第1の分岐内のノード間及び前記第2の分岐内のノード間に確立される。非限定的実施形態又は態様では、各アップサンプリング層の前記入力をアップサンプリングすることは、前記入力を畳み込むことを含む。非限定的実施形態又は態様では、各ダウンサンプリング層の前記入力をダウンサンプリングすることは、前記入力の最大プールを計算することを含む。非限定的実施形態又は態様では、各アップサンプリング層の前記入力をアップサンプリングすることは、最近傍補間を計算することを含む。非限定的実施形態又は態様では、前記コンピュータ装置は、前記CNNの複数の層及び前記CNNの複数の先行層の各層のビルディングブロック内に、拡張された畳み込みを確立するようにさらにプログラムされるか又は構成される。非限定的実施形態又は態様では、前記コンピュータ装置は、様々な拡張ストライドに基づき、前記CNNのブロック内に一組の拡張及び/又は非拡張畳み込みを確立するようにさらにプログラムされるか又は構成され、前記畳み込みは固定された重み付け及び/又は学習可能重み付けに基づく。非限定的実施形態又は態様では、前記コンピュータ装置は周囲画像コンテンツの追加空間的コンテキストを収集するようにさらにプログラムされるか又は構成され、前記周囲画像コンテンツは周囲組織構造又は任意の他の要素を含む。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するコンピュータ実施方法が提供され、本方法は、畳み込みニューラルネットワーク(CNN)内の複数の層の各層とCNN内の複数の先行層との間の密接続を確立すること;入力の最大プールを計算することにより、CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングすること;並びに最近傍補間を計算し及び入力を畳み込むことにより、CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングすることを含む。
非限定的実施形態又は態様では、前記方法は、前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理することをさらに含む。非限定的実施形態又は態様では、前記方法は、前記OCT角膜画像を処理することは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割することをさらに含む。非限定的実施形態又は態様では、前記少なくとも3つの角膜界面は上皮、Bowman層及び内皮を含む。非限定的実施形態又は態様では、前記方法は、前記OCT角膜画像の前部角膜組織界面及び前記OCT画像の後部角膜組織界面を分割することをさらに含む。非限定的実施形態又は態様では、前記方法は、前記CNNを使用することにより超音波画像を処理することをさらに含む。非限定的実施形態又は態様では、前記方法は、複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングすることをさらに含む。非限定的実施形態又は態
様では、前記入力を畳み込むことは前記入力の3×3画素畳み込み又は異なるサイズの畳み込みを計算することを含む。非限定的実施形態又は態様では、前記密接続は少なくとも6層の深さである。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するためのシステムが提供され、本システムは、畳み込みニューラルネットワーク(CNN)内の複数の層の各層とCNN内の複数の先行層との間の密接続を確立し;入力の最大プールを計算することにより、CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングし;並びに最近傍補間を計算し及び入力を畳み込むことにより、CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングするようにプログラムされるか又は構成された、少なくとも1つのプロセッサを含む。
非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理することをさらに含む。非限定的実施形態又は態様では、前記OCT角膜画像を処理することは、前記少なくとも1つのプロセッサは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割することをさらに含む。非限定的実施形態又は態様では、前記少なくとも3つの角膜界面は上皮、Bowman層及び内皮を含む。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、前記OCT角膜画像の前部角膜組織界面及び前記OCT画像の後部角膜組織界面を分割することをさらに含む。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、前記CNNを使用することにより超音波画像を処理することをさらに含む。非限定的実施形態又は態様では、前記少なくとも1つのプロセッサは、複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングすることをさらに含む。非限定的実施形態又は態様では、前記入力を畳み込むことは前記入力の3×3画素畳み込み又は異なるサイズの畳み込みを計算することを含む。非限定的実施形態又は態様では、前記密接続は少なくとも6層の深さである。
非限定的実施形態又は態様によると、画像データを処理するための深層学習モデルを生成するためのコンピュータプログラム製品であって、プログラム命令を含む少なくとも1つの非一時的コンピュータ可読媒体を含む、コンピュータプログラム製品が提供され、プログラム命令は、少なくとも1つのプロセッサにより実行されると、少なくとも1つのプロセッサに、畳み込みニューラルネットワーク(CNN)内の複数の層の各層とCNNの複数の先行層との間の密接続を確立させ;入力の最大プールを計算することにより、CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングさせ;並びに最近傍補間を計算し及び入力を畳み込むことにより、CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングさせる。
別の非限定的実施形態又は態様は、以下の番号付き条項に記載される:
条項1:画像データを処理するための深層学習モデルを生成するためのコンピュータ実施方法であって、畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立すること;前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングすること;及び畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の各アップサンプリング層の入力をアップサンプリングすることを含む、方法。
条項2:前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理することをさらに含む、条項1に記載のコンピュータ実施方法。
条項3:前記OCT角膜画像を処理することは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割することをさらに含む、条項2に記載のコンピュータ実施方法。
条項4:前記少なくとも3つの角膜界面は上皮、Bowman層及び内皮を含む、条項3に記載のコンピュータ実施方法。
条項5:前記OCT角膜画像の前部角膜組織界面及び前記OCT画像の後部角膜組織界面を分割することをさらに含む、条項2に記載のコンピュータ実施方法。
条項6:前記CNNを使用することにより超音波画像を処理することをさらに含む、条項1に記載のコンピュータ実施方法。
条項7:複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングすることをさらに含む、条項2に記載のコンピュータ実施方法。
条項8:前記入力を畳み込むことは前記入力の3×3画素畳み込み又は異なるサイズの畳み込みを計算することを含む、条項1に記載のコンピュータ実施方法。
条項9:前記密接続は少なくとも6層の深さである、条項1に記載のコンピュータ実施方法。
条項10:角膜輪部、角膜又はそれらの組み合わせのうちの少なくとも1つの光コヒーレンストモグラフィ(OCT)画像を、前記CNNを使用することにより処理することをさらに含む、条項1に記載のコンピュータ実施方法。
条項11:走査レーザ検眼鏡(SLO)画像、光コヒーレンストモグラフィ(OCT)画像、超音波画像、カメラ画像、明視野像、任意の次元及びデータタイプの任意の他のタイプの画像、又はそれらの任意の組み合わせのうちの少なくとも2つを含む複数の異なる撮像システムからの画像を、前記CNNを使用することにより処理することをさらに含む、条項1に記載のコンピュータ実施方法。
条項12:画像データを処理するための深層学習モデルを生成するためのシステムであって、畳み込みニューラルネットワーク(CNN)の複数の層の各層間の密接続を確立し;前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングし;及び畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングするようにプログラムされるか又は構成された、少なくとも1つのプロセッサを含む、システム。
条項13:前記少なくとも1つのプロセッサは、前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理するようにさらにプログラムされるか又は構成される、条項12に記載のシステム。
条項14:前記少なくとも1つのプロセッサは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割するようにさらにプログラムされるか又は構成される、条項13に記載のシステム。
条項15:前記少なくとも3つの角膜界面は、上皮、Bowman層及び内皮を含む、条項14に記載のシステム。
条項16:前記少なくとも1つのプロセッサは、前記OCT角膜画像の前部角膜組織界面及び前記OCT画像の後部角膜組織界面を分割するようにさらにプログラムされるか又は構成される、条項13に記載のシステム。
条項17:前記少なくとも1つのプロセッサは、前記CNNを使用することにより超音波画像を処理するようにさらにプログラムされるか又は構成される、条項12に記載のシステム。
条項18:前記少なくとも1つのプロセッサは、複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングするようにさらにプログラムされるか又は構成される、条項13に記載のシステム。
条項19:前記入力を畳み込むことは、前記入力の3×3畳み込みを計算することを含む、条項12に記載のシステム。
条項20:前記密接続は複数層の深さである、条項12に記載のシステム。
条項21:前記少なくとも1つのプロセッサは、角膜輪部、角膜又はそれらの組み合わせのうちの少なくとも1つの光コヒーレンストモグラフィ(OCT)画像を、前記CNNを使用することにより処理するようにさらにプログラムされるか又は構成される、条項12に記載のシステム。
条項22:前記少なくとも1つのプロセッサは、走査レーザ検眼鏡(SLO)画像、光コヒーレンストモグラフィ(OCT)画像、超音波画像、カメラ画像、明視野像、任意の次元及びデータタイプの任意の他のタイプの画像、又はそれらの任意の組み合わせのうちの少なくとも2つを含む複数の異なる撮像システムからの画像を、前記CNNを使用することにより処理するようにさらにプログラムされるか又は構成される、条項12に記載のシステム。
条項23:画像データを処理するための深層学習モデルを生成するためのコンピュータプログラム製品であって、プログラム命令を含む少なくとも1つの非一時的コンピュータ可読媒体を含み、前記プログラム命令は、少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに、畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立させ;前記CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングさせ;及び畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングさせる、コンピュータプログラム製品。
条項24:画像データを処理するための深層学習モデルを生成するための、コンピュータ実施方法であって、畳み込みニューラルネットワーク(CNN)内の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立すること;前記CNNの前記複数の層及び前記CNNの前記複数の先行層の各層のビルディングブロック内に残差接続を確立すること;前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングすること;並びに前記CNNの第2の分岐内の複数のアップサンプリング層の各アップサンプリング層の入力をアップサンプリングすることを含む、方法。
条項25:前記密接続は、前記第1の分岐内のノード間及び前記第2の分岐内のノード
間で確立される、条項24に記載のコンピュータ実施方法。
条項26:各アップサンプリング層の前記入力をアップサンプリングすることは、前記入力を畳み込むことを含む、条項24に記載のコンピュータ実施方法。
条項27:各ダウンサンプリング層の前記入力をダウンサンプリングすることは、前記入力の最大プールを計算することを含む、条項24に記載のコンピュータ実施方法。
条項28:各アップサンプリング層の前記入力をアップサンプリングすることは、最近傍補間を計算することを含む、条項24に記載のコンピュータ実施方法。
条項29:前記CNNの複数の層及び前記CNNの複数の先行層の各層のビルディングブロック内に、拡張された畳み込みを確立することをさらに含む、条項24に記載のコンピュータ実施方法。
条項30:異なる拡張ストライドに基づき、前記CNNのブロック内に一組の拡張及び/又は非拡張畳み込みを確立することをさらに含む、条項24に記載のコンピュータ実施方法であって、前記畳み込みは固定された重み付け及び/又は学習可能重み付けに基づく、方法。
条項31:周囲画像コンテンツの追加空間的コンテキストを収集することをさらに含む、条項30に記載のコンピュータ実施方法であって、前記周囲画像コンテンツは周囲組織構造又は任意の他の要素を含む、方法。
条項32:画像データを処理するための深層学習モデルを生成するためのシステムであって、畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立し;前記CNNの前記複数の層及び前記CNNの前記複数の先行層の各層のビルディングブロック内に残差接続を確立し;前記CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングし;並びに前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングするように構成されたコンピュータ装置を含む、システム。
条項33:前記密接続は、前記第1の分岐内のノード間及び前記第2の分岐内のノード間に確立される、条項32に記載のシステム。
条項34:各アップサンプリング層の前記入力をアップサンプリングすることは、前記入力を畳み込むことを含む、条項32に記載のシステム。
条項35:各ダウンサンプリング層の前記入力をダウンサンプリングすることは、前記入力の最大プールを計算することを含む、条項32に記載のシステム。
条項36:各アップサンプリング層の前記入力をアップサンプリングすることは、最近傍補間を計算することを含む、条項32に記載のシステム。
条項37:前記コンピュータ装置は、前記CNNの複数の層及び前記CNNの複数の先行層の各層のビルディングブロック内に、拡張された畳み込みを確立するようにさらにプログラムされるか又は構成される、条項32に記載のシステム。
条項38:前記コンピュータ装置は、様々な拡張ストライドに基づき、前記CNNのブ
ロック内に一組の拡張及び/又は非拡張畳み込みを確立するようにさらにプログラムされるか又は構成され、前記畳み込みは固定された重み付け及び/又は学習可能重み付けに基づく、条項32に記載のシステム。
条項39:前記コンピュータ装置は周囲画像コンテンツの追加空間的コンテキストを収集するようにさらにプログラムされるか又は構成された、条項38に記載のシステムであって、前記周囲画像コンテンツは周囲組織構造又は任意の他の要素を含む、システム。
本開示のこれら及び他の機構と特徴だけでなく、構造の関連要素の動作の方法と機能、部品の組み合わせ、及び製造の経済性は、それらのすべてが本明細書の一部をなす添付図面を参照した以下の説明と、添付の特許請求の範囲の考察から、より明白になる。ここでは、同様な参照符号は様々な図の対応部品を示す。しかし、添付図面は例示と説明のためだけのものであり、本発明の限界の定義として意図されていないということが明確に理解されるべきである。
追加利点及び詳細は、添付図面及び付録に示される非限定的且つ例示的実施形態を参照して、以下においてさらに詳細に説明される。
非限定的実施形態による画像データを処理するためのシステムを示す。 非限定的実施形態による深層学習ネットワークを示す。 非限定的実施形態による深層学習ネットワークの一部を示す。 非限定的実施形態による画像データを処理する方法の流れ図である。 非限定的実施形態による画像データを処理するための深層学習モデルを生成する方法の流れ図である。 非限定的実施形態及び他の深層学習アーキテクチャによる実装形態の結果を比較する試験データを示す。 非限定的実施形態及び他の深層学習アーキテクチャによる実施形態の結果を比較する試験データを示す。 非限定的実施形態との関連で使用されるコンピュータ装置の例示的部品を示す。
実施形態は、それとは反対に明示的に規定される場合を除いて、様々な代替変形及び工程順番を採り得るということが理解されるべきである。以下の明細書において説明される特定装置及び処理は本開示の単に例示的実施形態又は態様であるということも理解されるべきである。したがって、本明細書に開示される実施形態又は態様に関係する、特定の寸法及び他の物理的特性は、限定と見做されるべきではない。本明細書において使用されるいかなる態様、部品、要素、構造、行為、工程、機能、命令等々も、そのように明示的に記載されない限り、クリティカル又は必須であると見做されるべきでない。また、本明細書で使用されるように、冠詞「a」及び「an」は、1つ又は複数のアイテムを含むように意図されており、及び「1つ又は複数の」及び「少なくとも1つの」と交換可能に使用され得る。また、本明細書で使用されるように、「有する(has)」「有する(have)」「有する(having)」などの用語は、開放型用語であるように意図されている。さらに、「に基づく」という語句は、別途明記されない限り「に少なくとも部分的に基づく」を意味するように意図されている。
本明細書で使用されるように、「コンピュータ装置」という用語は、データを処理するように構成された1つ又は複数の電子装置を指し得る。コンピュータ装置は、いくつかの例では、データを受信、処理、出力するためのプロセッサ、ディスプレイ、メモリ、入力装置、ネットワークインターフェースなどの必須部品を含み得る。コンピュータ装置はモ
バイル装置であり得る。コンピュータ装置はまた、デスクトップコンピュータ又は他の形式の非モバイルコンピュータであり得る。非限定的実施形態では、コンピュータ装置は、Appleの「Neural Engine」又はGoogleのTensorFlow処理ユニットなどの、特定用途向け集積回路(ASIC)ニューラルエンジンを含むAIアクセラレータを含み得る。非限定的実施形態では、コンピュータ装置は、各回路がニューラルネットワーク内の各ノードからの入力を重み付けするように構成されるようにニューラルネットワーク内の各接続を表す複数の個々の回路で構成され得る。このような配置では、論理ゲート及び/又はアナログ回路構成が、ソフトウェア、プロセッサ又はメモリを必要とすることなく使用され得る。
本開示の非限定的実施形態は、1つ又は複数のコンピュータ装置を使用することにより画像を処理するための深層学習ネットワーク(本明細書において説明される無数の技術的利点を提供する、独自且つ斬新な深層学習ネットワークアーキテクチャを含む)へ向けられる。本明細書において説明される例の多くはOCT画像の処理に関係するが、本明細書において説明されるシステム及び方法は任意のタイプの入力データを処理するために使用され得る、ということが理解される。一例として、非限定的実施形態はまた、超音波画像及び他の医用画像を処理するために使用され得る。様々な非医学的使用も可能である。
角膜画像を分割するための既存システムは、UNET及びBRUNETアーキテクチャなどのCNNを適用する。これらのネットワークは、各画素に分類(例えば、組織のタイプ)が割り当てられる密出力を生成する、収縮分岐及び伸張分岐を含む。BRUNETアーキテクチャは画像分類のためのUNETアーキテクチャの精度を改善するが、このような深層学習ネットワークは、角膜OCT画像の様々な解析に関して十分に精確ではない。例えば、前部分割OCT撮像において、セグメント間の境界は、スペックル雑音により破損され、したがって低信号対雑音比(SNR)を有し得る。さらに、このような手法は、これらの境界に関係する識別可能特徴が先行層において学習されるが、残差接続により回復され得ないようにネットワーク全体にわたって失われることに部分的に起因して、偽陽性を生じる。
非限定的実施形態は、(1)上皮、(2)Bowman層、及び(3)内皮を含む角膜境界を分割するために使用される、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)アーキテクチャを提供する。角膜境界は様々な異なるタイプのOCTスキャナに由来するOCT画像から分割され得、CNNは、異なるタイプのOCTスキャナに由来するOCT画像を使用することにより、同様にトレーニングされ得る。
ここで図1を参照すると、非限定的実施形態による、画像データを処理するための深層学習モデルを生成するためのシステム1000が示される。システム1000は、1つ又は複数のOCT画像104を出力する1つ又は複数のOCTスキャナなどのOCTシステム102を含む。本明細書において説明される深層学習ネットワーク(例えば角膜界面分割ネットワーク(CorNet(Corneal Interface Segmentation Network)システム))を実現するコンピュータ装置106は、OCT画像104を受信し、及びその中に表された角膜界面を分割するために画像を処理する。入力されたOCT画像104は、一例として256×1024画素の次元の一組のスライスへ幅方向に分割され得るが、画像104は様々なやり方及び次元で処理され得る、ということが理解される。深層学習ネットワークを実現するコンピュータ装置106は、第1のコンピュータ装置が1つ又は複数の工程を行い、及び第2のコンピュータ装置が1つ又は複数の工程を行い得るように、1つ又は複数のコンピュータ装置を任意の位置に含み得る。
図1を引き続き参照すると、コンピュータ装置106は、異なるOCTシステムにより行われた以前のOCT走査からOCTデータ108(例えば歴史的画像データ)と通信状態にある。OCTデータ108は、任意の位置の1つ又は複数のデータストレージ装置上に格納され得、及びまた、他のOCTシステムにより取得された走査に加えてOCTシステム102からのOCT走査も含み得る(図1に示さず)。例えば、OCTデータ108は、他のOCT走査システムにより捕捉されたOCT走査からのデータセット(OCTシステム102とは異なる設定及び/又はパラメータを有する)を含み得る。コンピュータ装置106により実現される深層学習ネットワークは、OCTデータ108から角膜界面を分割するようにトレーニングされる。トレーニングされると、深層学習ネットワークは、様々な角膜界面がどこにあるかの予測を出力する。次に、コンピュータ装置106は、角膜界面を視覚的に区別する出力OCT画像110を生成するために1つ又は複数の曲線を入力OCT画像104内の予測角膜界面位置へフィッティングすることにより、角膜界面を分割し得る。例えば、出力されたOCT画像110は、様々な角膜界面を視覚的に表示するための、1つ又は複数の注釈又は修正(線、ハイライト、着色領域など)を含み得る。出力されたOCT画像110は、入力されたOCT画像104内に各画素又は一組の画素のラベルを追加的に又はそうでなければ代替的に含み得る。一例として、入力されたOCT画像104は、このような注釈によりオーバーレイされてもよいし、分割された角膜界面だけを表示するために編集されてもよい。
いくつかの例では、フルサイズOCT画像は、ネットワークを画像サイズに基づきトレーニングする際に、及び異なるOCTスキャナとは異なる分解能に起因して、計算的非効率性を提示し得る。したがって、いくつかの非限定的実施形態では、入力画像は、OCT分解能を維持するために、設定次元(例えば256×1024画素)の一組の画像へ幅方向にスライスされ得る。データは、一例として水平方向反転、ガンマ調整、ガウス雑音追加、ガウスぶれ、中央ぶれ、双方向ぶれ、クロッピング、アフィン変換、及び/又は弾性変形を介し増補され得る。
図1を引き続き参照すると、非限定的実施形態では、コンピュータ装置106により実現される深層学習ネットワークは、各画素を分類することにより所与のOCT画像を分割するように構成される。所与のOCT画像に関して、l内のあらゆる画素をラベルL∈{0,1,2,3}へマッピングする関数F:l->Lが識別される。この例では、値「0」は画像の背景を表し、及び値「1」、「2」及び「3」は上皮界面、Bowman層及び内皮界面に関連付けられたラベルである。様々な他のラベル及びラベルの表現が各画素を分類するために使用され得るということが理解される。さらに、画像の各画素はいくつかの非限定的実施形態では分類され得るが、他の非限定的実施形態では、2つ以上の画素が一緒に分類され得る。
ここで図2を参照すると、非限定的実施形態による深層学習ネットワーク200(例えば深層学習モデル)が示される。深層学習ネットワーク200は、収縮分岐202及び伸張分岐204の両方において密接続の使用により粗画像詳細及び密画像詳細の両方を組み合わせることが可能にされる。このような密接続では、各ブロック、層又はレベル(例えばレベル1~6)は、特徴マップ連結(円「C」として描写される)によりその先行ブロック/層/レベルのすべてへ接続され、これにより、ぼやけた境界の識別可能特徴が複数のスケール全体にわたり検索されることを可能にする。非限定的実施形態では、密接続された層の数は計算効率を達成するために制限される。一例として、及び図2に示すように、深層学習ネットワーク200は、精度(例えばより多くの層からの)と計算効率(例えばより少ない層からの)とのバランスとして密接続の6層(例えばレベル1~6)を含み得る。さらに、非限定的実施形態では、深層学習ネットワーク200は、ストライド技術の平均プーリング及び畳み込みと比較して、ネットワーク層を介した当該の特徴を維持することを改善するために、最大プーリング技術を利用し得る。いくつかの非限定的実施形
態では、深層学習ネットワーク200は、3×3畳み込みが続く最近傍補間ベースアップサンプリング技術を利用し得、最近傍補間ベースアップサンプリング技術は、双線形補間ベースアップサンプリング、3×3畳み込みによる双線形補間、アンプーリング、及び転置畳み込み(fractionally-strided convolution)よりも良い結果を提供する。
図2を引き続き参照すると、深層学習ネットワーク200は収縮分岐202及び伸張分岐204を含む。収縮分岐202のブロックはダウンサンプリング計算を表し、伸張分岐204のブロックはアップサンプリング計算を表す。ネットワークは次元の一組のスライスの各スライスの出力を予測し、スライスは元の入力次元を再生成するようにアライメントされる。非限定的実施形態では、ブロック230は、アップサンプリングを行わないが、ネットワークのボトルネックとして機能し、及び出力特徴マップと同じ次元の特徴マップを前の層(例えば収縮分岐202内のブロック218)から生成するように構成される。ネットワーク200内に示される各ブロック210~230に関連付けられた値(例えば32、64、96、160、256、416)は各ブロックにより出力される特徴マップの数を表す。両分岐202、204内の層と層との特徴マップ数の差は、値のフィボナッチ数列に基づく特徴マップ成長率を示す。
図3を参照すると、非限定的実施形態による図2に示す深層学習ネットワーク200の一部がさらに詳細に示される。深層学習ネットワーク200のブロック302では、ブロック302の値は図示のように前の層に基づき計算される。ブロック302は入力308及び/又は出力310から除去されたいくつかの層であり得るが、ネットワーク200の入力308及び出力310が図3に示される。「C」は深層学習ネットワーク200内の畳み込みを指し、「D」は拡張畳み込みを指し、及び「N」の値は特徴マップの数に等しい。「BN」はバッチ正規化関数を指す。正規化線形活性化ユニット(ReLU:rectified linear activation unit)は非線形活性化関数としてBNに続く。拡張畳み込みは、オブジェクト又は組織境界を正確に分割するために、より広い周囲画像コンテンツ(OCT画像内の周囲組織構造など)に関する文脈情報を収集する。一例として、拡張畳み込みは、組織界面境界のコントラストが劣悪である領域において以前の方法より良好に行うために隙間を「埋め」得る。
図3において、ブロック302のダウンサンプリング出力304(例えば深層学習ネットワークの収縮分岐内のブロック302の出力)が、maxpooling関数と共に示される。maxpooling関数は、各ダウンサンプリング層の終わりにおける最も識別可能な特徴を判断するために使用される。maxpoolingの使用は、共通ダウンサンプリング選択全体にわたり特徴選択を最適化する。ブロック302のアップサンプリング出力306(例えば深層学習ネットワークの伸張分岐内のブロック302の出力)が補間関数と共に示される。補間関数(最近傍補間であり得る)は、深層学習ネットワークの伸張分岐内の特徴マップをアップサンプリングするために、畳み込み(例えばこの例における3×3畳み込み)と共に使用され得る。
図2と図3に示すように、非限定的実施形態では、斬新ニューラルネットワークアーキテクチャは、RESNET(例えば、残差ニューラルネットワーク)アーキテクチャ、UNETアーキテクチャ及びDense-NETアーキテクチャの利点を有する画像処理タスクのために採用される。さらに、非限定的実施形態では、拡張畳み込みが、前述のUNET、RESNET及びDense-NETアーキテクチャの態様と組み合わせられる。
図2に示す非限定的例及び図3のブロック302を参照すると、残差接続及密接続の両方が図2の左側の一組の個々の太線矢印232(及び右側の同様な一組の太線矢印)内に含まれる。残差接続は、層又はブロックの入力をその出力へ直接接続する太線矢印内に存
在する。密接続は特徴連結から生じる。例えば、連結された一組の太線矢印232は、ブロック210の入力から212、214、216、218及び230のそれぞれの入力への密接続を表す細鎖曲線矢印236のそれぞれを含む。他のペアのブロック間の多くの他の密接続がまた、各ブロックをその前の一つおきのブロックへ接続する矢印232内に存在する(例えば、いずれも明瞭性のために図2に示されないブロック212からブロック214、216、218のそれぞれのブロックへの接続、ブロック214からブロック216、218のそれぞれのブロックへの接続、ブロック228からブロック226、224、222、220のそれぞれのブロックへの接続、ブロック226からブロック224、222、220のそれぞれのブロックへの接続、ブロック224からブロック222、220のそれぞれのブロックへの接続など)。図2を参照すると、深層学習ネットワーク200はまた、ダウンサンプリング分岐202及びアップサンプリング分岐204内の同じ層のブロック間のU-Net特徴転送接続234(鎖直線矢印により示す)を含む。特徴連結の使用はまた、密タイプ接続が特徴転送接続234を介し伝播されることを可能にする。
接続の残差成分は、斬新ニューラルネットワーク内の複数の他の層の中の一層が組織界面境界の出現を学習することを可能にし、以前に視覚化された出現を連続層が区別し、及び新しい組織界面出現情報を学習することを(RESNETと同様に)促す。さらに、接続の密成分は、ネットワーク200が組織界面境界の形状を解析することを可能にするために、斬新ニューラルネットワーク200において以前に計算された特徴マップの再使用を促す。Dense-NETと同様に、密接続は、勾配情報流れを改善し、過剰フィッティングを防止するか又は制限する。密接続は、残差接続が或る層及び先行層内の様々な畳み込み操作(拡張又は非拡張操作)から取得された特徴マップを合算するという点で残差接続と異なる。しかし、密接続は、複数の前層から現在層への特徴マップの連結及び未修正ネットワーク内のいくつかのブロック全体を通る及び/又はそれらにわたる流れを促進する。例えば、非限定的実施形態では、密接続は、深層学習ネットワーク200のダウンサンプリング及びアップサンプリング分岐を介し確立され得る。
残差接続及び密接続をUNET深層学習アーキテクチャ内へ組み込むことは、計算資源の要求を増加する最適化されるべき無数のパラメータ(例えばパラメータ爆発)を生じる。深層学習ネットワーク200の非限定的実施形態は、ネットワーク200内のチャネル及び接続の数を制限するとともにボトルネック(例えばブロック230など)を追加することによりこの懸念を軽減する。
非限定的実施形態は、画像データを使用してトレーニングされた敵対的生成ネットワーク(GAN:Generational Adversarial Network)に基づき事前分割と組み合わせられ得る。
ここで図4を参照すると、非限定的実施形態による画像データを処理する方法が示される。図4に示す工程の順番は例示目的のためだけのものであるということと、非限定的実施形態がより多くの工程、より少ない工程、異なる工程、及び/又は異なる順番の工程に関与し得るということとが理解される。さらに、図4に示す例はOCTデータに関係するが、本明細書で説明されるように、本明細書において開示されるシステム及び方法は多くの他のコンテキストおいて使用され得る。工程400では、密接続及び残差接続を有するCNNが生成される。工程402では、CNNは複数の異なるOCTスキャナからのOCTデータによりトレーニングされる。様々なOCTスキャナは、様々な設定及び/又はパラメータを採用し、及び、その結果、トレーニングのために有益である多種多様なデータを提供し得る。工程404では、1つ又は複数のOCT画像などのOCTデータがOCTスキャナにより捕捉される。OCTスキャナは、工程402においてCNNをトレーニングするために使用されるOCTスキャナの1つであってもなくてもよい。工程406では
、OCTデータは、一連の畳み込みを介しダウンサンプリング及びアップサンプリングを行うCNNへ入力される。工程408では、OCTデータはCNNの出力に基づき分割される。例えば、CNNは、「各画素がラベル付けされた画像」を出力し得る。ラベル付けは、いくつかの例では様々な角膜界面であり得る。
ここで図5を参照すると、非限定的実施形態に従って画像データを処理するための深層学習モデルを生成する方法が示される。図5に示す工程の順番は例示目的のためだけのものであるということと、非限定的実施形態がより多くの工程、より少ない工程、異なる工程、及び/又は異なる順番の工程に関与し得るということとが理解される。さらに、図5に示す例はOCTデータに関係するが、本明細書で説明されるように、本明細書において開示されるシステム及び方法は、多くの他のコンテキストにおいて使用され得る。工程500では、密接続がCNNの各層間に確立される。例えば、CNNの各層は、当該層に先行する各層への密接続を有し得る。工程502では、各ダウンサンプリング層の入力は、CNNの第1の分岐(例えば収縮分岐)においてダウンサンプリングされる。工程504では、各アップサンプリング層の入力は、入力を畳み込むことによりCNNの第2の分岐(例えば伸張分岐)においてアップサンプリングされる。工程506では、生成されると、CNNはOCTデータによりトレーニングされる。工程507では、解析されるOCTデータがCNN内に入力される。工程508では、OCTデータはCNNの出力に基づき分割される。
図6A、6Bは、本明細書において説明されるシステム及び方法の非限定的実装形態からの試験データを示す。各図では、(U)はUNETアーキテクチャにより行われる分割からのメトリックを表し、(B)はBRUNETアーキテクチャにより行われる分割からのメトリックを表し、及び(C)は、本明細書において説明される深層学習ネットワークの非限定的実装形態による深層学習アーキテクチャにより行われる分割からのメトリックを表す。以下の3つの異なる角膜界面のメトリックが示される:上皮(EP:Epithelium)、Bowman層(BL)及び内皮(EN:Endothelium)。
図6Aは、層境界位置(MADLBP:Layer Boundary Position)における平均絶対差のメトリックを示し、図6Bは、フィッティングされた曲線間のHausdorff距離(HD)のメトリックを示す。試験データによると、各メトリックにとって、本明細書において説明されるシステム及び方法の正差分が統計的に重要であった(p<0.05)。本明細書において説明される深層学習ネットワークの非限定的実施形態は、他の手法を上回る。
ここで図7を参照すると、非限定的実施形態による、本明細書において説明されるシステム及び方法を実現し及び行うための、コンピュータ装置900の例示的部品の線図が示される。いくつかの非限定的実施形態では、装置900は、追加部品、より少ない部品、様々な部品、又は図7に示すものと異なるやり方で配置された部品を含み得る。装置900は、バス902、プロセッサ904、メモリ906、ストレージ部品908、入力部品910、出力部品912及び通信インターフェース914を含み得る。バス902は、装置900の部品の中でも通信を可能にする部品を含み得る。いくつかの非限定的実施形態では、プロセッサ904は、ハードウェア、ファームウェア、又はハードウェア及びソフトウェアの組み合わせで実現され得る。例えば、プロセッサ904は、プロセッサ(例えば中央処理ユニット(CPU)及びグラフィック処理ユニット(GPU)、加速処理ユニット(APU)など)、マイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、及び/又は或る機能を行うようにプログラムされるか又は構成され得る任意の処理部品(例えばフィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)など)を含み得る。メモリ906は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、及び/又はプロセッサ904により使用される情報及び/又
は命令を格納する別のタイプの動的又は静的ストレージ装置(例えばフラッシュメモリ、磁気メモリ、光メモリなど)を含み得る。
図7を引き続き参照すると、ストレージ部品908は、装置900の動作及び使用に関係する情報及び/又はソフトウェアを格納し得る。例えば、ストレージ部品908はハードディスク(例えば磁気ディスク、光ディスク、光磁気ディスク、固体ディスクなど)及び/又は別のタイプのコンピュータ可読媒体を含み得る。入力部品910は、装置900がユーザ入力などを介し情報を受信することを可能にする部品(例えばタッチスクリーンディスプレイ、キーボード、キーパッド、マウス、ボタン、スイッチ、マイクロホンなど)を含み得る。追加的に又はその代わりに、入力部品910は、情報を感知するためのセンサ(例えば、全地球測位システム(GPS)部品、加速度計、ジャイロスコープ、アクチュエータなど)を含み得る。出力部品912は、装置900から出力情報を提供する部品(例えばディスプレイ、スピーカ、1つ又は複数の発光ダイオード(LED)など)を含み得る。通信インターフェース914は、装置900が有線接続、無線接続又は有線接続及び無線接続の組み合わせなどを介し他の装置と通信することを可能にする送受信器のような部品(例えば送受信器、別の受信器及び送信器など)を含み得る。通信インターフェース914は、装置900が別の装置から情報を受信する及び/又は情報を別の装置へ提供することを可能にし得る。例えば、通信インターフェース914は、イーサネットインタフェース、光インターフェース、同軸インターフェース、赤外線インターフェース、無線周波数(RF)インターフェース、ユニバーサルシリアルバス(USB)インターフェース、Wi-Fi(登録商標)インターフェース、セルラネットワークインターフェースなどを含み得る。
装置900は、本明細書において説明される1つ又は複数の処理を行い得る。装置900は、プロセッサ904がメモリ906及び/又はストレージ部品908などのコンピュータ可読媒体により格納されたソフトウェア命令を実行することに基づき、これらの処理を行い得る。コンピュータ可読媒体は、任意の非一時的メモリ装置を含み得る。メモリ装置は、単一物理的ストレージ装置の内部にあるメモリ空間、又は複数の物理的ストレージ装置全体にわたって広がるメモリ空間を含む。ソフトウェア命令は、通信インターフェース914を介し別のコンピュータ可読媒体から又は別の装置からメモリ906及び/又はストレージ部品908内へ読み込まれ得る。実行されると、メモリ906及び/又はストレージ部品908内に格納されたソフトウェア命令は、プロセッサ904に、本明細書において説明される1つ又は複数の処理を行わせ得る。追加的に又はその代わりに、ハードワイヤ回路構成が、本明細書において説明される1つ又は複数の処理を行うために、ソフトウェア命令の代わりに、又はそれと組み合わせて使用され得る。したがって、本明細書において説明される実施形態は、ハードウェア回路及びソフトウェアのいかなる特別な組み合わせにも限定されない。本明細書で使用される「プログラムされるか又は構成された」という用語は、ソフトウェアの配置、ハードウェア回路構成(デジタル及び/又はアナログ)、又は1つ又は複数の装置上のそれらの任意の組み合わせを指す。
本明細書で論述されるいくつかの非限定的実施形態において、コンピュータ実施方法は、CNNを使用することにより1つ又は複数の画像及び/又は画像のストリームを処理することを含む。いくつかの非限定的実施形態では、コンピュータ実施方法はリアルタイムで又はほぼリアルタイムで処理することを含み得る。いくつかの非限定的実施形態では、画像及び/又は画像群は、光コヒーレンストモグラフィ(OCT)、超音波、光音響撮像、音響光学撮像、核磁気共鳴撮像(MRI:magnetic resonance imaging)、コンピュータ断層撮影(CT:computed tomography)、陽電子放射断層撮影(PET:positron emission tomography)、単一光子発射コンピュータ断層撮影(SPECT:single-photon emission computerized tomography)、X線
、フルオロスコープ、走査レーザ検眼鏡(SLO:Scanning Laser Ophthalmoscope)、カメラ、明視野撮像、又は任意の次元の任意の他のタイプの画像、任意のデータタイプ、任意の物理的特性及び/又は疑似特性を測定すること、又はこのような画像の任意の組み合わせのうちの1つ又は複数から生じる。
図解目的のための実施形態が詳細に説明されたが、このような詳細は当該目的だけのためであるということと、本開示は開示された実施形態に限定されず、逆に、添付の特許請求の精神及び範囲に入る修正及び等価配置をカバーするように意図されているということとが理解されるべきである。例えば、本開示は「可能な範囲内で任意の実施形態の1つ又は複数の機構が任意の他の実施形態の1つ又は複数の機構と組み合わせられ得る」ということを企図していると理解されるべきである。

Claims (39)

  1. 画像データを処理するための深層学習モデルを生成するためのコンピュータ実施方法であって、
    畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立すること;
    前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングすること;及び
    畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の各アップサンプリング層の入力をアップサンプリングすることを含む、方法。
  2. 前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理することをさらに含む、請求項1に記載のコンピュータ実施方法。
  3. 前記OCT角膜画像を処理することは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割することをさらに含む、請求項2に記載のコンピュータ実施方法。
  4. 前記少なくとも3つの角膜界面は上皮、Bowman層及び内皮を含む、請求項3に記載のコンピュータ実施方法。
  5. 前記OCT角膜画像の前部角膜組織界面及び前記OCT角膜画像の後部角膜組織界面を分割することをさらに含む、請求項2に記載のコンピュータ実施方法。
  6. 前記CNNを使用することにより超音波画像を処理することをさらに含む、請求項1に記載のコンピュータ実施方法。
  7. 複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングすることをさらに含む、請求項2に記載のコンピュータ実施方法。
  8. 前記入力を畳み込むことは前記入力の3×3画素畳み込み又は異なるサイズの畳み込みを計算することを含む、請求項1に記載のコンピュータ実施方法。
  9. 前記密接続は少なくとも6層の深さである、請求項1に記載のコンピュータ実施方法。
  10. 角膜輪部、角膜又はそれらの組み合わせのうちの少なくとも1つの光コヒーレンストモグラフィ(OCT)画像を、前記CNNを使用することにより処理することをさらに含む、請求項1に記載のコンピュータ実施方法。
  11. 走査レーザ検眼鏡(SLO)画像、光コヒーレンストモグラフィ(OCT)画像、超音波画像、カメラ画像、明視野像、任意の次元及びデータタイプの任意の他のタイプの画像、又はそれらの任意の組み合わせのうちの少なくとも2つを含む複数の異なる撮像システムからの画像を、前記CNNを使用することにより処理することをさらに含む、請求項1に記載のコンピュータ実施方法。
  12. 画像データを処理するための深層学習モデルを生成するためのシステムであって、
    畳み込みニューラルネットワーク(CNN)の複数の層の各層間の密接続を確立し;
    前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングし;及び
    畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングするようにプログラムされるか又は構成
    された、少なくとも1つのプロセッサ
    を含む、システム。
  13. 前記少なくとも1つのプロセッサは、前記CNNを使用することにより光コヒーレンストモグラフィ(OCT)角膜画像を処理するようにさらにプログラムされるか又は構成される、請求項12に記載のシステム。
  14. 前記少なくとも1つのプロセッサは、前記OCT角膜画像を少なくとも3つの角膜界面内へ分割するようにさらにプログラムされるか又は構成される、請求項13に記載のシステム。
  15. 前記少なくとも3つの角膜界面は、上皮、Bowman層及び内皮を含む、請求項14に記載のシステム。
  16. 前記少なくとも1つのプロセッサは、前記OCT角膜画像の前部角膜組織界面及び前記OCT角膜画像の後部角膜組織界面を分割するようにさらにプログラムされるか又は構成される、請求項13に記載のシステム。
  17. 前記少なくとも1つのプロセッサは、前記CNNを使用することにより超音波画像を処理するようにさらにプログラムされるか又は構成される、請求項12に記載のシステム。
  18. 前記少なくとも1つのプロセッサは、複数の異なるOCTスキャナからの画像に基づき前記CNNをトレーニングするようにさらにプログラムされるか又は構成される、請求項13に記載のシステム。
  19. 前記入力を畳み込むことは、前記入力の3×3畳み込みを計算することを含む、請求項12に記載のシステム。
  20. 前記密接続は複数層の深さである、請求項12に記載のシステム。
  21. 前記少なくとも1つのプロセッサは、角膜輪部、角膜又はそれらの組み合わせのうちの少なくとも1つの光コヒーレンストモグラフィ(OCT)画像を、前記CNNを使用することにより処理するようにさらにプログラムされるか又は構成される、請求項12に記載のシステム。
  22. 前記少なくとも1つのプロセッサは、走査レーザ検眼鏡(SLO)画像、光コヒーレンストモグラフィ(OCT)画像、超音波画像、カメラ画像、明視野像、任意の次元及びデータタイプの任意の他のタイプの画像、又はそれらの任意の組み合わせのうちの少なくとも2つを含む複数の異なる撮像システムからの画像を、前記CNNを使用することにより処理するようにさらにプログラムされるか又は構成される、請求項12に記載のシステム。
  23. 画像データを処理するための深層学習モデルを生成するためのコンピュータプログラム製品であって、プログラム命令を含む少なくとも1つの非一時的コンピュータ可読媒体を含み、前記プログラム命令は、少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに、
    畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立させ;
    前記CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングさせ;及び
    畳み込むことにより前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングさせる、
    コンピュータプログラム製品。
  24. 画像データを処理するための深層学習モデルを生成するための、コンピュータ実施方法であって、
    畳み込みニューラルネットワーク(CNN)内の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立すること;
    前記CNNの前記複数の層及び前記CNNの前記複数の先行層の各層のビルディングブロック内に残差接続を確立すること;
    前記CNNの第1の分岐内の複数のダウンサンプリング層の各ダウンサンプリング層の入力をダウンサンプリングすること;並びに
    前記CNNの第2の分岐内の複数のアップサンプリング層の各アップサンプリング層の入力をアップサンプリングすることを含む、方法。
  25. 前記密接続は、前記第1の分岐内のノード間及び前記第2の分岐内のノード間で確立される、請求項24に記載のコンピュータ実施方法。
  26. 各アップサンプリング層の前記入力をアップサンプリングすることは、前記入力を畳み込むことを含む、請求項24に記載のコンピュータ実施方法。
  27. 各ダウンサンプリング層の前記入力をダウンサンプリングすることは、前記入力の最大プールを計算することを含む、請求項24に記載のコンピュータ実施方法。
  28. 各アップサンプリング層の前記入力をアップサンプリングすることは、最近傍補間を計算することを含む、請求項24に記載のコンピュータ実施方法。
  29. 前記CNNの複数の層及び前記CNNの複数の先行層の各層のビルディングブロック内に、拡張された畳み込みを確立することをさらに含む、請求項24に記載のコンピュータ実施方法。
  30. 異なる拡張ストライドに基づき、前記CNNのブロック内に一組の拡張及び/又は非拡張畳み込みを確立することをさらに含む、請求項24に記載のコンピュータ実施方法であって、前記畳み込みは固定された重み付け及び/又は学習可能重み付けに基づく、方法。
  31. 周囲画像コンテンツの追加空間的コンテキストを収集することをさらに含む、請求項30に記載のコンピュータ実施方法であって、前記周囲画像コンテンツは周囲組織構造又は任意の他の要素を含む、方法。
  32. 画像データを処理するための深層学習モデルを生成するためのシステムであって、
    畳み込みニューラルネットワーク(CNN)の複数の層の各層と前記CNNの複数の先行層との間の密接続を確立し;
    前記CNNの前記複数の層及び前記CNNの前記複数の先行層の各層のビルディングブロック内に残差接続を確立し;
    前記CNNの第1の分岐内の複数のダウンサンプリング層の、各ダウンサンプリング層の入力をダウンサンプリングし;並びに
    前記CNNの第2の分岐内の複数のアップサンプリング層の、各アップサンプリング層の入力をアップサンプリングするように構成されたコンピュータ装置を含む、システム。
  33. 前記密接続は、前記第1の分岐内のノード間及び前記第2の分岐内のノード間に確立さ
    れる、請求項32に記載のシステム。
  34. 各アップサンプリング層の前記入力をアップサンプリングすることは、前記入力を畳み込むことを含む、請求項32に記載のシステム。
  35. 各ダウンサンプリング層の前記入力をダウンサンプリングすることは、前記入力の最大プールを計算することを含む、請求項32に記載のシステム。
  36. 各アップサンプリング層の前記入力をアップサンプリングすることは、最近傍補間を計算することを含む、請求項32に記載のシステム。
  37. 前記コンピュータ装置は、前記CNNの複数の層及び前記CNNの複数の先行層の各層のビルディングブロック内に、拡張された畳み込みを確立するようにさらにプログラムされるか又は構成される、請求項32に記載のシステム。
  38. 前記コンピュータ装置は、様々な拡張ストライドに基づき、前記CNNのブロック内に一組の拡張及び/又は非拡張畳み込みを確立するようにさらにプログラムされるか又は構成され、前記畳み込みは固定された重み付け及び/又は学習可能重み付けに基づく、請求項32に記載のシステム。
  39. 前記コンピュータ装置は周囲画像コンテンツの追加空間的コンテキストを収集するようにさらにプログラムされるか又は構成された、請求項38に記載のシステムであって、前記周囲画像コンテンツは周囲組織構造又は任意の他の要素を含む、システム。
JP2021573612A 2019-06-12 2020-06-12 画像処理のための深層学習モデル Pending JP2022536731A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962860392P 2019-06-12 2019-06-12
US62/860,392 2019-06-12
PCT/US2020/037427 WO2020252256A1 (en) 2019-06-12 2020-06-12 Deep-learning models for image processing

Publications (1)

Publication Number Publication Date
JP2022536731A true JP2022536731A (ja) 2022-08-18

Family

ID=73781566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021573612A Pending JP2022536731A (ja) 2019-06-12 2020-06-12 画像処理のための深層学習モデル

Country Status (5)

Country Link
US (1) US20220172360A1 (ja)
JP (1) JP2022536731A (ja)
KR (1) KR20220019278A (ja)
CA (1) CA3143172A1 (ja)
WO (1) WO2020252256A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI742782B (zh) * 2020-07-28 2021-10-11 國立勤益科技大學 視網膜分層厚度檢測模型之建立方法、視網膜分層厚度檢測系統、眼部照護裝置、視網膜分層厚度檢測方法及失智症評估和預測方法
WO2022031903A1 (en) * 2020-08-07 2022-02-10 Nanotronics Imaging, Inc. Deep learning model for noise reduction in low snr imaging conditions
US20240177445A1 (en) * 2021-03-26 2024-05-30 John Michael Galeotti System and Method for Direct Diagnostic and Prognostic Semantic Segmentation of Images
KR102520732B1 (ko) * 2021-05-04 2023-04-12 한국과학기술정보연구원 유동해석 데이터 처리장치 및 그 장치에서 각 기능을 실행시키기 위해 매체에 저장된 컴퓨터 프로그램

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2880316T3 (es) * 2014-08-29 2021-11-24 Google Llc Procesamiento de imágenes mediante redes neuronales profundas
US9524450B2 (en) * 2015-03-04 2016-12-20 Accenture Global Services Limited Digital image processing using convolutional neural networks
US20170236057A1 (en) * 2016-02-16 2017-08-17 Carnegie Mellon University, A Pennsylvania Non-Profit Corporation System and Method for Face Detection and Landmark Localization
US9916522B2 (en) * 2016-03-11 2018-03-13 Kabushiki Kaisha Toshiba Training constrained deconvolutional networks for road scene semantic segmentation
US10089717B2 (en) * 2016-04-05 2018-10-02 Flipboard, Inc. Image scaling using a convolutional neural network
US10438350B2 (en) * 2017-06-27 2019-10-08 General Electric Company Material segmentation in image volumes
US20190318226A1 (en) * 2018-04-12 2019-10-17 Gyrfalcon Technology Inc. Deep Learning Image Processing Systems Using Modularly Connected CNN Based Integrated Circuits
US10504027B1 (en) * 2018-10-26 2019-12-10 StradVision, Inc. CNN-based learning method, learning device for selecting useful training data and test method, test device using the same
US20220155398A1 (en) * 2019-02-15 2022-05-19 Arterys Inc. Deep learning-based eddy current correction

Also Published As

Publication number Publication date
KR20220019278A (ko) 2022-02-16
WO2020252256A1 (en) 2020-12-17
US20220172360A1 (en) 2022-06-02
CA3143172A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
JP2022536731A (ja) 画像処理のための深層学習モデル
Saha et al. A survey on skeletonization algorithms and their applications
CN111445478B (zh) 一种用于cta图像的颅内动脉瘤区域自动检测系统和检测方法
US20220198230A1 (en) Auxiliary detection method and image recognition method for rib fractures based on deep learning
JP2022536732A (ja) 敵対的生成ネットワークを使用してoct画像から雑音及び/又はアーチファクトを除去するためのシステム及び方法
JP2023511300A (ja) 医用画像における解剖学的構造を自動的に発見するための方法及びシステム
US11158047B2 (en) System and method for segmentation and visualization of medical image data
CN110852987B (zh) 基于深形态学的血管斑块检测方法、设备及存储介质
US10770175B2 (en) System and method for segmentation and visualization of medical image data
US11676361B2 (en) Computer-readable recording medium having stored therein training program, training method, and information processing apparatus
US20190362548A1 (en) Apparatus and method for creating biological model
CN114600171A (zh) 用于基于空间-时间数据来分析医学图像的系统和方法
Ma et al. Cascade dual-branch deep neural networks for retinal layer and fluid segmentation of optical coherence tomography incorporating relative positional map
Wang et al. Convolutional neural network for automatically segmenting magnetic resonance images of the shoulder joint
JP2004521425A (ja) 対象の3次元表面上にマップされた3次元メッシュモデルの適合性評価のための画像処理方法
CN108292434A (zh) 用于医学图像中的解剖学结构的分割的方法、装置和系统
CN112750110A (zh) 基于神经网络对肺部病灶区进行评估的评估系统和相关产品
JPWO2020175445A1 (ja) 学習方法、学習装置、生成モデル及びプログラム
da Silva Tavares Image processing and analysis: applications and trends
WO2022163402A1 (ja) 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置
KR20230139257A (ko) 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치
AlGhamdi Optic disc segmentation in fundus images with deep learning object detector
Bouslimi et al. Deep Learning Based Localisation and Segmentation of Prostate Cancer from mp-MRI Images
JP2022546303A (ja) 管状フィーチャのセグメント化
Manoila et al. SmartMRI Framework for Segmentation of MR Images Using Multiple Deep Learning Methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312