JP6842481B2 - 深層学習を用いた網膜層の3d定量解析 - Google Patents

深層学習を用いた網膜層の3d定量解析 Download PDF

Info

Publication number
JP6842481B2
JP6842481B2 JP2019028718A JP2019028718A JP6842481B2 JP 6842481 B2 JP6842481 B2 JP 6842481B2 JP 2019028718 A JP2019028718 A JP 2019028718A JP 2019028718 A JP2019028718 A JP 2019028718A JP 6842481 B2 JP6842481 B2 JP 6842481B2
Authority
JP
Japan
Prior art keywords
image
machine learning
training
images
learning system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019028718A
Other languages
English (en)
Other versions
JP2019192215A (ja
Inventor
マオ・ツァイシン
ワング・ゼングォ
チャン・キンプイ
福間 康文
康文 福間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Publication of JP2019192215A publication Critical patent/JP2019192215A/ja
Application granted granted Critical
Publication of JP6842481B2 publication Critical patent/JP6842481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Description

関連出願の相互参照
本願は、2018年2月21日に出願された“3D QUANTITATIVE ANALYSIS OF RETINAL LAYERS WITH DEEP LEARNING(深層学習を用いた網膜層の3D定量解析)”と題する米国仮特許出願第62/633,363に基づく優先権を主張し、その全体が参照により本明細書に援用される。
本開示は、深層学習アルゴリズム及び人工知能を用いた生理学的画像の定量解析に関する。より具体的に、本開示は、眼科用光干渉断層法(OCT)画像における網膜層の特定及び解析に関する。
現在のOCTシステム(1μmのスペクトル範囲領域の光源を使用するものなど)は、網膜内における異なる複数の組織層の視覚化を可能にしている。しかしながら、OCT技術におけるそのような進歩にもかかわらず、これら異なる層の定量解析は、主として、断面画像内(Bスキャン内又はBフレーム内)における境界検出に依存するセグメンテーション技術に基づいている。
例えば、1つの一般的な境界検出方法は、グラフ探索理論(グラフ検索理論)を利用する。しかし、この方法は、脈絡膜と強膜との間や、神経節細胞層(GCL)と内網状層(IPL)との間など、いくつかの層の間に関しては、明確な生理学的境界が欠如しているため及び/又はそれらの層が透明であるために、特に困難である可能性がある。他の一般的な方法についても同様の問題が存在する。更に、いくつかのアプローチでは、脈絡膜−強膜界面(CSI)を特定するために血管の3Dモデルを構築するなどの一連の複雑なステップが使用される。そして、CSIは「薄板スプライン(thin plate spline)」(TPS)アプローチによって構築される。しかし、このアプローチではCSIが連続且つ滑らかであることを仮定するが、生物学的には、これら2つの層の間に明確な物理的境界はない可能性がある。
ここに開示される主題の第1の例によれば、方法は以下を含む:少なくとも2つの訓練画像を用いて機械学習システムを訓練し、ここで、前記少なくとも2つの訓練画像のうちの第1の訓練画像は第1の種類の生理学的組織から得られ、第2の訓練画像は第2の種類の生理学的組織から得られ、前記機械学習システムは前記第1及び第2の種類の生理学的組織の間における前記少なくとも2つの訓練画像の相違を認識するように訓練され;前記訓練された機械学習システムに被検者の生理学的組織の画像を供給し;前記訓練された機械学習システムを用いて、前記画像のピクセルが前記第1の種類の生理学的組織及び/又は前記第2の種類の生理学的組織に属する確率を特定し、ここで、各確率は前記画像のピクセルに対応し;前記特定された確率に基づいて、前記第1及び第2の種類の生理学的組織の間における前記画像内の境界を特定し、又は、前記第1又は第2の種類の生理学的組織の特性を求める。
上記の例の様々な実施形態によれば、以下のいずれかを含む:前記第1の種類の生理学的組織及び前記第2の種類の生理学的組織は、異なる網膜層である;前記第1の種類の生理学的組織は脈絡膜であり、前記第2の種類の生理学的組織は強膜である;前記少なくとも2つの訓練画像は、少なくとも2つの2D正面画像である;前記少なくとも2つの2D正面画像は、ボリューメトリックイメージングデータを基準層に関して平坦化することによって生成される;前記基準層はブルッフ膜である;前記少なくとも2つの2D正面画像は、所定の深度だけ分離されている;前記第1の訓練画像は、訓練画像の第1の3Dボリュームから得られ、前記第2の訓練画像は、訓練画像の第2の3Dボリュームから得られ、ここで、前記第1の3Dボリュームの中心は、前記第2の3Dボリュームの中心から得られた所定の個数のピクセルである;モデルに供給された前記画像の前記ピクセルについて確率マップを生成することを更に含み、ここで、前記確率マップの各ピクセルは、前記モデルに供給された前記画像の対応ピクセルの特定された確率を表す;前記画像のAライン内の複数のピクセルについて特定された複数の確率を所定の閾値と比較することを更に含む;前記Aライン内の境界ピクセルは、確率が前記所定の閾値以上である第1のピクセルとして特定され、ここで、前記境界ピクセルは、前記特定された境界のピクセルである;前記Aライン内の境界ピクセルは、ピクセルの集合における第1のピクセルとして特定され、ここで、前記ピクセルの集合における各ピクセルは、前記所定の閾値以上の特定された確率を有する;前記画像内の前記境界は、最短経路探索技術にしたがって特定される;前記画像内の前記境界は、機械学習技術にしたがって特定される;所定の閾値以上である前記被検者の前記画像内の各ピクセルを抽出することを更に含む;前記抽出されたピクセルは3Dボリュームを形成し、前記方法は前記抽出されたピクセルによって形成された前記3Dボリュームを表示することを更に含む;前記画像は、3Dボリュームの画像の一部であり、ここで、前記3Dボリュームの複数の画像は、前記訓練された機械学習システムに供給され、且つ、特定された前記第1及び第2の種類の生理学的組織間の境界、又は、求められた前記第1及び第2の種類の生理学的組織の特性を有する;前記第1の訓練画像と前記第2の訓練画像との間の相違は、前記第1の種類の生理学的組織と前記第2の種類の生理学的組織との間におけるテクスチャの相違である;前記機械学習システムが訓練される前に前記第1又は第2の訓練画像に前処理を施すことを更に含む;前記訓練された機械学習システムに前記画像を供給する前に前記被検者の生理学的組織の画像を前処理を施すことを更に含む。
撮影された対象物からの3Dボリュームデータの例を示す。
本明細書に記載された方法の第1の例示的な実施形態のフローチャートを示す。
網膜の異なる複数の層からの複数の正面訓練画像の例を示す。
機械学習システムを訓練するための「2D逐次的アプローチ」を示す。
機械学習システムを訓練するための「3Dアプローチ」を示す。
学習済みの機械学習システムを用いて入力された3Dボリュームデータを解析するための「2Dアプローチ」及び結果として生じる確率マップを示す。
学習済みの機械学習システムによって生成されたBスキャン確率マップの例を示す。
Bスキャン確率マップの閾値解析の例を示す。
機械学習システムを使用する「2Dアプローチ」にしたがって求められた比較のための確率マップを示す。 機械学習システムを使用する「2D逐次的アプローチ」にしたがって求められた比較のための比較確率マップを示す。 機械学習システムを使用する「3Dアプローチ」にしたがって求められた比較のための確率マップを示す。
従来の技術にしたがって求められた比較のための脈絡膜−強膜界面を示す。 「2Dアプローチ」にしたがって機械学習システムから出力された確率データから求められた比較のための脈絡膜−強膜界面を示す。 「2D逐次的アプローチ」にしたがって機械学習システムから出力された確率データから求められた比較のための脈絡膜−強膜界面を示す。 「3Dアプローチ」にしたがって機械学習システムから出力された確率データから求められた比較のための脈絡膜−強膜界面を示す。
抽出された3D脈絡膜ボリューメトリック画像の例を示す。
網膜の神経節細胞層(GCL)と内網状層(IPL)との間の境界の標識を示す。
上記の欠点を考慮して、本開示は、異なる構造層のテクスチャの見た目が異なるという認識に部分的に基づく。更に、これらの相違は、深層学習アルゴリズム及び人工知能を用いた機械学習ベースの技法を用いて解析及び分類することができる。したがって、本開示は、3次元における定量解析のための機械学習の使用に関する。より具体的には、本開示は、網膜構造/層に関する光コヒーレンストモグラフィ(OCT)3Dイメージングボリュームデータのそのような解析に関する。しかしながら、この方法は、任意のイメージングモダリティによって撮影された構造体の任意の層(例えば、生理学的構造体の任意の組織層)の画像に適用できることが理解されるべきである。
3Dボリュームデータ100の例を図1に示す。一例としてのOCT及び図1の3D座標系を使用すると、撮影されている対象物のxy位置それぞれにおいてz方向に入射光が照射されて、ボリュームデータ100が取得される。次に、3D座標系に関して、xy位置それぞれにおける入射光について得られたデータを、本明細書では「Aライン」又は「Aスキャン」と呼ぶ;(2D画像を形成する)yz平面又はxz平面におけるAラインの集合を、本明細書では「Bスキャン」又は「Bフレーム」102(特定のx位置におけるyzBスキャン)、「Bスキャン」又は「Bフレーム」104(特定のy位置におけるxzBスキャン)と呼ぶ;特定のz深度におけるxy平面内の2D画像、又は(例えば、範囲内の全ての深度にわたって値を平均化することにより、又は他の何らかの統計的演算を実行することによる)或る深度範囲にわたるxy平面内の投影を、本明細書では「正面(en face)」、「投影(projection)」、又は「平坦化された(flattened)」画像106と呼ぶ。或る深度範囲にわたって正面画像が形成される場合、その範囲は、、例えば、ブルッフ膜(BM)、脈絡膜、又は強膜のような、特定された層に対して定義されてもよい。
簡単に言うと、本開示によれば、多層物体の異なる複数の層の間のテクスチャの相違を識別するように機械学習モデルが訓練される。フル(全)3D空間内のデータで訓練することにより、結果として得られるモデルは、3D画像内の各ピクセルが或る層に属する確率を予測することができる。得られた確率マップを用いて、境界データ及びボリュームデータなどの有用な情報を抽出することができる。言い換えると、機械学習システムの出力は、特定のピクセルが特定の層に属する確率であってもよい。そして、確率を比較することにより、これら層の間の境界を決定すること、及び/又は、これら層の他の特性を求めることが可能になる。これの第1の例示的な実施形態が図2に示されている。
図2に示されているように、上述のテクスチャ解析を実行するために使用される機械学習システム(例えば、深層学習モデル)は、まず、異なる複数の層(例えば、脈絡膜と強膜)のテクスチャを区別するために訓練される(200)。この訓練は、3Dイメージングボリュームデータから抽出された情報に基づく。訓練に使用される画像は、特定の物体(例えば、ヒト網膜)の関心対象の層(例えば、所望の境界標識の両側にある層)について取得される。これらの画像は、任意のデータセットから取得することができ、学習済みの機械が最終的に解析する被検者から取得する必要は特にない。一般に、層は深度に対して最も変化するので、訓練のためには、上述のように基準平面又は基準層(例えば、ブルッフ膜)に対して平坦化することが可能な正面2D−OCT画像を使用することが好ましい。もちろん、関心対象の異なる複数の層のテクスチャに機械学習システムが適用される限り、任意のモダリティ及び/又は平面からの画像を使用することができる。
図3は、脈絡膜302(網膜の関連するBスキャンで示される)を表す例示的な複数の正面訓練画像300及び強膜306の複数の画像304を示す。訓練中に、これらの画像300、304は、既知の対応する層とともに機械学習システムに入力される。これにより、学習済みの機械は、訓練された画像のテクスチャをそれに対応する層に関連付けることができるようになる。図3に示されている層からの画像を用いた訓練は、機械学習システムに入力された画像のピクセルが脈絡膜又は強膜に属するかどうかを特定し、続いて脈絡膜−強膜境界を特定するように、機械学習システムを訓練させるために使用される。いくつかの実施形態では、機械学習システムに入力する前に、ノイズ低減やコントラスト向上のための前処理を訓練画像300、304のいずれか又は全てに対して施してもよい。
訓練の実施形態に応じて、訓練画像は、機械学習システムによる訓練のために多くの異なる形態で入力され、処理されてもよい。例えば、本明細書で使用されている「2Dアプローチ」は、層を表す正面画像を独立的に処理することを意味する。言い換えれば、2Dアプローチでは、正面訓練画像の各ピクセルについて、単一の2D正面画像内の情報のみを使用して機械学習システムを訓練することによって、対応する層の決定を行う。したがって、機械学習システムは、そのピクセルのみを、対応する層に関連付ける。
図4は、「2D逐次的アプローチ」を示す。2D逐次的アプローチでは、(ボリュームを形成する)複数の正面画像を使用して機械学習システムを訓練することで、基準正面画像内のピクセルの層指定を判断する。図4の例では、2Dアプローチの場合のように個別の正面画像を考慮するのではなく、10枚の正面画像(例えば、512×256×10のボリューム)を有するボリューム400が機械学習システムの訓練に用いられる。図示のように、10枚の正面画像は10個のピクセルの深度に対応し、各ピクセル深度は異なる正面画像402〜420によって表される。しかしながら、ボリュームは任意のサイズのものであってよく、正面画像は1ピクセルを超える深度にわたる投影であってよい。ボリューム400を用いて、機械学習システムは、最初に、10枚のうちの1枚の正面画像のピクセルの層指定の判断を学習する。他の9枚の画像は、改善のための追加情報を提供する。より具体的には、機械学習システムは、ボリュームの複数の画像から所定の順序にしたがって一度に1枚の正面画像を処理することで、ボリュームにわたるテクスチャの変化を認識する。追加情報は、ボリューム内の関心対象の基準画像の上方及び/又は下方の正面画像からのものであってよい。
例えば、ボリューム400における最も外側の画像402を基準とすると、機械学習システムは、ボリューム400内の追加画像それぞれを通じて内方に進むにつれて、対応するXY位置におけるピクセルへの変化を認識するように、学習することができる。同様に、基準画像がボリュームの中間にある場合(例えば、層412にある場合)、機械学習システムは、ボリューム内の外向き画像及び/又はボリューム内の下向き画像に注目することによって、基準画像の上方及び/又は下方のピクセルの変化を認識するように、学習することができる。そうすることで、テクスチャ変化率などのz軸(深度)に沿った追加情報が、機械学習システムの訓練中に取得され、処理される。画像内のピクセルがどの層に属するかを予測する際の精度を向上させるために、この情報を役立てることができる。
「3Dアプローチ」として本明細書に記載されている他の訓練の実施形態が図5に示されている。3Dアプローチは、上記の2D逐次的アプローチに類似している。しかしながら、2D逐次的アプローチのようにボリュームの2D画像を一度に1枚ずつ処理するのではなく、3Dボリュームの全ての2D画像が同時に考慮されるものであり、また、複数の3Dボリュームが考慮されてもよい。これにより、機械学習システムは、より大きい3Dボリュームデータの異なる深度から取得された複数の3Dボリューム内のテクスチャ変化を認識するように学習することができる。
例えば、図5は、基準層514に対する複数の正面画像502〜512によって表される大きい3Dボリューム500の一部を示す。これらの正面画像は、単一の深度における画像であってもよいし、或る深度範囲にわたって平坦化された画像であってもよく、したがってボリューム500内のサブボリュームを表してもよい。これらの正面画像は、逐次的(順次的、一連のもの)であってもよく、又は特定の所定の深度(例えば、5ピクセル)だけ離れていてもよい。他の実施形態では、3Dボリューム500は、複数のサブボリュームによって直接的に表現されてもよい。ここで、各サブボリュームは、特定の所定の距離(例えば、5ピクセル)だけ離れた中心深度を有する。この場合、複数の層502〜512は、6つのサブボリュームのそれぞれの中心深度における正面画像を表していてよい。いずれにせよ、基準層514は、機械学習システムが訓練されている境界に対応していてよい。したがって、CSIの上記の例を使用する場合、基準層514の上方にある正面画像又はサブボリューム502〜506は、脈絡膜を表すものとして訓練目的のために特定されてよい;更に、基準層514の下方にある正面画像又はサブボリューム508〜512は、強膜を表すものとして訓練目的のために特定されてよい。
次に、これら正面画像又はサブボリューム502〜512(又はそれらの組み合わせ)のそれぞれは、訓練のために機械学習システムによって一緒に処理されてよく、それにより、システムは、ボリューム500全体にわたる変化を認識することを学習することができる。或いは、各サブボリュームは、訓練のために個別に処理されてもよい。このとき、各正面画像は、一緒に処理されたサブボリュームを含む。本明細書で説明及び図示された例は、特定の個数の正面画像及びサブボリュームに関するものであるが、任意の個数を用いてもよく、それらの画像及びサブボリュームは任意の距離だけ分離されてよい。
図2に戻って参照すると、3Dボリュームデータは、物体/被検者(例えば、被検者の網膜)を画像化することによって取得される(210)。図2は、機械学習システムを訓練した後に3Dボリュームデータが取得される場合を示しているが、データはいつ取得されてもよい。機械学習システムが(例えば、深層学習モデルとして)訓練されると、この訓練された機械学習システムに取得された3Dボリュームデータが入力される(220)。訓練画像と同様に、機械学習システムに入力される前に、取得された3Dボリュームデータに前処理を施してノイズを低減したりコントラストを向上させたりしてもよい。ピクセル単位で処理を進めることで、機械学習システムは、画像データの各ピクセルが特定の層(例えば、脈絡膜又は強膜)の一部である確率を求め、出力する。次いで、機械学習システムは、(訓練されているように)関心対象の層のボリューメトリック確率マップを生成及び/又は出力することができる(230)。ボリューメトリック確率マップは、境界を特定するために後段の処理で使用することができる。言い換えれば、入力された3Dボリュームデータからの複数の正面画像又は他の2次元Bスキャン画像に着目することによって、機械学習システムは、入力された3Dボリューム内の各ピクセルが、システムが認識するように訓練された層のうちの1つに属する確率を求めることができる。これらの確率値は、確率ボリュームマップを生成する(230)ために用いることができる。
確率解析を実行させるために学習済みの機械学習モデルに画像を入力するとき、入力される画像は、モデルを訓練するために使用した方法と同じ方法で(同じアプローチにしたがって)入力することが好ましい。したがって、上述した複数の訓練アプローチについては、「2Dアプローチ」にしたがって訓練された学習済みの機械が(上述したように)2D正面画像を取り込む一方、「2D逐次的アプローチ」及び「3Dアプローチ」にしたがって訓練された学習済みの機械は2D正面画像のスタック(ボリューム)を取り込む。
一例として、図6は、2Dアプローチによるそのような解析を示す。それに示されているように、入力された3Dボリュームデータからの複数の個々の正面画像600は、訓練された機械学習システム620に入力される。機械学習システム620の出力は、ボリューメトリック確率データである。ボリューメトリック確率データは、複数の入力された正面画像600のそれぞれに対応する複数の正面確率マップ630として表現することができる。確率マップ630のそれぞれは、その画像内の任意のピクセル(したがって、入力された複数の正面画像600内の複数の対応するピクセル)が、機械学習システム620が認識するように訓練された層のうちの1つの層の内部に存在する可能性が高いかどうかを示す。このステップが実行されている間において、これらの正面画像は平坦化される必要はなく、XY平面からこれらの正面画像を抽出することができる。図6の例では、確率マップ上のより明るいピクセルは、そのピクセルが強膜からのものである可能性がより高いことを示す。もちろん、他の確率マッピングが用いられてもよい。例えば、より暗いピクセルがより高い確率を表す確率マッピングが用いられてもよいし、又は、確率を色で表現した(例えば、黒が低い確率を示し、赤が高い確率を示し、それらの間の色が中間の確率を示す)確率マッピングが用いられてもよい。
図6は、ボリューメトリック確率データから抽出された正面確率マップ630を示しているが、確率データを示す複数のBスキャンを抽出することも可能である。図1に戻って参照すると、Bスキャンは、例えば、XY平面内の関心領域を通るような、XZ平面又はYZ平面内においてz方向(深さ)に延びる垂直スライスである。図7は、正面確率マップ630から抽出されたBスキャン確率マップ700を示す。図7の例では、結果として得られたBスキャン確率マップ700もまた強膜の確率を示す。更に、(白い実線で示されている)特定されたブルッフ膜(BM)710に対応する深度より上方の深度における全ての確率はゼロに設定されており、したがって、(例えば、CSIを特定するために)BMより下方の部分のみが解析される。
再び図2を参照すると、(例えば、ボリュームの各Bスキャンにおいて)ボリューメトリックデータに閾値処理技術を適用することによって、更なる解析(例えば、層の間の境界、サイズ、又は他の特性を求めるための解析)を実行することができる(240)。一例として、Bスキャン内の(及び、各Bスキャンに着目ことによってボリューム内の)脈絡膜−強膜界面(CSI)は、Bスキャン内の各Aラインについて境界ピクセルを特定することによって検出することができる。この検出は、境界ピクセルが、例えば、或る閾値よりも大きい強膜確率を有するAライン内の第1のピクセル(又は、その直前のピクセル)として特定されている境界ピクセルを用いて方向性をもって実行することができる(例えば、外側の網膜から内側の網膜への方向で見る;Bスキャン画像を上から下への方向で見る)。
より具体的には、図8を参照すると、抽出されたBスキャン700内の各Aラインは、矢印800によって示されているように、上から下に向けて(外側網膜から内側網膜まで)解析されてもよい。もちろん、上記のように、いくつかの実施形態では、他の方向に解析を進めてもよい。解析が行われている間、(Bスキャン確率マップが、ピクセルが強膜からのものである確率を示しているので、図8の例におけるCSIの)境界ピクセル810は、例えば、(1)所定の閾値以上の確率を有する第1のピクセルとして特定されるか、又は、(2)それぞれが所定の閾値以上の確率を有する一連のピクセルのうちの第1のピクセルとして特定される。この第2の例に関して、一連のピクセルは任意の所定の長さであってよい。例えば、この長さが5ピクセルである場合、所定の確率閾値を少なくとも有する(上から下に向かって)最初の5つの連続するピクセルが特定され、その一連のピクセルの第1のピクセルとして境界ピクセルが特定される。このようにして、境界ピクセルでないピクセルが閾値負担(threshold burden)を満たすことを引き起こすノイズ又は他のエラーを除去することができる。他の実施形態では、一連のピクセル内の任意のピクセルが、境界ピクセル、層内の第1のピクセル、又は前の層内の最後のピクセルとして特定されてもよい。
他の実施形態では、最短距離技術、機械学習(一般に、人工知能)技術などを用いて境界を特定してもよい。例えば、最短距離技術は、得られたデータの断面又は他の部分集合において最左端のAラインから最右端のAラインへの最短経路を見つけることによって境界を特定することができ、又はその逆も可能である。経路長は、ピクセル距離、及び各ピクセルが所与の層に属する確率(例えば、より高い確率がより短い経路をもたらす上記の確率マップからの値)に基づいて求められる。機械学習技術は、前記の確率マップを用いて境界を求めるためにアルゴリズムを訓練させることによって境界を特定することができる。前記の訓練手順が行われている間に、確率マップ及び対応するグラウンドトゥルース(ground truth)境界が機械学習システムに提示され、システムは、予測された境界とグラウンドトゥルース境界との間の差を最小化するように訓練される。機械学習システムは、畳み込みニューラルネットワーク、サポートベクターマシン、決定木、又は任意の他のアーキテクチャであってもよい。もちろん、境界を求めるための追加の技法を用いることも可能である。
なお、上記の方法及びアプローチは、導出された確率に基づいて境界を求めるための単なる例示である。本開示はこれらに限定されるものではなく、機械学習モデルによって生成された確率に基づいて境界を求めるための他の方法が本開示の範囲内で想定されている。更に、画像化された物体の他の特性を求めるために、セグメンテーションのための境界標識を越える追加的な解析が実行されてもよい。例えば、境界解析は、層の上部境界及び下部境界を特定するために適用されてよく、それにより、層のサイズ/深度を特定することが可能である。ボリュームのような3D特性を求めるために、複数の2D画像(正面画像又はBスキャン)に対して更なる3D解析が実行されてもよい。更なる解析は、2D領域にわたるこれらの特性の変化(例えば、関心対象のXY領域にわたる層の深度の変化)を考慮することができる。追加的な解析は、後処理、特定された境界の平滑化などを含んでもよい。
最後に、図2を参照すると、特定された境界を示すBスキャン、3Dボリューメトリック画像、更なる処理に関連するデータなどは、出力又は表示されてよく(250)、或いは、後の使用及び/又は更なる解析のために保存されてよい。これらの表示の例は、例えば、図9〜12に関して、より詳細に示され、論じられている。
以上は強膜及び脈絡膜に関する記載であり、CSIを特定するために上から下に向かって(脈絡膜から強膜まで)解析しているが、別の方向で解析を行ってもよいことを再度記しておく。例えば、各ピクセルが脈絡膜に属する確率に関連する確率マップは、脈絡膜内の第1のピクセルを特定するために下から上に向かって(強膜から脈絡膜まで)解析することができる。これも同様にCSIを表すであろう。これらの異なるタイプの解析は、学習済みの機械がそのテクスチャを特定するように訓練された任意の構造に対する任意の境界に実行されてもよい。
図9A〜C及び図10A〜Dは、上述したような機械学習システムを使用する「2Dアプローチ」、「2D逐次的アプローチ」、及び「3Dアプローチ」に基づく、確率マップ及び結果として得られた脈絡膜−強膜界面標識を求めるための比較結果を示す。図9に見られるように、同じ関心位置からの3つのBスキャン確率マップが示され、各マップは異なるアプローチにしたがって求められている。上述したように、2Dアプローチ(図9A)では、Aライン内の各ピクセルが個別に解析されるので、各ピクセルの確率を求める際により多くの変化の影響を受けやすい。したがって、2Dアプローチに対応する確率マップは比較的多くのノイズを呈する。一方、2D逐次的アプローチ(図9B)及び3Dアプローチ(図9C)は、より滑らかであり、強膜中の各ピクセルについて高い確率を示すことによって、強膜全体をより厳密に特定している。同様に、図10A〜Dに示されている、結果として得られた脈絡膜−強膜界面標識は、2Dアプローチ(1010、図10B)に比べて比較的ノイズが多いが、従来のセグメンテーション及び平滑化技術(1000、図10A)にしたがって特定された同じ界面の近くにとどまっている。2D逐次的アプローチ(1020、図10C)及び3Dアプローチ(1030、図10D)も同様に、従来のセグメンテーションアプローチ(1000、図10A)と同様の特定された界面をもたらすが、より連続的な境界標識を提供していると言える。
図11は、網膜の各層を含む元のボリューム1110から抽出された脈絡膜1100の3Dボリューメトリック画像の例を示す。元のボリューム1110は、学習済みの機械学習システムに入力されたデータとして用いられ、それから脈絡膜の確率が出力された。そして、脈絡膜1100は、脈絡膜の確率を解析することによって機械学習システムから抽出された。より具体的には、3Dボリューム1110全体にわたって、所定の閾値を超える層確率を有するピクセルを選択することによって(又は、前記確率を使用する任意の類似の方法によって)、特定の層(又は複数の層)の3Dボリューム(例えば脈絡膜1100)が、より大きい3Dボリューム1100から抽出されることも可能である。言い換えれば、単に境界ピクセルを特定するのではなく、特定の層に属する全てのピクセルが特定される。
上述のように、本開示は脈絡膜及び強膜を具体的に説明しているが、本開示は任意の層及び任意の境界に適用可能である。図12は、例えば、本明細書の説明にしたがった、神経節細胞層(GCL)と内網状層(IPL)との間の境界標識を示す。そのような用途では、機械学習システムは、上記のような脈絡膜及び強膜ではなく、GCL及びIPLのテクスチャを特定するように訓練される。GCLの正面画像1210及びIPLの正面画像1220は、各層におけるテクスチャの相違を提示するために示されている。結果として得られた求められた境界標識1230は、Bスキャン1200上に示されている。更に他の例では、黄斑(例えば、網膜神経節細胞層)領域ならびに視神経乳頭領域(例えば、篩状板)を特定及び解析することが可能である。
本開示の方法を実行し実施するように構成されたシステムも考えられる。例えば、上記の方法は、上記の解析を実行するようにプログラムされたプロセッサ及びメモリを有するコンピュータ上で実行することができる。コンピュータは、被検者の撮影を実行するコンピュータ(例えば、OCT装置)と同じもの又は異なるものであってよい。コンピュータは、複数の遠隔地(例えば、臨床現場)からアクセス可能な集中型コンピュータであってよい。コンピュータはまた、深層学習システムと同じもの又は異なるものであってよい。

Claims (3)

  1. 少なくとも2つの訓練画像を用いて機械学習システムを訓練し、ここで、前記少なくとも2つの訓練画像のうちの第1の訓練画像は第1の種類の生理学的組織から得られ、第2の訓練画像は第2の種類の生理学的組織から得られ、前記機械学習システムは前記第1及び第2の種類の生理学的組織の間における前記少なくとも2つの訓練画像の相違を認識するように訓練され、
    前記訓練された機械学習システムに被検者の生理学的組織の画像を供給し、
    前記訓練された機械学習システムを用いて、前記画像のピクセルが前記第1の種類の生理学的組織及び/又は前記第2の種類の生理学的組織に属する確率を特定し、ここで、各確率は前記画像のピクセルに対応し、
    前記特定された確率に基づいて、前記第1及び第2の種類の生理学的組織の間における前記画像内の境界を特定し、又は、前記第1又は第2の種類の生理学的組織の特性を求め、
    前記少なくとも2つの訓練画像は、少なくとも2つの2D正面画像であり、
    前記少なくとも2つの2D正面画像は、ボリューメトリックイメージングデータを基準層に関して平坦化することによって生成される、
    方法。
  2. 前記基準層はブルッフ膜である、
    請求項の方法。
  3. 少なくとも2つの訓練画像を用いて機械学習システムを訓練し、ここで、前記少なくとも2つの訓練画像のうちの第1の訓練画像は第1の種類の生理学的組織から得られ、第2の訓練画像は第2の種類の生理学的組織から得られ、前記機械学習システムは前記第1及び第2の種類の生理学的組織の間における前記少なくとも2つの訓練画像の相違を認識するように訓練され、
    前記訓練された機械学習システムに被検者の生理学的組織の画像を供給し、
    前記訓練された機械学習システムを用いて、前記画像のピクセルが前記第1の種類の生理学的組織及び/又は前記第2の種類の生理学的組織に属する確率を特定し、ここで、各確率は前記画像のピクセルに対応し、
    前記特定された確率に基づいて、前記第1及び第2の種類の生理学的組織の間における前記画像内の境界を特定し、又は、前記第1又は第2の種類の生理学的組織の特性を求め、
    前記第1の訓練画像は、訓練画像の第1の3Dボリュームから得られ、前記第2の訓練画像は、訓練画像の第2の3Dボリュームから得られ、ここで、前記第1の3Dボリュームの中心は、前記第2の3Dボリュームの中心から得られた所定の個数のピクセルである、
    方法。
JP2019028718A 2018-02-21 2019-02-20 深層学習を用いた網膜層の3d定量解析 Active JP6842481B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862633363P 2018-02-21 2018-02-21
US62/633,363 2018-02-21
US16/277,319 US10878574B2 (en) 2018-02-21 2019-02-15 3D quantitative analysis of retinal layers with deep learning
US16/277,319 2019-02-15

Publications (2)

Publication Number Publication Date
JP2019192215A JP2019192215A (ja) 2019-10-31
JP6842481B2 true JP6842481B2 (ja) 2021-03-17

Family

ID=65520144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028718A Active JP6842481B2 (ja) 2018-02-21 2019-02-20 深層学習を用いた網膜層の3d定量解析

Country Status (4)

Country Link
US (1) US10878574B2 (ja)
EP (1) EP3530176B1 (ja)
JP (1) JP6842481B2 (ja)
DE (1) DE19158556T1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152780B2 (en) 2015-11-02 2018-12-11 Cognex Corporation System and method for finding lines in an image with a vision system
US10937168B2 (en) * 2015-11-02 2021-03-02 Cognex Corporation System and method for finding and classifying lines in an image with a vision system
US11182914B2 (en) 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
JP7229881B2 (ja) * 2018-08-14 2023-02-28 キヤノン株式会社 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
WO2020036182A1 (ja) * 2018-08-14 2020-02-20 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
US11191492B2 (en) * 2019-01-18 2021-12-07 International Business Machines Corporation Early detection and management of eye diseases by forecasting changes in retinal structures and visual function
JP7254682B2 (ja) * 2019-11-22 2023-04-10 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN111738357B (zh) * 2020-07-24 2020-11-20 完美世界(北京)软件科技发展有限公司 垃圾图片的识别方法、装置及设备
CN115330993B (zh) * 2022-10-18 2023-03-24 小手创新(杭州)科技有限公司 一种基于低运算量的回收系统新进物判别方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4466968B2 (ja) * 2008-11-10 2010-05-26 キヤノン株式会社 画像処理装置、画象処理方法、プログラム、及びプログラム記憶媒体
JP2011095921A (ja) * 2009-10-28 2011-05-12 Canon Inc 画像処理装置、画像処理方法及びプログラム
US8811745B2 (en) 2010-01-20 2014-08-19 Duke University Segmentation and identification of layered structures in images
JP5631339B2 (ja) * 2012-01-06 2014-11-26 キヤノン株式会社 画像処理装置、画像処理方法、眼科装置、眼科システム及びコンピュータプログラム
CN103514605B (zh) 2013-10-11 2016-01-20 南京理工大学 基于hd-oct视网膜图像的脉络膜层自动分割方法
JP6209069B2 (ja) * 2013-11-26 2017-10-04 日本電信電話株式会社 境界検出装置、境界検出方法及びコンピュータプログラム
US10463247B2 (en) * 2015-06-22 2019-11-05 The Regents Of The University Of California Automatic three-dimensional segmentation method for OCT and doppler OCT angiography
EP3338619B1 (en) * 2015-08-19 2021-06-16 Kowa Company, Ltd. Image processing device, image processing method, and image processing program
US10123689B2 (en) * 2015-10-28 2018-11-13 Oregon Health & Science University Systems and methods for retinal layer segmentation in OCT imaging and OCT angiography
US10194866B2 (en) * 2016-02-19 2019-02-05 Optovue, Inc. Methods and apparatus for reducing artifacts in OCT angiography using machine learning techniques
US9972092B2 (en) 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
US20180012359A1 (en) 2016-07-06 2018-01-11 Marinko Venci Sarunic Systems and Methods for Automated Image Classification and Segmentation
JP6867117B2 (ja) * 2016-07-08 2021-04-28 株式会社トプコン 医用画像処理方法及び医用画像処理装置

Also Published As

Publication number Publication date
US20190259163A1 (en) 2019-08-22
US10878574B2 (en) 2020-12-29
JP2019192215A (ja) 2019-10-31
EP3530176B1 (en) 2020-11-04
DE19158556T1 (de) 2019-11-14
EP3530176A1 (en) 2019-08-28

Similar Documents

Publication Publication Date Title
JP6842481B2 (ja) 深層学習を用いた網膜層の3d定量解析
Al-Bander et al. Multiscale sequential convolutional neural networks for simultaneous detection of fovea and optic disc
US11989877B2 (en) Method and system for analysing images of a retina
KR102543875B1 (ko) 의료용 화상 처리 장치, 의료용 화상 처리 방법, 컴퓨터 판독가능 매체, 및 학습 완료 모델
US20210104313A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
Abràmoff et al. Retinal imaging and image analysis
Estrada et al. Retinal artery-vein classification via topology estimation
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
US8705826B2 (en) Automatic cup-to-disc ratio measurement system
JP7269413B2 (ja) 医用画像処理装置、医用画像処理システム、医用画像処理方法及びプログラム
JP2021531098A (ja) Aiを利用した眼の状態判定のためのシステムおよび方法
JP2021536057A (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
EP2988272A2 (en) A method for computer-aided analysis of medical images
CN108765392B (zh) 一种基于滑动窗口的消化道内镜病变检测和识别方法
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
CN110555845A (zh) 眼底oct图像识别方法及设备
CN112233087A (zh) 一种基于人工智能的眼科超声疾病诊断方法和系统
JP7332463B2 (ja) 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
Shaik et al. Glaucoma identification based on segmentation and fusion techniques
CN110929570A (zh) 虹膜快速定位装置及其定位方法
US11302006B2 (en) 3D quantitative analysis with deep learning
CN117237711A (zh) 一种基于对抗学习的双模态眼底图像分类方法
JP7439990B2 (ja) 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法
US11786212B1 (en) Echocardiogram classification with machine learning
Al-Bander Retinal Image Analysis Based on Deep Learning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190617

AA79 Non-delivery of priority document

Free format text: JAPANESE INTERMEDIATE CODE: A24379

Effective date: 20190702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210219

R150 Certificate of patent or registration of utility model

Ref document number: 6842481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250