JP2023507151A - 光コヒーレンストモグラフィセグメンテーションのための深層学習 - Google Patents
光コヒーレンストモグラフィセグメンテーションのための深層学習 Download PDFInfo
- Publication number
- JP2023507151A JP2023507151A JP2022537064A JP2022537064A JP2023507151A JP 2023507151 A JP2023507151 A JP 2023507151A JP 2022537064 A JP2022537064 A JP 2022537064A JP 2022537064 A JP2022537064 A JP 2022537064A JP 2023507151 A JP2023507151 A JP 2023507151A
- Authority
- JP
- Japan
- Prior art keywords
- image
- tiles
- image tiles
- tile
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012014 optical coherence tomography Methods 0.000 title claims abstract description 67
- 230000011218 segmentation Effects 0.000 title abstract description 17
- 238000013135 deep learning Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000010801 machine learning Methods 0.000 claims abstract description 36
- 238000010845 search algorithm Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 166
- 238000004458 analytical method Methods 0.000 claims description 30
- 238000003708 edge detection Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims 3
- 238000003709 image segmentation Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 210000002569 neuron Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 210000003484 anatomy Anatomy 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 241000699670 Mus sp. Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 208000030533 eye disease Diseases 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 229920002803 thermoplastic polyurethane Polymers 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
- G06T3/602—Rotation of whole images or parts thereof by block rotation, e.g. by recursive reversal or rotation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
光コヒーレンストモグラフィ(OCT)画像をセグメント化するための機械学習モデルを提供するシステム及び方法が提示される。第1のOCT画像が、取得され、次に、グラフ検索アルゴリズムを使用して、第1のOCT画像内の異なる組織に関連する識別された境界でラベル付けされる。第1の複数の画像タイルを生成するために、ラベル付けされた第1のOCT画像の部分が抽出される。第1の複数の画像タイルからの少なくとも1つの画像タイルを操作することによって(少なくとも1つの画像タイルを回転及び/又は反転させることなどによって)、第2の複数の画像タイルが生成される。機械学習モデルは、第1の複数の画像タイル及び第2の複数の画像タイルを使用して訓練される。訓練された機械学習モデルを使用して、第2のOCT画像においてセグメンテーションが行われる。
Description
本開示は、画像処理に関し、より詳細には、本開示の様々な実施形態による、生体医学画像セグメンテーションを行うために機械学習モデルを使用することに関する。
眼科学などの特定の生体医学分野では、患者の診断を決定するために、患者の身体部分(例えば、目)の画像(例えば、x線画像、光コヒーレンストモグラフィ(OCT)画像など)が捕捉及び解析され得る。画像を解析する際に、画像内の要素の自動セグメンテーションが、定性的画像を診断法及び手術ガイダンスの両方に役立つ定量的測定に変換することができる。しかしながら、自動画像セグメンテーションは、難しい場合がある。例えば、スペックルなどの画像上に現れるアーチファクトにより、OCT画像内の異なるタイプの組織間の連続した薄い境界が、不連続となる場合があり、これは、OCT画像内で異なるタイプの組織を自動的に識別することを難しくする。さらに、複雑な病的状態も、画像セグメンテーションを難しくし得る。
従来のセグメンテーションアルゴリズムは、この問題を解決するために、問題の明確な記述及び詳細なステップ(例えば、アルゴリズムの設計者によって提供される明確な規則)に依存する。この手法は、解剖構造が、標準的な人のデータベースから確立することができる規則に従う正常な被験者(病気のない患者)から取得した画像にはうまく機能する。しかしながら、異なる病気がある被験者の場合、解剖構造は、正常な状態から大きく異なる可能性があり、OCT画像セグメンテーションを難しくする。例えば、病的状態を有する、ある人の目の内部の異なるタイプの組織間の境界は、正常な目のパターンに従わない場合がある。したがって、当該分野において、OCT画像を自動的にセグメント化するための効果的な機構を提供する必要がある。
幾つかの実施形態によれば、システムは、非一時的メモリと、1つ以上のハードウェアプロセッサであって、非一時的メモリから命令を読み取って、システムに、光コヒーレンストモグラフィ(OCT)画像を取得することと、エッジ検出アルゴリズムに基づいて、OCT画像内のエッジを決定することと、OCT画像に基づいて、複数の画像タイルを生成することと、複数の画像タイルの少なくとも1つの画像タイルを操作することによって、複数のさらなる画像タイルを生成することと、複数の画像タイル及び複数のさらなる画像タイルに基づいて、OCT画像内のエッジを予測するための機械学習モデルを訓練することと、を含む動作を行わせるように構成された、1つ以上のハードウェアプロセッサと、を含む。
幾つかの実施形態によれば、方法は、生体医学画像を取得することと、エッジ検出アルゴリズムに基づいて、生体医学画像内の異なる組織の境界を決定することと、生体医学画像に基づいて、第1の複数の画像タイルを生成することと、第1の複数の画像タイルの少なくとも1つの画像タイルを操作することによって、第2の複数の画像タイルを生成することと、1つ以上のハードウェアプロセッサによって、第1の複数の画像タイル及び第2の複数の画像タイルに基づいて、生体医学画像をセグメント化するための機械学習モデルを訓練することと、を含む。
幾つかの実施形態によれば、機械読取可能命令を記憶した非一時的機械読取可能媒体であって、機械読取可能命令は、機械に、光コヒーレンストモグラフィ(OCT)画像を取得することと、少なくとも部分的にエッジ検出アルゴリズムに基づいて、OCT画像を解析することと、OCT画像の解析に基づいて、第1の複数の画像タイルを生成することと、第1の複数の画像タイルの少なくとも1つの画像タイルを操作することによって、第2の複数の画像タイルを生成することと、第1の複数の画像タイル及び第2の複数の画像タイルに基づいて、OCT画像をセグメント化するための機械学習モデルを訓練することと、を含む動作を行わせるように実行可能である、非一時的機械読取可能媒体。
本技術、本技術の特徴、及び本技術の利点をより完全に理解するために、添付の図面と併せて、以下の説明を参照する。
図面において、同一符号を有する要素は、同一又は類似の機能を有する。
発明の態様、実施形態、実装形態、又はモジュールを示すこの説明及び添付の図面は、限定するものとして解釈されるべきではなく、特許請求の範囲が、保護された発明を定義する。この説明及び特許請求の範囲の精神及び範囲から逸脱することなく、様々な機械的、構成的、構造的、電気的、及び動作上の変更を行ってもよい。場合によっては、本発明をあいまいにしないために、周知の回路、構造、又は技術は、図示又は詳細に説明されていない。2つ以上の図の類似の番号は、同一又は類似の要素を表す。
この説明において、本開示と一致する幾つかの実施形態を説明する特定の詳細が示されている。実施形態の完全な理解を提供するために、多数の特定の詳細が示されている。しかしながら、これらの具体的詳細の一部又は全部なしに幾つかの実施形態が実施されてもよいことは、当業者には明らかであろう。本明細書に開示された特定の実施形態は、限定的でなく、例示的であるように意図される。当業者であれば、本明細書に具体的に説明されないが、この開示の範囲及び精神の範囲内にある他の要素を実現してもよい。加えて、不必要な繰り返しを避けるために、一実施形態に関連して図示されて説明された1つ以上の特徴は、特に別途説明しない限り、又は1つ以上の特徴によって実施形態が機能しなくなる場合を除いて、他の実施形態に組み込まれてもよい。
下記の技術は、画像(例えば、x線画像、光コヒーレンストモグラフィ(OCT)画像などの生体医学画像)を自動的にセグメント化するための機械学習モデルを提供するためのシステム及び方法を含み、機械学習モデルは、既存の訓練画像の操作に基づいて人工的に生成された訓練データを使用して訓練される。上述の通り、OCT画像セグメンテーションは、画像上に現れるアーチファクト(例えば、スペックル)及び患者の複雑な病的状態などの要因により、難しい場合がある。これまで、OCT画像セグメンテーションを行うために、グラフ検索アルゴリズムなどの従来のアルゴリズムが使用(例えば、コンピュータにおいて実装)されてきた。しかしながら、これらのアルゴリズムは、解剖構造が、標準的な人のデータベースから確立することができる規則(又はパターン)に従う正常な患者(例えば、病気のない患者)の画像に対してセグメンテーションを行う場合にのみ効果的となり得る。これらのアルゴリズムは、アーチファクトを含むOCT画像、及び/又は病的状態を有する患者から得たOCT画像に対してセグメンテーションを行う場合には、複雑な病的状態を有するこれらの患者の解剖構造が、異なるパターンに従う場合、又はどのようなパターンにも従わない場合があるため、効果的ではないかもしれない。
幾つかの実施形態では、機械学習モデルは、画像(例えば、x線画像、OCT画像など)のセグメンテーションを行うように構成され得る。機械学習モデルは、過去に取得された患者の画像などの訓練データを使用して訓練され得る。生体医学画像セグメンテーションを行うための従来のアルゴリズムに勝る、畳み込みニューラルネットワーク(CNN)などの機械学習モデルを使用する利点は、機械学習モデルが、画像をセグメント化する方法に関する明確な規則に依存しないことである。より正確に言えば、十分な訓練データを用いて、機械学習モデルは、単独で規則を導出し、新しい訓練データに基づいて継続的に発展(例えば、規則を修正及び/又は補正)することができる。そのため、大量の高品質訓練データを与えられると、機械学習モデルは、正確且つ効果的に画像をセグメント化するように訓練され得る。これまでは、訓練データの生成は、人間のオペレータが、グラウンドトゥルースを決定するために、既存の画像内の異なる組織タイプの境界を手作業で解析及びラベル付けすることを必要とする。しかしながら、このように訓練データを生成することは、面倒であり、及び誤りを生じやすいだけでなく、関与する手作業の労力により、大量の訓練データを生成することが困難である。機械学習モデルの性能は、機械学習モデルを訓練する訓練データの量及び品質に大きく依存するため、機械学習モデルの性能は、訓練データがこのように生成される場合に、おそらく損なわれるだろう。
そのため、本開示の様々な実施形態によれば、画像セグメンテーションを行うように構成された機械モデルを訓練するための大量の高品質訓練データを自動的に生成するための訓練システムが提供され得る。幾つかの実施形態では、訓練システムは、訓練画像を取得し得る。訓練画像は、過去に患者から得た既存の画像でもよい。幾つかの実施形態では、訓練データシステムは、訓練画像の解析及びラベル付けを行う(例えば、訓練画像における、目の異なる層などの異なるタイプの組織の境界(エッジとも呼ばれる)を識別することによって)ために、従来のアルゴリズム(例えば、グラフ検索アルゴリズム)、及び手作業又は半自動注釈を使用してもよい。本明細書で述べるように、画像をセグメント化するために従来のアルゴリズムを使用する欠点の1つは、従来のアルゴリズムが、かなりの量のアーチファクト(例えば、スペックル)を有する画像、又は異なる病的状態(例えば、異なる目の病気)を有する患者の画像に対してセグメンテーションを行う際に効果的ではないかもしれない点である。そのため、従来のアルゴリズムを使用して生成された訓練データは、きれいな画像(例えば、かなりの量のアーチファクトを持たない画像)、及び正常な患者の画像にのみ限定され得る。訓練データを拡張して、様々な病状を有する患者の画像をカバーするために、幾つかの実施形態の訓練システムは、既存の訓練画像を操作することによって、さらなる訓練データを人工的に生成し得る。
幾つかの実施形態では、訓練システムは、各訓練画像から画像タイル(例えば、パッチ)を取得し得る。異なる実施形態は、訓練画像から画像タイルを取得する際に、異なる技術を使用し得る。幾つかの実施形態では、訓練システムは、訓練画像を複数のタイルに分割し得る。例えば、160×40ピクセルのサイズを有する画像から、訓練システムは、画像を64個の同じサイズ(10×10ピクセル)のタイルへと分割し得る。幾つかの実施形態では、訓練システムは、訓練データを生成するように構成された装置の装置属性(例えば、グラフィック処理ユニットのメモリサイズ)を取得することができ、その装置属性に基づいて、画像を分割することができる。例えば、訓練システムは、装置のグラフィック処理ユニットのメモリサイズを超えないタイルサイズを決定することができ、次に、そのタイルサイズに基づいて、画像をタイルに分割することができる。
幾つかの実施形態では、訓練システムは、画像に対して1つ以上の解析を行うこともでき、その1つ以上の解析に基づいて、画像を分割することができる。例えば、訓練システムは、関連性のあるデータを含まない画像の部分(例えば、背景又はブランクデータを含む画像の部分)を決定するために、ピクセル解析を行ってもよい。この点について、訓練システムは、実質的に類似した(又は同一の)ピクセル値を有する隣接したピクセルを持つ画像の部分(例えば、閾値を下回る、それらの部分内の空間周波数)を決定するために、画像内の各ピクセルのピクセル値を解析し得る。次に、訓練システムは、画像を複数のタイルに分割する前に、画像の上記部分を排除(例えば、除去)し得る。
幾つかの実施形態では、画像を複数のタイルに分割する代わりに、訓練システムは、画像から異なる画像部分を抽出することによって画像タイルを生成し得る。例えば、訓練システムは、決定されたタイルサイズ(例えば、10×10ピクセル)を有する仮想ウィンドウを生成し得る。訓練システムは、画像の最初の位置(例えば、左上隅)に仮想ウィンドウを配置し得る。訓練システムは、仮想ウィンドウ内の画像の部分が関連性閾値を超えるか否かを決定するために、その画像の部分を解析し得る。画像の部分が関連性閾値を超えると決定されると、訓練システムは、画像タイルとして、その画像の部分を抽出し得る。一方、画像の部分が関連性閾値を超えないと決定されると、訓練システムは、その画像の部分を無視し得る。幾つかの実施形態において、訓練システムは、画像の部分の空間周波数が空間周波数閾値を超えるか否か、画像の部分がラベル付けされたデータを含む(例えば、グラフ検索アルゴリズムによってラベル付けされた異なる組織の境界の一部を含む)か否かなどの1つ以上のファクタに基づいて、画像の部分が関連性閾値を超えるか否かを決定し得る。
仮想ウィンドウ内の画像の部分を抽出(又は無視)した後に、訓練システムは、画像の別の部分をカバーするために仮想ウィンドウを別の位置へと移動させ得る(例えば、仮想ウィンドウを所定のピクセル数だけ右へ、下へなど移動させる)。訓練データシステムは、仮想ウィンドウによってカバーされる画像の異なる部分を解析し、及び関連性閾値を超える部分を抽出し続け得る。仮想ウィンドウの所定の移動に基づいて、仮想ウィンドウによる画像カバーの異なる部分は、画像から抽出された画像タイルが部分的にオーバーラップし得るように、互いにオーバーラップしてもよく、又は互いにオーバーラップしなくてもよい。画像から抽出された各画像タイルは、機械学習モデルを訓練するための別個の訓練データ片となり得る。画像の異なる部分を独立して解析し、及び関連性のある部分のみを抽出することによって、訓練データの品質が大幅に向上し得る。
初期訓練画像は、正常な患者(例えば、病気のない患者)の画像であるので、これらの画像から取得されたタイルは、異なるタイプの病状を有する患者のために機械学習モデルに十分な訓練を提供することはまだできない。したがって、幾つかの実施形態では、訓練システムは、画像タイルを操作することによって、様々な病状を有する患者に対応する、さらなる訓練データを生成し得る。例えば、訓練システムは、様々な病状を有する患者の画像をシミュレーションするために、各タイルの配向を調整し得る(これは、画像タイル中の層の境界の配向を効果的に変更する)。幾つかの実施形態では、訓練システムは、各タイルを1つ以上の回転分だけ回転させることによってさらなるタイルを生成してもよく、各さらなるタイルは、タイルを所定の回転度にまで回転させることに対応する。例えば、訓練システムは、各タイルを90度、180度、及び270度だけ回転させるように構成されてもよい。したがって、原画像タイルごとに、訓練システムは、3つのさらなるタイル(例えば、3つのさらなる訓練データ片)を生成することができる-原タイルを90度回転させることに対応する第1のさらなるタイル、原タイルを180度回転させることに対応する第2のさらなるタイル、及び原タイルを270度回転させることによる第3のさらなるタイル。他の実施形態において、異なる回転度が使用されてもよく、及び/又は異なる数のさらなるタイルが生成されてもよい。
幾つかの実施形態では、タイルを回転させる代わりに、又はタイルを回転させることに加えて、訓練システムは、各原タイル及び各さらなるタイルを軸(例えば、水平軸、垂直軸など)に沿って反転させることによって、さらなるタイルを生成することもできる。例えば、所与のタイルの水平軸及び垂直軸に沿ってタイルを反転させることによって、訓練システムは、上記所与のタイルに基づいて、2つのさらなるタイルを生成し得る。訓練システムが各原タイルを90度、180度、及び270度回転させ、その後、原タイル及び回転させたタイルを水平軸及び垂直軸に沿って反転させる例では、訓練システムは、原タイルに基づいて、11個のさらなるタイルを生成することができ得る。したがって、訓練システムは、訓練データの量を11倍に増加させることができ、さらなる訓練データは、様々な病状を有する患者の実例をカバーし得る。さらに、訓練システムは、同じ画像タイルの異なるバージョンを生成することによって、さらなる画像タイルを生成することもでき、各バージョンは、画像タイル中に付加されたアーチファクト(例えば、異なる量のスペックルなど)を含む。
訓練システムは、次に、生成された訓練データ(例えば、上記タイル及び上記さらなるタイル)を使用して、機械学習モデルを訓練し得る。幾つかの実施形態では、機械学習モデルは、深層畳み込みニューラルネットワークとして実装され得る。機械学習モデルを訓練する際に、各訓練データ片(例えば、各タイル)は、まず、畳み込み層のセットを通してダウンサンプリングされ、次に、対応する畳み込み層のセットを通してアップサンプリングされる。訓練データのダウンサンプリング及びアップサンプリングにより、機械学習モデルは、OCT画像内の組織の境界を識別するように訓練され得る。訓練後に、機械学習モデルは、患者の新しいOCT画像の組織の境界を識別するために使用され得る。幾つかの実施形態では、機械学習モデルは、新しい訓練データを使用して、定期的に再訓練され得る。例えば、新しいOCT画像が取得されると、訓練システムは、本明細書に記載した方法を使用して、訓練データを生成し、新しく生成された訓練データを使用して、機械学習モデルを再訓練するように構成され得る。
図1は、幾つかの実施形態による、本明細書で述べるような訓練システムが内部に実装され得るシステム100を示す。システム100は、ネットワーク115を介して、1つ以上のアイケア専門家(ECP)装置(ECP装置130、140、及び150など)と結合されたバイオメトリクス解析プラットフォーム102を含む。幾つかの実施例において、ネットワーク115は、1つ以上のスイッチング装置、ルータ、ローカルエリアネットワーク(例えば、イーサネット(登録商標))、広域ネットワーク(例えば、インターネット)等を含んでいてもよい。
ECP装置(例えば、ECP装置130、140、及び150)のそれぞれは、ユーザインターフェース(UI)アプリケーションとECP識別子とを含んでいてもよい。例えば、ECP装置130は、UIアプリケーション132とECP識別子134とを含んでいる。UIアプリケーション132は、バイオメトリクス解析プラットフォーム102とインタラクトするために、対応するECP(例えば、ECP170)によって使用され得る。例えば、UIアプリケーション132は、Webブラウザ又はクライアントアプリケーション(例えば、モバイルアプリケーション)であってもよい。アイケア専門家(ECP)170は、UIアプリケーション132を介して、バイオメトリクス解析プラットフォーム102によって生成及び/又は提供されるウェブページなどのグラフィカルユーザインターフェース(GUI)にアクセスし得る。ECP識別子134は、レンズ選択プラットフォーム102によってサービス提供される複数のECPの中からECP170を一意に識別する識別子である。
バイオメトリクス解析プラットフォーム102は、ユーザインターフェース(UI)サーバ103、バイオメトリクス解析エンジン106、訓練モジュール107、及び画像セグメンテーションモデル108を含む。インターフェースサーバ103は、幾つかの実施形態において、ECP装置130、140、及び150上でユーザインターフェース(例えば、グラフィカルユーザインターフェース(GUI)など)を提供するように構成され、このユーザインターフェースにより、ECP170などのECPは、バイオメトリクス解析プラットフォーム102とインタラクトし得る。例えば、幾つかの実施形態のUIサーバ103は、レンズ選択プラットフォーム102に関連付けられたウェブサイトを提供するウェブサーバを含み得る。UIサーバ103は、UIアプリケーション(例えば、UIアプリケーション132)により、ECP装置上に提示され得る1つ以上のインタラクティブウェブページを生成及び/又は保存し得る。別の例では、UIサーバ103は、プロトコル(例えば、RESTプロトコルなど)によりクライアントアプリケーション(例えば、UIアプリケーション132)とインタラクトするアプリケーションサーバを含み得る。
画像セグメンテーションモデル108は、画像に対してセグメンテーションを行う(例えば、画像上の異なる組織の境界を識別する)ように構成された機械学習モデル(例えば、畳み込みニューラルネットワークなど)でもよい。訓練モジュール107は、本明細書に開示される技術を用いて訓練データを生成することによって、画像セグメンテーションモデル108を訓練するように構成され得る。訓練モジュール107は、患者の画像(例えば、患者の目のOCT画像など)を取得し得る。訓練モジュール107は、画像上の異なる組織の境界の解析及びラベル付けを行うために、従来のアルゴリズム(例えば、グラフ検索アルゴリズム)を使用し得る。次に、訓練モジュール107は、本明細書に開示される技術を使用して、さらなる訓練データを人工的に生成し得る。例えば、訓練データモジュール107は、(例えば、画像を分割すること、又は画像からタイルを抽出することによって)画像からタイルを取得することができ、さらなる訓練データを生成するために、(例えば、タイルの配向を変更すること、タイルにアーチファクトを付加することなどによって)各タイルを操作することができる。次に、訓練モジュール107は、生成された訓練データを使用して、画像セグメンテーションモデル108を訓練し得る。画像セグメンテーションモジュール108の訓練後に、画像セグメンテーションモデル108は、画像(例えば、OCT画像)を増補するためにバイオメトリクス解析エンジン106によって使用され得る。
幾つかの実施形態では、ECP(例えば、ECP170)は、UIアプリケーション(例えば、UIアプリケーション132)及びUIサーバ103によって提供されるユーザインターフェースにより、患者の目の画像データ(例えば、OCT画像)を提供し得る。例えば、ECP170は、診断装置160を使用して、患者の目の画像(例えば、OCT画像)を捕捉し得る。幾つかの実施形態では、ECP装置130が、診断装置から画像を自動的に取り出し、UIサーバ103によってバイオメトリクス解析プラットフォーム102に画像を送信し得るように、ECP装置130は、診断装置160に結合されてもよい。
幾つかの実施形態では、画像を受信すると、バイオメトリクス解析エンジン106は、画像を解析し、画像に基づいて、患者の目に関する診断及び/又は他の情報をECP170に提供し得る。例えば、バイオメトリクス解析エンジン106は、画像内の異なる組織(例えば、異なる角膜層)の境界を識別するために、訓練された画像セグメンテーションモデル108を使用し得る。次に、バイオメトリクス解析エンジン106は、画像内の識別された境界を強調することによって画像を増補し、増補画像をECP装置130上に提示し得る。増補画像は、患者の診断及び/又は手術ガイダンスにおいて、ECP170を支援し得る。幾つかの実施形態では、バイオメトリクス解析エンジン106は、増補画像を解析することによって、画像に基づいた、患者のための眼内レンズ又はコンタクトレンズの選択などのさらなる推奨を提供し得る。
図2は、本開示の様々な実施形態による訓練モジュールを示す。図示されるように、訓練モジュール107は、セグメンテーションモジュール202、及びタイル生成モジュール204を含む。訓練モジュール107は、セグメンテーションモジュール202を使用して、例えば、グラフ検索アルゴリズムを使用することによって既存の画像(例えば、画像222)の解析及びラベル付けを行い得る。次に、訓練モジュール107は、タイル生成モジュール204を使用して、画像セグメンテーションモデル108を訓練するための訓練データとして、ラベル付けされた各画像から画像タイルを取得し得る。例えば、タイル生成モジュール204は、画像222を画像タイル(例えば、画像タイル224a~224d、原画像タイル224a~224dとも呼ばれる)に分割し得る。次に、タイル生成モジュール204は、さらなる画像タイルを生成するために、原画像タイル224a~224dを操作し得る。幾つかの実施形態では、タイル生成モジュール204は、さらなる画像タイルを生成するために、原画像タイル224a~224dのそれぞれを複数回異なる回転度分だけ回転させ得る。さらに、タイル生成モジュール204は、画像セグメンテーションモデル108を訓練するためのさらなる画像タイルを生成するために、原画像タイル224a~224dのそれぞれ及びさらなる画像タイルのそれぞれを軸(例えば、水平軸、垂直軸など)に沿って反転させることもできる。
図3は、本開示のある実施形態による、画像に対してセグメンテーションを行うように構成された画像セグメンテーションモデルを訓練するためのプロセス300を示す。幾つかの実施形態では、プロセス300は、訓練モジュール107及び/又はバイオメトリクス解析エンジン106によって行われ得る。プロセス300は、第1の光コヒーレンストモグラフィ(OCT)画像を取得することによって開始される。例えば、訓練モジュール107は、過去に患者から得た既存の画像(例えば、患者の目から得た既存のOCT画像)などの訓練画像を取得し得る。幾つかの実施形態では、既存の画像は、ECP装置130、140、及び150などの1つ以上のECP装置から取得することができる。例えば、ECP(例えば、ECP170)は、(例えば、診断装置160などの診断装置を使用して)患者のOCT画像を捕捉し得る。ECPは、解析のために、例えば、画像に対してセグメンテーションを行うために、OCT画像をバイオメトリクス解析プラットフォーム102に送信し得る。
次に、プロセス300は、(ステップ310において)アルゴリズムを使用して、第1のOCT画像に対してセグメンテーションを行い、(ステップ315において)第1のOCT画像から画像タイルを生成する。例えば、訓練モジュール107のセグメンテーションモジュール202は、従来のアルゴリズム(例えば、グラフ検索アルゴリズム)を使用して、取得された画像の解析及びラベル付け(例えば、訓練画像における、目の異なる層などの異なるタイプの組織の境界を識別することによって)を行い得る。図4Aは、ECP装置130から取得され得る例示的OCT画像402を示す。この例では、OCT画像402は、患者の目、具体的には、目の異なる角膜層の画像である。例えば、OCT画像402は、層422及び層424を含む目を示し得る。図示されるように、アーチファクト及び画像402に関する他の問題により、層422及び424の境界は、あまり鮮明ではない場合があり、及び/又は途切れる場合がある。そのため、セグメンテーションモジュール202は、グラフ検索アルゴリズムを使用して、異なる層の境界を識別し得る。画像402に示されるように、グラフ検索アルゴリズムを使用することによって、セグメンテーションモジュール202は、層422に関して境界432及び434、並びに層424に関して境界436及び438を含む、層の境界を強調し得る。
次に、訓練モジュール107は、画像セグメンテーションモジュール108を訓練するための訓練画像として、ラベル付けされた画像(例えば、ラベル付けされたOCT画像402)を使用し得る。図4Aに示されるように、層422及び424は、顕著な特徴を有する1つ以上のパターンを示す。例えば、層422は、複数の山及び谷を含む波パターンを有し、波の各周期は、顕著な特徴又は特性(例えば、振幅、厚さなど)を有する。層422の何れの部分も、画像セグメンテーションモデル108を訓練するための別個の特性を含み得る。同様に、層424は、細長い形状の要素の不連続パッチを含み、これらの各要素は、画像セグメンテーションモデル108を訓練するための顕著な特徴又は特性を有し得る。そのため、幾つかの実施形態において、訓練データ片として、画像402を全体として使用する代わりに、訓練モジュール107は、訓練データとして画像402のタイル(又はパッチ)を取得し得る。
訓練画像(例えば、画像402)から画像タイルを取得する際に、異なる実施形態は、異なる技術を使用し得る。幾つかの実施形態において、訓練モジュール107のタイル生成モジュール204は、訓練画像を複数のタイルに分割し得る。例えば、画像402が160×40ピクセルのサイズを有する場合、タイル生成モジュール204は、画像402を64個の同じサイズ(10×10ピクセル)のタイルへと分割し得る。図4Aに示されるように、タイル生成モジュール204は、仮想線412~420を使用して、画像402をタイル442~448などの複数のタイルへと分割し得る。幾つかの実施形態において、タイル生成モジュール204は、訓練データを生成するように構成された装置(例えば、バイオメトリクス解析プラットフォーム102などのコンピュータサーバなど)の装置属性(例えば、グラフィック処理ユニットのメモリサイズ)を取得することができ、その装置属性に基づいて、画像を分割することができる。例えば、タイル生成モジュール204は、装置のグラフィック処理ユニットのメモリサイズ(例えば、8GB、16GBなど)を超えないタイルサイズを決定することができ、次に、各タイルが、グラフィック処理ユニットのメモリサイズを超えないサイズを有し得るように、上記タイルサイズに基づいて、画像402をタイルに分割することができる。
幾つかの実施形態において、タイル生成モジュール204は、画像402に対して1つ以上の解析を行うこともでき、その1つ以上の解析に基づいて、画像を分割することができる。例えば、タイル生成モジュール204は、関連性のあるデータを含まない画像の部分(例えば、背景又はブランクデータを含む画像の部分)を決定するために、ピクセル解析を行ってもよい。この点について、タイル生成モジュール204は、実質的に類似した(又は同一の)ピクセル値を有する隣接したピクセルを持つ画像の部分(例えば、閾値を下回る、それらの部分内の空間周波数)を決定するために、画像内の各ピクセルのピクセル値を解析し得る。次に、タイル生成モジュール204は、画像を複数のタイルに分割する前に、画像の上記部分を排除(例えば、除去)し得る。例えば、タイル生成モジュール204は、画像402の部分450が関連性のあるデータを持たないことを部分450内の低空間周波数及びラベル付けされたデータ(例えば、ラベル付けされた境界)の欠如に基づいて決定し得る。したがって、タイル生成モジュール204は、画像402をタイルに分割する前に、画像402から部分450を除去し得る。
幾つかの実施形態において、画像を複数のタイルに分割する代わりに、タイル生成モジュール204は、訓練画像(例えば、画像402)から異なる画像部分を抽出することによって画像タイルを生成し得る。例えば、タイル生成モジュール204は、画像上に、決定されたタイルサイズ(例えば、10×10ピクセル)を有する仮想ウィンドウを設け得る。タイル生成モジュール204は、画像の最初の位置(例えば、左上隅)に仮想ウィンドウを配置し得る。タイル生成モジュール204は、仮想ウィンドウ内の画像の部分が関連性閾値を超えるか否かを決定するために、その画像の部分を解析し得る。画像の部分が関連性閾値を超えると決定されると、タイル生成モジュール204は、画像タイルとして、その画像の部分を抽出し得る。一方、画像の部分が関連性閾値を超えないと決定されると、タイル生成モジュール204は、その画像の部分を無視し得る。幾つかの実施形態において、タイル生成モジュール204は、画像の部分の空間周波数が空間周波数閾値を超えるか否か、画像の部分がラベル付けされたデータを含む(例えば、グラフ検索アルゴリズムによってラベル付けされた異なる組織の境界の一部を含む)か否かなどの1つ以上のファクタに基づいて、画像の部分が関連性閾値を超えるか否かを決定し得る。
図4Bは、例えば、タイル生成モジュール204によって画像402上に設けられた仮想ウィンドウ462を示す。仮想ウィンドウ462は、画像402の第1の画像部分472をカバーする最初の位置(例えば、左上隅)に設けられる。タイル生成モジュール204は、仮想ウィンドウ462内の画像402の画像部分472が関連性閾値を超えるか否かを決定するために、画像部分472を解析し得る。例えば、タイル生成モジュール204は、空間周波数が所定の閾値を超えるか否かを決定するために、画像部分472のピクセル値を解析し得る。タイル生成モジュール204は、ラベル付けされたデータ(例えば、グラフ検索アルゴリズムに基づく、識別された境界)が画像部分472内に含まれるか否かも決定し得る。次に、タイル生成モジュール204は、例えば、画像402の画像部分472の空間周波数及び/又はラベル付けされたデータの存在に基づいて、画像402の画像部分472が関連性閾値を超えるか否かを決定し得る。画像部分472が関連性閾値を超えると決定されると、タイル生成モジュール204は、画像タイルとして、画像402の画像部分472を抽出し得る。一方、画像402の画像部分472が関連性閾値を超えないと決定されると、タイル生成モジュール204は、画像部分472を無視し得る。この例では、画像部分472は、ラベル付けされた境界432の一部を含むため、タイル生成モジュール204は、画像部分472が関連性閾値を超えると決定することができ、したがって、画像402から画像部分472を抽出し得る。
仮想ウィンドウ内の画像の部分を抽出(又は無視)した後に、タイル生成モジュール204は、画像の別の部分をカバーするために仮想ウィンドウを別の位置へと移動させ得る(例えば、仮想ウィンドウを所定のピクセル数だけ右へ、下へなど移動させる)。例えば、図4Bに示されるように、タイル生成モジュール204は、画像部分472を抽出又は無視した後に、画像402の第2の画像部分474をカバーするために、仮想ウィンドウ462を所定のピクセル数(例えば、5ピクセル)だけ右へと移動させ得る。タイル生成モジュール204は、仮想ウィンドウによってカバーされる画像の異なる部分を解析し、及び関連性閾値を超える部分を抽出し続け得る。仮想ウィンドウの所定の移動に基づいて、仮想ウィンドウによる画像カバーの異なる部分は、画像から抽出された画像タイルが部分的にオーバーラップし得るように、互いにオーバーラップしてもよく、又は互いにオーバーラップしなくてもよい。この例では、画像部分472及び474は、互いに部分的にオーバーラップする。画像から抽出された各画像タイルは、画像セグメンテーションモデル108を訓練するための別個の訓練データ片となり得る。画像の異なる部分を独立して解析し、及び関連性のある部分のみを抽出することによって、訓練データの品質が大幅に向上し得る。
図5は、(画像402を分割すること、又は仮想ウィンドウを使用して画像402からタイルを抽出することのどちらかによって)画像402から取得された例示的画像タイル502~512を示す。各画像タイル(原画像タイルとも呼ばれる)は、画像セグメンテーションモデル108を訓練するための訓練データ片として使用され得る。しかしながら、本明細書で述べるように、画像をセグメント化するために従来のアルゴリズムを使用する欠点の1つは、従来のアルゴリズムが、かなりの量のアーチファクト(例えば、スペックル)を有する画像、又は異なる病的状態(例えば、異なる目の病気)を有する患者の画像に対してセグメンテーションを行う際に効果的ではないかもしれない点である。そのため、従来のアルゴリズムを使用して生成された訓練データ(例えば、原画像タイル)は、限定され得る(例えば、かなりの量のアーチファクトを持たない画像、及び正常な患者の画像のみがラベル付けされる)。したがって、幾つかの実施形態において、訓練モジュール107は、原画像タイルを操作することによって、様々な病状を有する患者に対応する、さらなる訓練データを人工的に生成し得る。
図3を再び参照して、プロセス300は、(ステップ320において)タイルの配向を変更することによって、さらなる訓練画像を生成する。例えば、訓練モジュール107は、様々な病状を有する患者の画像をシミュレーションするために、各原画像タイルの配向を調整することによって(これは、画像タイル中の層の識別された境界の配向を効果的に変更する)原画像タイルを操作し得る。幾つかの実施形態では、訓練モジュール107は、各原画像タイルを1つ以上の回転分だけ回転させることによってさらなるタイルを生成してもよく、各さらなるタイルは、タイルを所定の回転度にまで回転させることに対応する。例えば、訓練モジュール107は、各原画像タイルを90度、180度、及び270度だけ回転させることによって、各原画像タイルを操作し得る。図5に示されるように、訓練モジュール107は、原画像タイル(例えば、画像タイル510)を90度回転させることによって、さらなる画像タイル520aを生成し得る。訓練モジュール107は、画像タイル510を180度回転させることによって、さらなる画像タイル520bも生成し得る。訓練モジュール107は、画像タイル510を270度回転させることによって、さらなる画像タイル520cも生成し得る。したがって、この例では、原画像タイルごとに、訓練モジュール107は、原画像タイルを回転させることに基づいて、3つのさらなるタイル(例えば、3つのさらなる訓練データ片)を生成することができる-原タイルを90度回転させることに対応する第1のさらなるタイル、原タイルを180度回転させることに対応する第2のさらなるタイル、及び原タイルを270度回転させることによる第3のさらなるタイル。他の実施形態において、異なる回転度が使用されてもよく、及び/又は異なる数のさらなるタイルが生成されてもよい。例えば、原画像タイルをさらなる回転度分だけ回転させることによって、より多数のさらなるタイルを生成することができる。
幾つかの実施形態では、タイルを回転させる代わりに、又はタイルを回転させることに加えて、訓練モジュール107は、各原タイル及び各さらなるタイルを軸(例えば、水平軸、垂直軸など)に沿って反転させることによって、さらなるタイルを生成することもできる。例えば、所与のタイルの水平軸及び垂直軸に沿ってタイルを反転させることによって、訓練モジュール107は、上記所与のタイルに基づいて、2つのさらなるタイルを生成し得る。図5に示されるように、訓練モジュール107は、画像タイル510を垂直軸530に沿って反転させることによって、さらなる画像タイル520dを生成し得る。訓練モジュール107は、画像タイル510を水平軸525に沿って反転させることによって、別のさらなる画像タイル520eを生成することもできる。幾つかの実施形態において、訓練モジュール107は、画像タイル520a~520cを反転させることによっても、さらなる画像タイルを生成し得る。したがって、訓練データシステムが各原タイルを90度、180度、及び270度回転させ、その後、原タイル及び回転させたタイルを水平軸及び垂直軸に沿って反転させる例では、訓練モジュール107は、原タイルに基づいて、11個のさらなるタイルを生成することができ得る。その結果、訓練モジュール107は、訓練データの量を11倍に増加させることができ、さらなる訓練データは、様々な病状を有する患者の実例をカバーし得る。さらに、訓練モジュール107は、同じ画像タイルの異なるバージョンを導出すること(例えば、様々な量のアーチファクトを同じ画像タイルに付加すること)によって、さらなるタイルを生成し得る。
訓練モジュール107は、次に、生成された訓練データ(例えば、上記タイル及び上記さらなるタイル)を使用して、画像セグメンテーションモデル108を訓練し得る。幾つかの実施形態において、セグメンテーションモデル108は、本明細書に全体として援用される、Ronnebergerらによる「U-Net:Convolutional Networks for Biomedical Image Segmentation」というタイトルの文献に記載される技術を使用して、深層畳み込みニューラルネットワークとして実装されてもよい。Ronnebergerに記載される通り、画像セグメンテーションモデル108を訓練する際に、各訓練データ片(例えば、各画像タイル)は、まず、畳み込み層のセットを通してダウンサンプリングされ、次に、対応する畳み込み層のセットを通してアップサンプリングされる。訓練データのダウンサンプリング及びアップサンプリングにより、画像セグメンテーションモデル108は、OCT画像内の組織の境界を識別するように訓練され得る。訓練後に、画像セグメンテーションモデル108は、患者の新しいOCT画像の組織の境界を識別するために使用され得る。幾つかの実施形態では、画像セグメンテーションモデル108は、新しい訓練データを使用して、定期的に再訓練され得る。例えば、新しいOCT画像が取得されると、訓練モジュール107は、本明細書に記載した方法を使用して、訓練データを生成し、新しく生成された訓練データを使用して、画像セグメンテーションモデル108を再訓練するように構成され得る。
図3を再び参照して、プロセス300は、(ステップ330において)第2のOCT画像を受け取り、(ステップ335において)訓練された機械学習モデルを使用して、第2のOCT画像に対してセグメンテーションを行う。例えば、バイオメトリクス解析エンジン106は、UIサーバ103を介して、例えばECP装置130、140、及び150の1つから画像を受け取り得る。バイオメトリクス解析エンジン106は、画像セグメンテーションモデル108を使用して、画像内の異なる層(例えば、異なるタイプの組織)の境界を識別し得る。幾つかの実施形態において、バイオメトリクス解析エンジン106は、画像を画像タイルに分割することができ、各画像タイルは、所定のサイズ(例えば、画像セグメンテーションモデル108を訓練するための画像タイルを生成するために決定されたサイズ)を有する。バイオメトリクス解析エンジン106は、画像タイル内の異なる層(例えば、異なるタイプの組織)の境界の識別を得るために、画像タイルを1つずつ画像セグメンテーションモデル108に提供し得る。
幾つかの実施形態において、バイオメトリクス解析エンジン106は、画像内の異なる層又は異なる層の境界を強調することによって画像を増補し、増補画像をECP装置に提示し得る。幾つかの実施形態において、バイオメトリクス解析エンジン106は、識別された層に基づいて、画像に対するさらなる解析を行うことができ、レポート(例えば、患者のための眼内レンズの種類又はコンタクトレンズの種類の推奨など)をECP装置上に提示し得る。
図6A及び図6Bは、幾つかの実施形態による処理システムの図である。図6A及び46Bには2つの実施形態を示しているが、当業者であればまた、他のシステムの実施形態も可能であることを容易に理解するであろう。幾つかの実施形態によれば、図6A及び/又は6Bの処理システムは、バイオメトリクス解析プラットフォーム102並びにECP装置130、140、及び150等の1つ以上に含まれ得るコンピューティングシステムを代表する。
図6Aは、システム600の構成要素がバス605を用いて互いに電気通信しているコンピューティングシステム600を示している。システム600は、プロセッサ610と、読み出し専用メモリ(ROM)620、ランダムアクセスメモリ(RAM)625等の形態のメモリ(例えば、PROM、EPROM、FLASH-EPROM、及び/又は他のメモリチップ若しくはカートリッジ)を含む様々なシステム構成要素をプロセッサ610に結合するシステムバス605と、を含む。システム600は更に、プロセッサ610に直接接続されるか、近接しているか、又はプロセッサ610の一部として統合されている、高速メモリのキャッシュ612を含んでいてもよい。システム600は、プロセッサ610による高速アクセスのために、キャッシュ612を介してROM620、RAM625、及び/又は1つ以上の記憶デバイス630に記憶されたデータにアクセスしてもよい。幾つかの実施例では、キャッシュ612は、メモリ615、ROM620、RAM625、及び/又はキャッシュ612に以前に記憶された1つ以上の記憶デバイス630からのデータにプロセッサ610がアクセスする際の遅延を回避するパフォーマンスブーストを提供してもよい。幾つかの実施例において、1つ以上の記憶デバイス630は、1つ以上のソフトウェアモジュール(例えば、ソフトウェアモジュール632、634、636等)を記憶する。ソフトウェアモジュール632、634、及び/又は636は、方法300のプロセスなどの様々な動作を行うようにプロセッサ610を制御することができ、及び/又は制御するように構成され得る。また、システム600は1つのプロセッサ610のみを示しているが、プロセッサ610は、1つ以上の中央処理装置(CPU)、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、グラフィックス処理ユニット(GPU)、テンソル処理ユニット(TPU)等を代表してもよいことが理解されよう。幾つかの実施例において、システム600は、スタンドアロンサブシステムとして、及び/又はコンピューティング装置に追加されたボードとして、若しくは仮想マシンとして実装されてもよい。
ユーザがシステム600と対話するのを可能にするために、システム600は、1つ以上の通信インターフェース640及び/又は1つ以上の入出力(I/O)装置645を含む。幾つかの実施例において、1つ以上の通信インターフェース640は、1つ以上のネットワーク及び/又は通信バス規格に従って通信を提供するために、1つ以上のネットワークインターフェース、ネットワークインターフェースカード等を含んでいてもよい。幾つかの実施例において、1つ以上の通信インターフェース440は、ネットワーク115等のネットワークを介してシステム600と通信するためのインターフェースを含んでいてもよい。幾つかの実施例において、1つ以上のI/O装置645には、1つ以上のユーザインターフェース装置(例えば、キーボード、ポインティング/選択装置(例えば、マウス、タッチパッド、スクロールホイール、トラックボール、タッチスクリーン等)、オーディオ装置(例えば、マイクロフォン及び/又はスピーカ)、センサ、アクチュエータ、表示デバイス等)を含んでいてもよい。
1つ以上の記憶デバイス630のそれぞれは、ハードディスク、光学媒体、ソリッドステートドライブ等によって提供されるもののような、非一時的及び不揮発性記憶デバイスを含んでいてもよい。幾つかの実施例において、1つ以上の記憶デバイス630のそれぞれは、システム600(例えば、ローカル記憶デバイス)と同じ場所に配置され、及び/又はシステム600(例えば、クラウド記憶デバイス)から離れて配置され得る。
図6Bは、本明細書中に説明する方法(例えば、方法300及び/又は510)のいずれかを実行する際に用いられてもよいチップセットアーキテクチャに基づくコンピューティングシステム650を示している。システム650は、ソフトウェア、ファームウェア、及び/又は1つ以上のCPU、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、DSP、FPGA、ASIC、GPU、TPU等の他の計算を実行してもよい、任意の数の物理的及び/又は論理的に個別のリソースを代表するプロセッサ655を含んでいてもよい。示されるように、プロセッサ655は、1つ以上のCPU、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、DSP、FPGA、ASIC、GPU、TPU、コプロセッサ、コーダ-デコーダ(CODEC)等も含み得る、1つ以上のチップセット660によって支援される。示されるように、1つ以上のチップセット660は、1つ以上のI/O装置665、1つ以上の記憶デバイス670、メモリ675、ブリッジ680、及び/又は1つ以上の通信インターフェース690のうちの1つ以上と共に、プロセッサ655とインターフェースする。幾つかの実施例において、1つ以上のI/O装置665、1つ以上の記憶デバイス670、メモリ、及び/又は1つ以上の通信インターフェース690は、図6A及びシステム600の同様に名付けられた対応物に対応してもよい。
幾つかの実施例において、ブリッジ680は、1つ以上のキーボード、ポインティング/選択装置(例えば、マウス、タッチパッド、スクロールホイール、トラックボール、タッチスクリーン等)、オーディオ装置(例えば、マイク及び/又はスピーカ)、表示デバイス等の、システム650に1つ以上のユーザインターフェース(UI)構成要素へのアクセスを提供するための追加のインターフェースを提供してもよい。幾つかの実施形態によれば、システム600及び/又は650は、方法200のプロセスの実行の際にユーザ(例えば、外科医及び/又は他の医療関係者)を支援するのに適したグラフィカルユーザインターフェース(GUI)を提供してもよい。
上述の実施形態による方法は、非一時的で有形の機械読取可能媒体に記憶される実行可能命令として実装されてもよい。実行可能命令は、1つ以上のプロセッサ(例えば、プロセッサ610及び/又はプロセッサ655)によって実行されると、方法300のプロセスを1つ以上のプロセッサに行わせ得る。方法300のプロセスを含み得る機械読取可能媒体の幾つかの一般的な形態は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、その他の磁気媒体、CD-ROM、その他の光媒体、パンチカード、紙テープ、孔のパターンを有したその他の物理的媒体、RAM、PROM、EPROM、FLASH-EPROM、その他のメモリチップ若しくはカートリッジ、及び/又はプロセッサ若しくはコンピュータが読み取りを行うように適応したその他の媒体である。
これらの開示による方法を実装する装置は、ハードウェア、ファームウェア、及び/又はソフトウェアを含むことができ、且つ様々なフォームファクタのいずれかを取ってもよい。かかるフォームファクタの典型的な例としては、ラップトップ、スマートフォン、スモールフォームファクタのパーソナルコンピュータ、携帯情報端末等が挙げられる。本明細書で記載されている機能性の一部はまた、周辺機器及び/又はアドインカードで具体化されてもよい。かかる機能性はまた、更なる例として、単一の装置において実行される異なるチップ又は異なるプロセスの中から回路基板上に実装されてもよい。
図7は、幾つかの実施形態による、多層ニューラルネットワーク700の図である。幾つかの実施形態において、ニューラルネットワーク700は、本明細書で述べるような、OCT画像などの画像に対してセグメンテーションを行うための機械学習モデルを実装するために使用されるニューラルネットワークを代表し得る。ニューラルネットワーク700は、入力層720を用いて入力データ710を処理する。幾つかの実施例において、入力データ710は、1つ以上のモデルに提供される入力データ、及び/又は1つ以上のモデルを訓練するために用いられるプロセス中の更新時に1つ以上のモデルに提供される訓練データに対応してもよい。入力層720は、スケーリング、範囲制限等によって入力データ710を調整するために用いられる複数のニューロンを含む。入力層720の各ニューロンは、隠れ層731の入力に供給される出力を生成する。隠れ層731は、入力層720からの出力を処理する複数のニューロンを含む。幾つかの実施例において、隠れ層731のニューロンのそれぞれが出力を生成し、次いでその出力が、隠れ層739で終わる1つ以上の追加の隠れ層を介して伝播される。隠れ層739は、以前の隠れ層からの出力を処理する複数のニューロンを含む。隠れ層739の出力は、出力層740に供給される。出力層740は、スケーリング、範囲制限等によって隠れ層739からの出力を調整するために用いられる1つ以上のニューロンを含む。ニューラルネットワーク700のアーキテクチャは代表的なものに過ぎず、1つの隠れ層のみを有するニューラルネットワーク、入力層及び/又は出力層なしのニューラルネットワーク、リカレント層を有するニューラルネットワーク等を含む、他のアーキテクチャが可能であることを理解すべきである。
幾つかの実施例では、入力層720、隠れ層731~739、及び/又は出力層740のそれぞれは、1つ以上のニューロンを含む。幾つかの実施例では、入力層720、隠れ層731~739、及び/又は出力層740のそれぞれは、同じ数又は異なる数のニューロンを含み得る。幾つかの実施例において、ニューロンのそれぞれは、式1に示されるように、その入力xの組み合わせ(例えば、訓練可能な重み行列Wを使用した加重和)を取り、任意選択の訓練可能なバイアスbを加え、活性化関数fを適用して、出力aを生成する。幾つかの実施例において、活性化関数fは、線形活性化関数、上限及び/又は下限を有する活性化関数、対数シグモイド関数、双曲線タンジェント関数、整流線形単位関数等であってもよい。整流線形単位(ReLU)活性化関数などの活性化関数は、同様に、非線形でもよい。幾つかの実施例において、ニューロンのそれぞれは、同じ又は異なる活性化関数を有してもよい。
a=f(Wx+b).....................(1)
a=f(Wx+b).....................(1)
幾つかの実施例において、ニューラルネットワーク700は、入力データとグラウンドトゥルース(例えば、予期された)出力データ(例えば、過去に患者のためにECPによって選択されたレンズ製品等)との組み合わせを含む訓練データ(例えば、患者のバイオメトリックデータ等)の組み合わせである、教師あり学習を用いて訓練されてもよい。入力データ710用の入力データを用いて生成されたニューラルネットワーク700の出力と、グラウンドトゥルース出力データと比較したニューラルネットワーク700によって生成された出力データ750との差。生成された出力データ750とグラウンドトゥルース出力データとの間の差は、次いで、ニューラルネットワーク700にフィードバックされて、様々な訓練可能な重み及びバイアスを補正してもよい。幾つかの実施例において、確率的勾配降下アルゴリズム等を使用する逆伝播技術を用いて、その差をフィードバックしてもよい。幾つかの実施例において、訓練データの組み合わせの多数のセットが、全体的な損失関数(例えば、各訓練の組み合わせの差に基づく平均二乗誤差)が許容レベルに収束するまで、ニューラルネットワーク700に複数回提示されてもよい。
例示的な実施形態が示され、説明されてきたが、前述の開示では広範囲の修正、変更、及び置換が想定されており、場合によっては、実施形態の幾つかの特徴は、他の特徴の対応する使用なしに利用されてもよい。当業者であれば、多くの変形、代替、及び修正を認識するであろう。従って、本発明の範囲は、以下の特許請求の範囲によってのみ限定されるべきであり、特許請求の範囲は、本明細書に開示される実施形態の範囲と一致する方法で広く解釈されることが適切である。
Claims (20)
- システムであって、
非一時的メモリと、
1つ以上のハードウェアプロセッサであって、前記非一時的メモリと結合され、且つ前記非一時的メモリから命令を読み取って前記システムに、
光コヒーレンストモグラフィ(OCT)画像を取得することと、
エッジ検出アルゴリズム又は手作業の注釈に基づいて、前記OCT画像内のエッジを決定することと、
前記OCT画像に基づいて、複数の画像タイルを生成することと、
前記複数の画像タイルの少なくとも1つの画像タイルを操作することによって、複数のさらなる画像タイルを生成することと、
前記複数の画像タイル及び複数のさらなる前記画像タイルに基づいて、OCT画像内のエッジを予測するための機械学習モデルを訓練することと、
を含む動作を行わせるように構成された1つ以上のハードウェアプロセッサと、
を含むシステム。 - 少なくとも1つの前記画像タイルの前記操作が、少なくとも1つの前記画像タイルを回転させること、又は少なくとも1つの前記画像タイルを軸に沿って反転させることの少なくとも一方を含む、請求項1に記載のシステム。
- 複数のさらなる前記画像タイルが、少なくとも1つの前記画像タイルを0度、90度、180度、及び270度で回転させることに対応した画像タイルを含む、請求項2に記載のシステム。
- 複数のさらなる前記画像タイルが、少なくとも1つの前記画像タイルを垂直軸又は水平軸の少なくとも一方に沿って反転させることに対応した画像タイルを含む、請求項2に記載のシステム。
- 前記エッジ検出アルゴリズムが、グラフ検索アルゴリズムを含む、請求項1に記載のシステム。
- 前記機械学習モデルが、深層畳み込みニューラルネットワークを含む、請求項1に記載のシステム。
- 前記動作が、前記訓練された機械学習モデルを使用して、第2のOCT画像内のエッジを予測することをさらに含む、請求項1に記載のシステム。
- 方法であって、
生体医学画像を取得することと、
エッジ検出アルゴリズムに基づいて、前記生体医学画像内の異なる組織の境界を決定することと、
前記生体医学画像に基づいて、第1の複数の画像タイルを生成することと、
前記第1の複数の画像タイルの少なくとも1つの画像タイルを操作することによって、第2の複数の画像タイルを生成することと、
1つ以上のハードウェアプロセッサによって、前記第1の複数の画像タイル及び前記第2の複数の画像タイルに基づいて、生体医学画像をセグメント化するための機械学習モデルを訓練することと、
を含む方法。 - 前記決定された境界が、前記生体医学画像内の目の前部角膜層に対応する、請求項8に記載の方法。
- 前記第1の複数の画像タイルの前記生成が、前記生体医学画像を画像パッチに分割することを含む、請求項8に記載の方法。
- 前記生体医学画像の1つ以上の特性を解析することをさらに含み、前記生体医学画像が、前記解析に基づいて、前記第1の複数の画像タイルに分割される、請求項10に記載の方法。
- 前記第1の複数の画像タイルの前記生成が、
前記生体医学画像の複数の異なる部分を解析することと、
前記複数の異なる部分から、関連性閾値を超える前記生体医学画像の部分のサブセットを選択することと、
を含む、請求項8に記載の方法。 - 前記複数の異なる部分の前記解析が、前記複数の異なる部分からの前記生体医学画像の一部が前記エッジ検出アルゴリズムによって決定された境界を含むか否かを決定することを含む、請求項12に記載の方法。
- 前記第2の複数の画像タイル中の少なくとも2つの画像タイルが部分的にオーバーラップする、請求項8に記載の方法。
- 機械読取可能命令を格納した非一時的機械読取可能媒体であって、前記機械読取可能命令は、機械に、
光コヒーレンストモグラフィ(OCT)画像を取得することと、
少なくとも部分的にエッジ検出アルゴリズムに基づいて、前記OCT画像を解析することと、
前記OCT画像の前記解析に基づいて、第1の複数の画像タイルを生成することと、
前記第1の複数の画像タイルの少なくとも1つの画像タイルを操作することによって、第2の複数の画像タイルを生成することと、
前記第1の複数の画像タイル及び前記第2の複数の画像タイルに基づいて、OCT画像をセグメント化するための機械学習モデルを訓練することと、
を含む動作を行わせるように実行可能である、非一時的機械読取可能媒体。 - 前記OCT画像の前記解析が、前記OCT画像内のエッジを識別することを含む、請求項15に記載の非一時的機械読取可能媒体。
- 前記動作が、
前記第1の複数の画像タイル中の各画像タイル内で識別された幾つかのエッジを決定することと、
各画像タイル内で識別された前記幾つかのエッジに基づいて、前記第2の複数の画像タイルを生成するために、前記第1の複数のタイルから少なくとも1つの前記画像タイルを選択することと、をさらに含む、請求項16に記載の非一時的機械読取可能媒体。 - 少なくとも1つの前記画像タイルの前記操作が、少なくとも1つの前記画像タイルを回転させること、又は少なくとも1つの前記画像タイルを軸に沿って反転させることの少なくとも一方を含む、請求項15に記載の非一時的機械読取可能媒体。
- 前記第2の複数の画像タイルが、少なくとも1つの前記画像タイルを0度、90度、180度、及び270度で回転させることに対応した画像タイルを含む、請求項18に記載の非一時的機械読取可能媒体。
- 前記第2の複数の画像タイルが、少なくとも1つの前記画像タイルを垂直軸又は水平軸の少なくとも一方に沿って反転させることに対応した画像タイルを含む、請求項18に記載の非一時的機械読取可能媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962950530P | 2019-12-19 | 2019-12-19 | |
US62/950,530 | 2019-12-19 | ||
PCT/IB2020/062246 WO2021124293A1 (en) | 2019-12-19 | 2020-12-18 | Deep learning for optical coherence tomography segmentation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023507151A true JP2023507151A (ja) | 2023-02-21 |
Family
ID=74004128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022537064A Pending JP2023507151A (ja) | 2019-12-19 | 2020-12-18 | 光コヒーレンストモグラフィセグメンテーションのための深層学習 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11562484B2 (ja) |
EP (1) | EP4078516A1 (ja) |
JP (1) | JP2023507151A (ja) |
CN (1) | CN114902283A (ja) |
AU (1) | AU2020406470A1 (ja) |
CA (1) | CA3158687A1 (ja) |
WO (1) | WO2021124293A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023287776A1 (en) * | 2021-07-12 | 2023-01-19 | Lightlab Imaging, Inc. | A deep learning based approach for oct image quality assurance |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8369595B1 (en) | 2012-08-10 | 2013-02-05 | EyeVerify LLC | Texture features for biometric authentication |
US20190209006A1 (en) * | 2017-01-11 | 2019-07-11 | University Of Miami | Segmentation-based corneal mapping |
WO2019183596A1 (en) * | 2018-03-23 | 2019-09-26 | Memorial Sloan Kettering Cancer Center | Systems and methods for multiple instance learning for classification and localization in biomedical imagining |
-
2020
- 2020-12-18 JP JP2022537064A patent/JP2023507151A/ja active Pending
- 2020-12-18 EP EP20829218.5A patent/EP4078516A1/en active Pending
- 2020-12-18 CA CA3158687A patent/CA3158687A1/en active Pending
- 2020-12-18 US US17/127,651 patent/US11562484B2/en active Active
- 2020-12-18 CN CN202080088735.8A patent/CN114902283A/zh active Pending
- 2020-12-18 AU AU2020406470A patent/AU2020406470A1/en active Pending
- 2020-12-18 WO PCT/IB2020/062246 patent/WO2021124293A1/en unknown
-
2022
- 2022-12-20 US US18/068,978 patent/US20230124674A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP4078516A1 (en) | 2022-10-26 |
US20230124674A1 (en) | 2023-04-20 |
CA3158687A1 (en) | 2021-06-24 |
US20210192732A1 (en) | 2021-06-24 |
CN114902283A (zh) | 2022-08-12 |
AU2020406470A1 (en) | 2022-06-09 |
US11562484B2 (en) | 2023-01-24 |
WO2021124293A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI754195B (zh) | 圖像處理方法及其裝置、電子設備及電腦可讀儲存媒體 | |
JP7053541B2 (ja) | 患者固有の深層学習画像ノイズ除去方法およびシステム | |
JP6947759B2 (ja) | 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法 | |
WO2020125221A1 (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
JP7348918B2 (ja) | 眼内レンズ選択のためのシステム及び方法 | |
JP2019195627A (ja) | 解剖学的画像の解析のためのシステム及び装置 | |
JP2021002338A (ja) | 画像セグメンテーション及び識別のための方法及びシステム | |
US11727086B2 (en) | Multimodality image processing techniques for training image data generation and usage thereof for developing mono-modality image inferencing models | |
Xiao et al. | Major automatic diabetic retinopathy screening systems and related core algorithms: a review | |
CN116848588A (zh) | 医学图像中的健康状况特征的自动标注 | |
GB2605391A (en) | Medical Image Analysis Using Neural Networks | |
Zhou et al. | Interpreting medical images | |
US20230124674A1 (en) | Deep learning for optical coherence tomography segmentation | |
Alais et al. | Fast macula detection and application to retinal image quality assessment | |
Hertel et al. | Deep learning techniques for COVID-19 diagnosis and prognosis based on radiological imaging | |
Jayachandran et al. | Multi-dimensional cascades neural network models for the segmentation of retinal vessels in colour fundus images | |
Pourtaherian | Robust needle detection and visualization for 3d ultrasound image-guided interventions | |
Brown et al. | Deep learning for computer-aided diagnosis in ophthalmology: a review | |
WO2021168121A1 (en) | Methods and systems for predicting rates of progression of age- related macular degeneration | |
KS et al. | CLASSIFICATION OF DEEP LEARNING ALGORITHM FOR RHEUMATOID ARTHRITIS PREDICTOR | |
Feng et al. | Research and application of tongue and face diagnosis based on deep learning | |
Carnimeo et al. | On classifying diabetic patients’ with proliferative retinopathies via a radial basis probabilistic neural network | |
Karn et al. | Advancing Ocular Imaging: A Hybrid Attention Mechanism-Based U-Net Model for Precise Segmentation of Sub-Retinal Layers in OCT Images | |
Wang et al. | Predicting false negative errors in digital breast tomosynthesis among radiology trainees using a computer vision-based approach | |
US11972584B2 (en) | Tissue specific time gain compensation methods and systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231208 |