JP2023551900A - 視力応答のマルチモーダル予測 - Google Patents

視力応答のマルチモーダル予測 Download PDF

Info

Publication number
JP2023551900A
JP2023551900A JP2023533641A JP2023533641A JP2023551900A JP 2023551900 A JP2023551900 A JP 2023551900A JP 2023533641 A JP2023533641 A JP 2023533641A JP 2023533641 A JP2023533641 A JP 2023533641A JP 2023551900 A JP2023551900 A JP 2023551900A
Authority
JP
Japan
Prior art keywords
input
output
neural network
inner layer
imaging data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023533641A
Other languages
English (en)
Inventor
イェレーナ ノヴォセル,
Original Assignee
エフ・ホフマン-ラ・ロシュ・アクチェンゲゼルシャフト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エフ・ホフマン-ラ・ロシュ・アクチェンゲゼルシャフト filed Critical エフ・ホフマン-ラ・ロシュ・アクチェンゲゼルシャフト
Publication of JP2023551900A publication Critical patent/JP2023551900A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Ophthalmology & Optometry (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Figure 2023551900000001
視力応答を予測するための方法およびシステムが提供される。方法およびシステムは、2次元撮像データを含む第1の入力および3次元撮像データを含む第2の入力のうちの1つまたは複数を利用する。視力応答(VAR)出力は、第1の入力および/または第2の入力を使用して、ニューラルネットワークシステムを介して予測される。VAR出力は、処置を受けている被験者の視力の予測される変化を含む。
【選択図】図1

Description

相互参照
本出願は、2020年12月3日に出願された米国仮特許出願第63/121,213号、発明の名称「MULTIMODAL PREDICTION OF VISUAL ACUITY RESPONSE」および2021年4月15日に出願された米国仮特許出願第63/175,544号、発明の名称「MULTIMODAL PREDICTION OF VISUAL ACUITY RESPONSE」に対する優先権を主張し、これらの出願は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
分野
この説明は、一般に、加齢性黄斑変性症(AMD)と診断された被験者における視力応答の予測に関する。より具体的には、この説明は、1つまたは複数の撮像モダリティから得られた情報を使用してAMDと診断された被験者における視力応答を予測するための方法およびシステムを提供する。
序論
加齢黄斑変性(AMD)は、黄斑と呼ばれる、眼の網膜の中心領域に影響を及ぼす疾患である。AMDは、50歳以上の被験者における視力喪失の主な原因である。血管新生型AMD(nAMD)は、AMDの2つの進行期のうちの1つである。nAMDでは、新しく異常な血管が黄斑の下で制御不能に増殖する。この種の増殖は、腫脹、出血、線維症、他の問題、またはそれらの組み合わせを引き起こし得る。nAMDの処置は、典型的には、抗血管内皮増殖因子(抗VEGF)療法(例えば、ラニビズマブなどの抗VEGF薬)を含む。そのような処置に対する網膜の応答は、少なくとも部分的に被験者特異的であり、その結果、異なる被験者は、同じタイプの抗VEGF薬に対して異なって応答し得る。さらに、抗VEGF療法は、典型的には硝子体内注射によって投与され、これは高価であり、それ自体が合併症(例えば、盲目)を引き起こす可能性がある。したがって、nAMDを有する被験者が抗VEGF薬による処置にどれだけ良好に応答する可能性があるかを予測することができるシステムおよび方法が必要とされている。
概要
本開示は、視力応答(VAR)を予測するためのシステムおよび方法を提供する。システムおよび方法は、一般に、ニューラルネットワークを利用する。いくつかの実施形態では、システムおよび方法は、カラー眼底撮像(CFI)データなどの2次元(2D)撮像データを含む入力を受信し、VAR応答(例えば、抗VEGF薬による処置などの処置を受けたことに応答した被験者の視力の予測される変化など)を予測するために訓練済みモデルを入力に適用するように構成されたニューラルネットワークを利用する。いくつかの実施形態では、システムおよび方法は、光干渉断層撮影(OCT)データなどの3次元(3D)撮像データを含む入力を受信し、VAR応答を予測するために訓練済みモデルを入力に適用するように構成されたニューラルネットワークを利用する。いくつかの実施形態では、方法およびシステムは、2D撮像データを含む第1の入力および3D撮像データを含む第2の入力を受信し、訓練済みモデルを第1の入力および第2の入力に適用してVAR応答を予測するように構成されている。
本明細書に開示された原理およびその利点のより完全な理解のために、ここで添付の図面と併せて以下の説明を参照する。
様々な実施形態にかかる、予測システムのブロック図である。
様々な実施形態にかかる、視力応答を予測するためのマルチモーダルプロセスのフローチャートである。
様々な実施形態にかかる、マルチモーダルニューラルネットワークシステムのブロック図である。
様々な実施形態にかかる、視力応答を予測するための第1の単一モードプロセスのフローチャートである。
様々な実施形態にかかる、第1の単一モードニューラルネットワークシステムのブロック図である。
様々な実施形態にかかる、視力応答を予測するための第2の単一モードプロセスのフローチャートである。
様々な実施形態にかかる、第2の単一モードニューラルネットワークシステムのブロック図である。
様々な実施形態にかかるコンピュータシステムのブロック図である。
図面は必ずしも一定の縮尺で描かれているわけではなく、図面内の物体は必ずしも互いに一定の縮尺で描かれているわけではないことを理解されたい。図面は、本明細書に開示される装置、システム、および方法の様々な実施形態に明瞭さおよび理解をもたらすことを意図した描写である。可能な限り、同じまたは同様の部分を指すために図面全体を通して同じ参照符号が使用される。さらに、図面は、本教示の範囲を決して限定するものではないことを理解されたい。
詳細な説明
概要
加齢黄斑変性(AMD)処置に対する被験者の応答を決定することは、被験者の視力応答(VAR)を決定することを含み得る。被験者の視力は、被験者が所与の距離で文字または数字を識別する能力によって測定され得る、被験者の視力の鋭さである。視力は、しばしば、視力検査によって確認され、標準的なスネレン視力表にしたがって測定される。しかしながら、スネレン視力表の代わりに他の視力測定値を利用してもよい。網膜画像は、被験者の視力を推定するために使用され得る情報を提供し得る。例えば、カラー眼底(CF)画像が使用されて、カラー眼底画像が取り込まれた時点での被験者の視力を推定し得る。
しかしながら、例えば臨床試験などの特定の場合には、AMD処置に応答して被験者の将来の視力を予測することができることが望ましい場合がある。例えば、被験者の視力が処置後の選択された期間(例えば、処置後3、6、9、または12ヶ月など)に改善したかどうかを予測することが望ましい場合がある。さらに、任意のそのような予測された視力の改善を分類することが望ましい場合がある。そのような予測および分類は、所与の被験者に対して個別化される処置レジメンを可能にし得る。例えば、特定のAMD処置に対する被験者の視力応答に関する予測が使用されて、処置投与量(注射投与量など)、処置(注射など)が行われる間隔、またはその双方をカスタマイズし得る。さらに、そのような予測は、処置にあまり応答しないと予測された被験者の除外を可能にすることによって、臨床試験スクリーニング、事前スクリーニング、またはその双方を改善し得る。
したがって、本明細書中に記載される様々な実施形態は、AMD処置に対する視力応答を予測するための方法およびシステムを提供する。特に、1つまたは複数の撮像モダリティからの撮像データは、視力応答(VAR)出力を予測するためにニューラルネットワークシステムによって受信および処理される。VAR出力は、処置を受けている被験者の視力の予測される変化を含み得る。場合によっては、VAR出力は、この予測される変化を決定するためにVAR出力がさらに処理され得るという点で、視力の予測される変化に対応する。したがって、VAR出力は、予測される視力の変化の指標であり得る。1つまたは複数の実施形態では、これらの異なる撮像モダリティは、カラー眼底撮像および/または光干渉断層撮影(OCT)を含む。
カラー眼底撮像は、2次元撮像モダリティである。カラー眼底撮像は、網膜および視神経の約30度から約50度の視野を取り込む。広く利用可能で使いやすいことに加えて、カラー眼底撮像は、他の撮像モダリティと比較して、視神経の外観および眼内の血液蓄積の存在をより良好に取り込み得る。しかしながら、カラー眼底撮像は、網膜に関する厚さまたはボリュームデータを取り込むことができない場合がある。
OCTは、3次元撮像モダリティと考えられ得る。特に、OCTが使用されて、深度情報を提供するマイクロメートル(例えば、最大で約10μm、9μm、8μm、7μm、6μm、5μm、4μm、3μm、2μm、1μm、またはそれ以上の解像度、少なくとも約1μm、2μm、3μm、4μm、5μm、6μm、7μm、8μm、9μm、10μm、またはそれ以下の解像度、あるいは前述の値のいずれか2つによって定義される範囲内の解像度)の解像度で画像を取り込み得る。OCT画像は、カラー眼底撮像を使用して、確認することができない、または容易にもしくは正確に確認することができない網膜の厚さおよび/またはボリューム情報を提供し得る。例えば、OCT画像が使用されて網膜の厚さを測定し得る。さらに、OCT画像が使用されて、網膜内の流体と網膜下の流体(例えば、網膜下液)とを明らかにし、区別し得る。さらに、OCT画像が使用されて、眼内の異常な新たな血管の位置を識別し得る。しかしながら、OCT画像は、カラー眼底画像と比較して、血液蓄積の識別においてあまり正確でないことがある。
本明細書で提供される様々な実施形態は、カラー眼底画像のみまたはOCT画像のみを使用して訓練されたニューラルネットワークが、AMD処置に対する応答の信頼性の高いVAR予測を提供するのに十分な精度、適合率、および/または再現率メトリックを達成し得ることを認識する。このようなニューラルネットワークは、カラー眼底画像およびOCT画像の一方のみが特定の被験者に利用可能である場合に特に有益であり得る。
本明細書で提供される様々な実施形態は、カラー眼底撮像およびOCTのそれぞれが、これらの2つの撮像モダリティの他方と比較して、少なくとも1つの網膜特徴に関するより正確な情報を提供し得ることを認識する。したがって、本明細書に記載の様々な実施形態は、これらの異なる撮像モダリティの双方によって提供される情報を使用することが、各撮像モダリティを独立して使用する場合と比較して、AMD処置に対する応答の改善されたVAR予測を可能にし得ることを認識する。そのようなマルチモーダル手法は、一般に、AMD処置転帰を予測するための現在利用可能な方法論の少なくともいくつかと比較して、より速く、より効率的で、より正確な視力応答の予測を可能にし得る。
上述した改善を提供することができる方法論およびシステムの重要性および有用性を認識し、考慮して、本明細書は、AMD処置に対するVARを予測するための様々な実施形態を記載する。より具体的には、本明細書は、処置後の選択された期間における被験者の将来の視力の予測を可能にするVAR出力を生成するために、ニューラルネットワークシステム(例えば、畳み込みニューラルネットワークシステム)を使用して、1つまたは2つの異なる撮像モダリティを介して取得された撮像データを処理するための方法およびシステムの様々な実施形態を記載する。
さらに、本実施形態は、個々の被験者についての個別化された処置レジメンの作成を容易にして、適切な投与量および/または注射間の間隔を確実にする。特に、本明細書に提示されるVARを予測するための単一モードおよびマルチモーダル手法は、正確で、効率的で、および/または適切な個別化された処置および/または投与スケジュールを生成し、臨床コホート選択および/または臨床試験設計を強化するのに役立ち得る。
定義
本開示は、これらの例示的な実施形態および用途、または例示的な実施形態および用途が本明細書で動作するまたは説明される方法に限定されない。さらに、図は、簡略化されたまたは部分的な図を示すことができ、図の要素の寸法は、誇張されているか、または比例していない場合がある。
さらに、本明細書では、「の上にある(on)」、「に取り付けられている(attached to)」、「に接続されている(connected to)」、「に結合されている(coupled to)」という用語または同様の用語が使用される場合、一方の要素が他方の要素の上に直接あるか、他方の要素に直接取り付けられているか、他方の要素に接続されているか、または他方の要素に結合されているか、または一方の要素と他方の要素との間に1つまたは複数の介在要素が存在するかにかかわらず、一方の要素(例えば、構成要素、材料、層、基板など)は、他方の要素「の上にある」、「に取り付けられている」、「に接続されている」、または「に結合されている」ことができる。さらに、要素のリスト(例えば、要素a、b、c)が参照される場合、そのような参照は、それ自体で列挙された要素のいずれか1つ、列挙された要素の全てよりも少ない要素の任意の組み合わせ、および/または列挙された要素の全ての組み合わせを含むことが意図される。本明細書におけるセクションの区分は、単に検討を容易にするためのものであり、説明された要素の任意の組み合わせを限定するものではない。
用語「被験者」は、臨床試験の被験者、処置を受けている人、抗癌療法を受けている人、寛解または回復について監視されている人、(例えば、その病歴に起因して)予防健康分析を受けている人、または関心のある任意の他の人もしくは患者を指し得る。様々な場合では、「被験者」および「患者」は、本明細書において交換可能に使用され得る。
特に定義されない限り、本明細書に記載の本教示に関連して使用される科学用語および技術用語は、当業者によって一般的に理解される意味を有するものとする。さらに、文脈上別段の必要がない限り、単数形の用語には複数形が含まれ、複数形の用語には単数形が含まれるものとする。一般に、化学、生化学、分子生物学、薬理学および毒物学に関連して利用される命名法およびその技術は、本明細書に記載されており、当該技術分野において周知であり、一般的に使用されるものである。
本明細書で使用される場合、「実質的に」は、意図された目的のために機能するのに十分であることを意味する。したがって、「実質的に」という用語は、当業者によって予想されるが、全体的な性能にそれほど影響しないような、絶対的または完全な状態、寸法、測定値、結果などからの微細な、僅かな変動を可能にする。数値、または数値として表されることのできるパラメータ若しくは特性に関して使用される場合、「実質的に」とは、10パーセント以内を意味する。
「複数」という用語は、2つ以上を意味する。
本明細書で使用される場合、「複数」という用語は、2、3、4、5、6、7、8、9、10以上とすることができる。
本明細書で使用される場合、「のセット」という用語は、1つまたは複数を意味する。例えば、項目のセットは、1つまたは複数の項目を含む。
本明細書で使用される場合、「のうちの少なくとも1つ」という語句は、項目のリストとともに使用される場合、列挙された項目のうちの1つまたは複数の異なる組み合わせが使用されてもよく、リスト内の項目のうちの1つのみが必要とされてもよいことを意味する。項目は、特定の物体、物、ステップ、動作、プロセス、またはカテゴリであり得る。換言すれば、「のうちの少なくとも1つ」は、リストから項目の任意の組み合わせまたは任意の数の項目が使用され得るが、リスト内の項目の全てが必要とされるわけではないことを意味する。例えば、限定されないが、「項目A、項目B、または項目Cのうちの少なくとも1つ」は、項目A、項目Aおよび項目B、項目B、項目A、項目B、および項目C、項目Bおよび項目C、または項目AおよびCを意味する。場合によっては、「項目A、項目B、または項目Cの少なくとも1つ」は、限定されないが、項目Aのうちの2つ、項目Bのうちの1つ、および項目Cのうちの10個、項目Bのうちの4個と項目Cのうちの7個、またはいくつかの他の適切な組み合わせを意味する。
本明細書で使用される場合、「または」という用語は、選言的意味および連言的意味の双方を含み得る。すなわち、「AまたはB」という語句は、Aのみ、Bのみ、またはAおよびBの双方を指し得る。
図面において、同様の番号は同様の要素を指す。
本明細書で使用される場合、「モデル」は、1つまたは複数のアルゴリズム、1つまたは複数の数学的技法、1つまたは複数の機械学習アルゴリズム、またはそれらの組み合わせを含み得る。
本明細書において使用される場合、「機械学習」は、アルゴリズムを使用してデータを解析し、そこから学習し、次いで世界の何かについての決定または予測を行う実践を含む。機械学習は、ルールベースのプログラミングに依存することなくデータから学習することができるアルゴリズムを使用する。
本明細書で使用される場合、「人工ニューラルネットワーク」または「ニューラルネットワーク」(NN)は、計算に対する接続論的手法に基づいて情報を処理する人工ニューロンの相互接続されたグループを模倣する数学的アルゴリズムまたは計算モデルを指し得る。ニューラルネットとも呼ばれることがあるニューラルネットワークは、線形ユニット、非線形ユニット、またはその双方の1つまたは複数の層を使用して、本明細書に記載の訓練モードで決定されたパラメータまたは重み係数によって定義された数学的演算にしたがって、受信した入力の出力を予測することができる。いくつかのニューラルネットワークは、出力層に加えて1つまたは複数の内層または隠れ層を含む。各内層または隠れ層の出力は、ネットワーク内の次の層、すなわち、次の内層または隠れ層または出力層への入力として使用され得る。ネットワークの各層は、各パラメータのセットの現在の値にしたがって、受信した入力から出力を生成する。様々な実施形態では、「ニューラルネットワーク」への言及は、1つまたは複数のニューラルネットワークへの言及であり得る。
ニューラルネットワークは、以下の2つの方法で情報を処理し得る。それが訓練されているとき、それは訓練モードにあり、それが学習したことを実際に実行するとき、それは推論(または予測)モードにある。ニューラルネットワークは、出力が訓練データの出力と一致するように、ネットワークが中間の内層または隠れ層内の個々のノードの重み係数を調整する(その挙動を修正する)ことを可能にするフィードバックプロセス(例えば、バックプロパゲーション)を通じて学習し得る。換言すれば、ニューラルネットワークは、訓練データ(学習例)を提供されることによって学習し、最終的には、新たな範囲または入力のセットが提示された場合であっても、正しい出力に到達する方法を学習する。訓練モード中に学習された一連の数学的演算、パラメータ、および/または重み係数は、本明細書では「訓練済みモデル」と呼ばれることがある。次いで、訓練済みモデルは、予測モードにおいて新たな範囲または入力のセットに適用され得る。ニューラルネットワークは、例えば、限定されないが、フィードフォワードニューラルネットワーク(FNN)、リカレントニューラルネットワーク(RNN)、モジュラーニューラルネットワーク(MNN)、畳み込みニューラルネットワーク(CNN)、完全畳み込みニューラルネットワーク(FCN)、残差ニューラルネットワーク(ResNet)、常微分方程式ニューラルネットワーク(ニューラル-ODE)、深層ニューラルネットワーク、または別のタイプのニューラルネットワークのうちの少なくとも1つを含み得る。
視力応答の予測
図1は、様々な実施形態にかかる、予測システム100のブロック図である。予測システム100は、AMD処置に反応する1人または複数の被験者の視力反応(VAR)を予測するために使用される。AMD処置は、例えば、これに限定されないが、硝子体内注射または別の投与様式を介して投与され得るラニビズマブなどの抗VEGF処置であり得る。
予測システム100は、コンピューティングプラットフォーム102と、データストレージ104と、ディスプレイシステム106とを含む。コンピューティングプラットフォーム102は、様々な形態をとり得る。1つまたは複数の実施形態では、コンピューティングプラットフォーム102は、互いに通信する単一のコンピュータ(またはコンピュータシステム)または複数のコンピュータを含む。他の例では、コンピューティングプラットフォーム102は、クラウドコンピューティングプラットフォームの形態をとる。いくつかの例では、コンピューティングプラットフォーム102は、モバイルコンピューティングプラットフォーム(例えば、スマートフォン、タブレット、スマートウォッチなど)の形態をとる。
データストレージ104およびディスプレイシステム106は、それぞれ、コンピューティングプラットフォーム102と通信する。いくつかの例では、データストレージ104、ディスプレイシステム106、またはその双方は、コンピューティングプラットフォーム102の一部と見なされるか、そうでなければ統合されてもよい。したがって、いくつかの例では、コンピューティングプラットフォーム102、データストレージ104、およびディスプレイシステム106は、互いに通信する別個の構成要素であってもよいが、他の例では、これらの構成要素のいくつかの組み合わせが一緒に統合されてもよい。
予測システム100は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせを使用して実装され得るデータアナライザ108を含む。1つまたは複数の実施形態では、データアナライザ108は、コンピューティングプラットフォーム102に実装される。データアナライザ108は、ニューラルネットワークシステム112を使用して1つまたは複数の入力110を処理して、視力応答(VAR)出力114を予測(または生成)する。VAR出力114は、処置を受けている被験者の視力の予測される変化を含む。いくつかの実施形態では、1つまたは複数の入力110は、図1に示すように、第1の入力110aおよび第2の入力110bを含む。そのような実施形態は、本明細書では「マルチモーダル」と呼ばれることがある。いくつかの実施形態では、1つまたは複数の入力110は、単一の入力を含む。そのような実施形態は、本明細書では「単一モード」と呼ばれることがある。
ニューラルネットワークシステム112は、任意の数または組み合わせのニューラルネットワークを含むことができる。1つまたは複数の実施形態では、ニューラルネットワークシステム112は、1つまたは複数のニューラルネットワークサブシステムを含む畳み込みニューラルネットワーク(CNN)システムの形態をとる。いくつかの実施形態では、これらの1つまたは複数のニューラルネットワークサブシステムのうちの少なくとも1つは、それ自体が畳み込みニューラルネットワークであってもよい。他の実施形態では、これらの1つまたは複数のニューラルネットワークサブシステムのうちの少なくとも1つは、深層学習ニューラルネットワーク(または深層ニューラルネットワーク)であってもよい。いくつかの実施形態では、ニューラルネットワークシステム112は、図3に関して本明細書で説明されるマルチモーダルニューラルネットワークシステムを含む。いくつかの実施形態では、ニューラルネットワークシステム112は、図5に関して本明細書で説明される第1の単一モードニューラルネットワークシステムを含む。いくつかの実施形態では、ニューラルネットワークシステム112は、図7に関して本明細書で説明される第2の単一モードニューラルネットワークシステムを含む。
マルチモーダル手法では、ニューラルネットワークシステム112は、ニューラルネットワークシステム112の様々な部分が一緒に(例えば、同時に)訓練される単一のプロセスを介して訓練されてもよい。したがって、マルチモーダル手法では、ニューラルネットワークシステム112は、第1の訓練の後に出力を生成し、出力をニューラルネットワークシステム112に統合し、次いで第2の訓練を実行することを必要としない。マルチモーダル手法では、ニューラルネットワークシステム112の全体が一緒に(例えば、同時に)訓練されてもよく、これは、訓練効率を改善し、および/またはこの訓練に必要な処理能力を低減し得る。
マルチモーダルニューラルネットワーク
図2は、様々な実施形態にかかる、視力応答を予測するためのマルチモーダルプロセス200のフローチャートである。1つまたは複数の実施形態では、プロセス200は、図1に関して本明細書で説明される予測システム100を使用して実装される。
ステップ202は、処置(本明細書に記載のAMD処置など)を受けている被験者に関連付けられた2次元撮像データを含む第1の入力を受信することを含む。2次元撮像データは、処置を受けている被験者に関連付けられたカラー眼底撮像データの形態をとることができる。例えば、カラー眼底撮像データは、処置を受けている被験者に関連付けられたカラー眼底画像であってもよく、またはそのようなカラー眼底画像から抽出されたデータであってもよい。カラー眼底撮像データは、処置を受けている被験者の眼のカラー眼底画像であってもよく、またはそのカラー眼底画像から抽出されたデータであってもよい。
ステップ204は、処置を受けている被験者に関連付けられた3次元撮像データを含む第2の入力をニューラルネットワークシステムに受信することを含む。3次元撮像データは、OCT撮像データを含むことができ、処置を受けている被験者に関連付けられたOCT画像から抽出されたデータ(例えば、OCT面内画像)を含み得て、そのようなOCT画像から抽出された表形式データを含み得て、またはそのようなOCT撮像データの他の形態を含み得る。OCT撮像データは、例えば、処置を受けている被験者に関連付けられたOCT画像の形態をとり得る。OCT撮像データは、処置を受けている被験者の眼のOCT画像またはそのようなOCT画像から抽出されたデータであり得る。1つまたは複数の実施形態では、第2の入力は、例えば、これらに限定されないが、処置を受けている被験者に関連付けられた視力測定データ、処置を受けている被験者に関連付けられた人口学的な統計データ、またはその双方などの、処置を受けている被験者に関連付けられた他のデータを含む。視力測定データは、処置を受けている被験者に関連付けられた1つまたは複数の視力測定値(最良矯正視力(BCVA)測定値など)を含み得る。人口学的な統計データは、例えば、処置を受けている被験者の年齢、性別、身長、体重、または全体的な健康レベルを含み得る。様々な実施形態では、視力測定データおよび人口学的な統計データの双方が、処置を受けている被験者に関連付けられたベースラインデータである。
1つまたは複数の実施形態では、第2の入力は、BCVA測定値、人口学的な統計データ、および3次元撮像データ(例えば、OCT厚さ、OCTボリュームなど)を含む表形式データの形態をとる。OCT画像は大きく複雑であるため、これらのOCT画像を表形式に変換することは、ニューラルネットワークシステムがこれらの画像に含まれるデータを処理するのを支援し得る。特に、OCT撮像データを表形式に変換することによって、この表形式データを処理するニューラルネットワークシステムの部分の処理能力およびサイズは、OCT画像(例えば、OCT面内画像)の処理と比較して低減され得る。これらの処理の節約は、第2の入力が第1の入力とより容易に統合されることを可能にし得る。
ステップ206は、ニューラルネットワークシステムを介して、第1の入力および第2の入力を使用して視力応答(VAR)出力を予測することを含み、VAR出力は、処置を受けている被験者の視力応答の予測された変化を含む。いくつかの実施形態では、VAR出力は、予測された変化を識別する。他の実施形態では、VAR出力は、VAR出力が予測変化を決定するためにさらに処理され得るという点で予測変化に対応する。予測されたVAR出力は、AMD処置の開始または投与後の選択された期間に対応し得る。例えば、VAR出力は、処置開始後少なくとも約3ヶ月、6ヶ月、9ヶ月、12ヶ月、18ヶ月、もしくは24ヶ月、またはそれ以上、処置開始後最大約24ヶ月、18ヶ月、12ヶ月、9ヶ月、6ヶ月、3ヶ月、もしくはそれ以下、または処置開始後の期間であって、前述の値のいずれか2つによって定義される範囲内にある、被験者の視力応答の予測を可能にし得る。
1つまたは複数の実施形態では、VAR出力を予測することは、ニューラルネットワークシステムを介して、2次元撮像データを使用して第1の出力を生成することと、ニューラルネットワークシステムを介して、3次元撮像データを使用して第2の出力を生成することとを含む。いくつかの実施形態では、VAR出力は、第1の出力と第2の出力との融合によって生成される。すなわち、いくつかの実施形態では、第1の出力は、ニューラルネットワークシステムの第1の部分(例えば、図3に関して本明細書で説明される第1のニューラルネットワークサブシステム)を使用して生成され、第2の出力は、ニューラルネットワークシステムの第2の部分(例えば、図3に関して本明細書で説明される第2のニューラルネットワークサブシステム)を使用して生成される。次いで、第1の出力および第2の出力が融合されて、ニューラルネットワークシステムの第3の部分(例えば、図3に関して本明細書で説明される第3のニューラルネットワークサブシステム)への融合入力を形成し得る。次いで、融合入力は、第3のニューラルネットワークサブシステムによって使用されて、被験者の視力の予測された変化に関する指標を提供するVAR出力を生成し得る。
いくつかの実施形態では、第1の出力は、2次元撮像データから抽出された1つまたは複数の特徴を含む。いくつかの実施形態では、第2の出力は、3次元撮像データから抽出された1つまたは複数の特徴を含む。次いで、2次元撮像データから抽出された特徴および3次元撮像データから抽出された特徴が互いに融合されて、融合入力を形成し得る。次いで、ニューラルネットワークシステムの第3の部分は、融合入力に基づいてVAR出力を生成することができる。いくつかの実施形態では、2次元撮像データから抽出された特徴および/または3次元撮像データから抽出された特徴は、被験者の眼の上または中の異常(病変、異常な出血、瘢痕組織、および/または組織萎縮など)を含む領域、そのような領域のサイズ、そのような領域の周囲、そのような領域の面積、そのような領域の形状記述特徴、眼の様々な特徴(例えば、眼の中心窩、黄斑、網膜、強膜または脈絡膜)までのそのような領域の距離、そのような領域の連続性、楔形網膜下反射低下、網膜色素上皮(RPE)の減衰および破壊、高反射焦点、網状偽ドルーゼン(RPD)、多層膜厚減少、光受容体萎縮、ドルーゼン内の低反射コア、高中心ドルーゼンボリューム、以前の視力、外網膜卵管形成、脈絡毛細管板流動空隙、2次元撮像データおよび/または3次元撮像データもしくはその任意の領域の着色、2次元撮像データおよび/または3次元撮像データもしくはその任意の領域の退色、または前述の任意の組み合わせに関連付けられる。
いくつかの実施形態では、第1および第2の出力は、融合されて、ニューラルネットワークシステムの第3の部分による後続の特徴抽出プロセスを受けることができる統合されたマルチチャネル入力を形成する。次いで、特徴抽出プロセスによって抽出された特徴は、VAR出力を生成するための基礎として使用され得る。特徴抽出プロセス(および/または融合入力)によって抽出された特徴は、被験者の眼の上または中の異常(病変、異常な出血、瘢痕組織、および/または組織萎縮など)を含む領域、そのような領域のサイズ、そのような領域の周囲、そのような領域の面積、そのような領域の形状記述特徴、眼の様々な特徴(例えば、眼の中心窩、黄斑、網膜、強膜または脈絡膜)までのそのような領域の距離、そのような領域の連続性、楔形網膜下反射力低下、網膜色素上皮(RPE)の減弱および破壊、高反射焦点、網状偽ドルーゼン(RPD)、多層膜厚減少、光受容体萎縮、ドルーゼン内の低反射コア、高中心ドルーゼンボリューム、以前の視力、網膜外管形成、脈絡毛細管板流動空隙、2次元撮像データおよび/または3次元撮像データもしくはその任意の領域の着色、2次元撮像データおよび/または3次元撮像データもしくはその任意の領域の退色、またはそれらの任意の以前の任意の組み合わせを含むか、またはそれらと関連付けられ得る。
様々な実施形態では、VAR出力は、被験者の視力の予測される変化を識別する値またはスコアである。例えば、VAR出力は、予測された改善(例えば、改善の文字)または低下(例えば、視力喪失)のレベルに関して被験者の視力応答を分類する値またはスコアであり得る。1つの具体例として、VAR出力は、後に処理され、複数の異なるクラスのBCVA変化のうちの1つに属すると識別されるBCVAの予測される数値変化であってもよく、BCVAの各クラスは、異なる改善の文字の範囲に対応する。別の例として、VAR出力は、予測された変化クラス自体であってもよい。さらに他の例では、VAR出力は、視力の他の何らかの尺度の予測される変化であってもよい。
他の実施形態では、VAR出力は、予測される視力の変化に到達するために1つまたは複数の追加の処理ステップを必要とする値または表現出力であってもよい。例えば、VAR出力は、処置後の期間(例えば、処置後少なくとも約3ヶ月、6ヶ月、9ヶ月、12ヶ月、18ヶ月、24ヶ月もしくはそれ以上、処置後最大約24ヶ月、18ヶ月、12ヶ月、9ヶ月、6ヶ月、3ヶ月もしくはそれ未満、または前述の値のいずれか2つによって定義される範囲内にある処置後期間)における被験者の予測される将来のBCVAであり得る。追加の1つまたは複数の処理ステップは、予測された将来のBCVAとベースラインBCVAとの間の差を計算して、予測された視力の変化を決定することを含み得る。
いくつかの実施形態では、本方法は、第1および第2の入力を受信する前に、ニューラルネットワークシステムを訓練することをさらに含む。いくつかの実施形態では、ニューラルネットワークシステムは、以前に処置を受けたことがある第1の複数の被験者に関連付けられた2次元データおよび以前に処置を受けたことがある第2の複数の被験者に関連付けられた3次元データを使用して訓練される。第1および第2の複数は、任意の数の被験者、例えば、少なくとも約1000、2000、3000、4000、5000、6000、7000、8000、9000、1万、2万、3万、4万、5万、6万、7万、8万、9万、10万、20万、30万、40万、50万、60万、70万、80万、90万、100万以上の被験者、最大で約100万、90万、80万、70万、60万、50万、40万、30万、20万、10万、9万、8万、7万、6万、5万、4万、3万、2万、1万、9000、8000、7000、6000、5000、4000、3000、2000、1000以下の被験者、または、前述の値のうちの任意の2つによって定義される範囲内にある被験者の数に関連付けられたデータを含み得る。
いくつかの実施形態では、第1および第2の複数は同じである。すなわち、場合によっては、第1および第2の複数は、全く同じ被験者を含む。いくつかの実施形態では、第1および第2の複数は異なる。すなわち、場合によっては、第1の複数は、第2の複数において特徴付けられていない1人または複数の被験者を含み、またはその逆も同様である。いくつかの実施形態では、第1および第2の複数は、部分的に重複している。すなわち、場合によっては、第1の複数と第2の複数の双方において、1人または複数の被験者は特徴的である。
いくつかの実施形態では、ニューラルネットワークシステムを訓練することは、以前に処置を受けたことがある第2の複数の被験者に関連付けられた視力測定値、第2の複数に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む。
いくつかの実施形態では、ニューラルネットワークシステムは、焦点損失、クロスエントロピー損失、または加重クロスエントロピー損失を使用して訓練される。
図3は、マルチモーダルニューラルネットワークシステム300のブロック図である。いくつかの実施形態では、マルチモーダルニューラルネットワークシステムは、図1に関して本明細書で説明される予測システム100とともに使用するように構成されている。いくつかの実施形態では、マルチモーダルニューラルネットワークシステムは、図2に関して本明細書で説明される方法200(またはステップ202、204および206のいずれか)を実装するように構成されている。
いくつかの実施形態では、マルチモーダルニューラルネットワークシステムは、第1のニューラルネットワークサブシステム310を備える。いくつかの実施形態では、第1のニューラルネットワークサブシステムは、少なくとも1つの第1の入力層312と、少なくとも1つの第1の高密度内層314とを含む。いくつかの実施形態では、第1の入力層は、図2に関して本明細書で説明される第1の入力を受信するように構成されている。いくつかの実施形態では、少なくとも1つの第1の高密度内層は、第1の訓練されたモデルを第1の入力層に適用するように構成されている。
図示の例では、少なくとも1つの第1の高密度内層は、訓練された画像認識モデル314aと、少なくとも1つの出力高密度内層314bとを含む。いくつかの実施形態では、訓練された画像認識モデルは、画像認識モデルを第1の入力層に適用するように構成されている。いくつかの実施形態では、画像認識モデルは、事前訓練された画像認識モデルを含む。いくつかの実施形態では、予め訓練された画像認識モデルは、ResNet-34、ResNet-50、ResNet-101、またはResNet-152などの深層残差ネットワークを含む。
いくつかの実施形態では、出力高密度内層は、画像認識モデルから出力を受信し、画像認識モデルからの出力に追加の演算を適用する。いくつかの実施形態では、追加の演算は、第1の訓練されたモデルの訓練中に学習される。いくつかの実施形態では、画像認識モデルは、第1の訓練されたモデルの訓練中に更新されない。いくつかの実施形態では、出力高密度内層は、平均プーリングおよび/またはソフトマックス活性化を適用するように構成されている。
図3では単一の出力高密度内層を含むものとして示されているが、少なくとも1つの出力高密度内層は、任意の数の高密度内層を含んでもよい。いくつかの実施形態では、少なくとも1つの出力高密度内層は、少なくとも約1、2、3、4、5、6、7、8、9、10、20、30、40、50、60、70、80、90、100、またはそれ以上の高密度内層、最大で約100、90、80、70、60、50、40、30、20、10、9、8、7、6、5、4、3、2、または1つの高密度内層、または前述の値のいずれか2つによって定義される範囲内にある高密度内層の数を含む。出力高密度内層のそれぞれは、平均プーリング、正規化線形(ReLu)活性化、および/またはソフトマックス活性化を適用するように構成されてもよい。
いくつかの実施形態では、マルチモーダルニューラルネットワークシステムは、第2のニューラルネットワークサブシステム320を備える。いくつかの実施形態では、第2のニューラルネットワークサブシステムは、少なくとも1つの第2の入力層322と、少なくとも1つの第2の高密度内層324とを含む。いくつかの実施形態では、第2の入力層は、図2に関して本明細書で説明される第2の入力を受信するように構成されている。いくつかの実施形態では、少なくとも1つの第2の高密度内層は、第2の訓練されたモデルを第2の入力層に適用するように構成されている。
図示の例では、少なくとも1つの第2の高密度内層は、3つの高密度内層324a、324b、および324cを含む。いくつかの実施形態では、高密度内層324aは、第1のセットの演算を第2の入力層に適用するように構成されている。いくつかの実施形態では、高密度内層324bは、高密度内層324aに第2のセットの演算を適用するように構成されている。いくつかの実施形態では、高密度内層324cは、高密度内層324bに第3のセットの演算を適用するように構成されている。いくつかの実施形態では、第1、第2、および第3のセットの演算は、第2の訓練されたモデルの訓練中に学習される。いくつかの実施形態では、高密度内層324aおよび324bは、ReLu活性化を適用するように構成され、高密度内層324cは、ソフトマックス活性化を適用するように構成されている。
図3では3つの第2の高密度内層を含むものとして示されているが、少なくとも1つの第2の高密度内層は、任意の数の高密度内層を含んでもよい。いくつかの実施形態では、少なくとも1つの第2の高密度内層は、少なくとも約1、2、3、4、5、6、7、8、9、10、20、30、40、50、60、70、80、90、100、またはそれ以上の高密度内層、最大で約100、90、80、70、60、50、40、30、20、10、9、8、7、6、5、4、3、2、または1つの高密度内層、または前述の値のいずれか2つによって定義される範囲内にあるいくつかの高密度内層を含む。第2の高密度内層のそれぞれは、平均プーリング、正規化線形(ReLu)活性化、および/またはソフトマックス活性化を適用するように構成されてもよい。
いくつかの実施形態では、マルチモーダルニューラルネットワークシステムは、第3のニューラルネットワークサブシステム330を備える。いくつかの実施形態では、第3のニューラルネットワークサブシステムは、少なくとも1つの第3の高密度内層332を含む。いくつかの実施形態では、第3の少なくとも1つの第3の高密度内層は、第1のニューラルネットワークサブシステムに関連付けられた少なくとも第1の高密度内層から第1の出力を受信し、第2のニューラルネットワークサブシステムに関連付けられた少なくとも第2の高密度内層から第2の出力を受信するように構成されている。
図示の例では、少なくとも1つの第3の高密度内層は、単一層を含む。いくつかの実施形態では、単一層は、第1および第2の出力に演算のセットを適用するように構成されている。いくつかの実施形態では、演算のセットは、第3の訓練されたモデルの訓練中に学習される。いくつかの実施形態では、第3の高密度内層は、ソフトマックス活性化を適用するように構成されている。
図3では単一の第3の高密度内層を含むものとして示されているが、少なくとも1つの第3の高密度内層は、任意の数の高密度内層を含んでもよい。いくつかの実施形態では、少なくとも1つの第3の高密度内層は、少なくとも約1、2、3、4、5、6、7、8、9、10、20、30、40、50、60、70、80、90、100、またはそれ以上の高密度内層、最大で約100、90、80、70、60、50、40、30、20、10、9、8、7、6、5、4、3、2、または1つの高密度内層、または前述の値のいずれか2つによって定義される範囲内にあるいくつかの高密度内層を含む。第3の高密度内層のそれぞれは、平均プーリング、正規化線形(ReLu)活性化、および/またはソフトマックス活性化を適用するように構成されてもよい。
いくつかの実施形態では、ニューラルネットワークシステムは、分類データ340を出力するように構成されている。いくつかの実施形態では、分類データは、処置後の期間の視力測定で処置を受けている被験者が5文字未満のスコアを達成する可能性がある第1の尤度342、処置を受けている被験者が5~9文字のスコアを達成する可能性がある第2の尤度344、処置を受けている被験者が10~14文字のスコアを達成する可能性がある第3の尤度346、および/または処置を受けている被験者が15文字を超えるスコアを達成する可能性がある第4の尤度348を含む。いくつかの実施形態では、出力分類データは、ニューラルネットワークシステムの出力層として配置される。
図3では4つのクラスを含むものとして示されているが、分類データは、任意の数のクラスを含んでもよい。例えば、分類データは、少なくとも約2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20、またはそれ以上のクラス、最大で約20、19、18、17、16、15、14、13、12、11、10、9、8、7、6、5、4、3、もしくは2つのクラス、または前述の値のいずれか2つによって定義された範囲内にあるいくつかのクラスを含んでもよい。例えば、分類データは、処置を受けている被験者がそれぞれ10文字未満のスコアおよび11文字を超えるスコアを達成する可能性が高いという第1および第2の尤度を含み得る。さらなる例として、分類データは、処置を受けている被験者がそれぞれ2文字未満のスコア、2~3文字のスコア、4~5文字のスコア、6~7文字のスコア、8~9文字のスコア、10~11文字のスコア、12~13文字のスコア、14~15文字のスコア、16~17文字のスコア、18~19文字のスコアおよび20文字を超えるスコアを達成する可能性が高いという第1、第2、第3、第4、第5、第6、第7、第8、第9、第10および第11の尤度を含み得る。当業者は、多くの変形が可能であることを認識するであろう。
いくつかの実施形態では、第1、第2、および第3の訓練されたモデルは、一緒に訓練される。いくつかの実施形態では、第1、第2、および第3の訓練されたモデルは、同時に訓練される。例えば、いくつかの実施形態では、以前に処置を受けたことがある第1の複数の被験者に関連付けられた2次元撮像データの形態の訓練データが第1のニューラルネットワークサブシステムに提供され、同時に、以前に処置を受けたことがある第1の複数の被験者に関連付けられた3次元撮像データの形態の訓練データが第2のニューラルネットワークサブシステムに提供される。次いで、第1、第2、および第3のニューラルネットワークサブシステムにそれぞれ関連付けられた第1、第2、および第3のモデルが同時に訓練される。このようにして、マルチモーダルニューラルネットワークシステムは、その構成要素の別個の、独立した、または逐次的な訓練を必要とせずにエンドツーエンドで訓練され得る。
いくつかの実施形態では、ニューラルネットワークシステムは、例示的なアテンションゲート機構を適用するように構成されている。
2次元データを使用した単一モードニューラルネットワーク
図4は、様々な実施形態にかかる、視力応答を予測するための第1の単一モードプロセス400のフローチャートである。1つまたは複数の実施形態では、プロセス400は、図1に関して本明細書で説明される予測システム100を使用して実装される。
ステップ402は、処置(本明細書に記載のAMD処置など)を受けている被験者に関連付けられた2次元撮像データを含む入力を受信することを含む。2次元撮像データは、本明細書に記載の任意の2次元撮像データ(例えば、図1、図2、または図3に関して本明細書に記載される任意の2次元撮像データ)の形態をとり得る。
ステップ404は、ニューラルネットワークシステムを介して、入力を使用して視力応答(VAR)出力を予測することを含み、VAR出力は、処置を受けている被験者の視力応答の予測された変化を含む。いくつかの実施形態では、VAR出力は、本明細書に記載の任意のVAR出力(例えば、図1、図2、または図3に関して本明細書で説明される任意のVAR出力)を含む。
いくつかの実施形態では、本方法は、第1および第2の入力を受信する前に、ニューラルネットワークシステムを訓練することをさらに含む。いくつかの実施形態では、ニューラルネットワークシステムは、以前に処置を受けたことがある複数の被験者に関連付けられた2次元データを使用して訓練される。複数は、少なくとも約1000、2000、3000、4000、5000、6000、7000、8000、9000、1万、2万、3万、4万、5万、6万、7万、8万、9万、10万、20万、30万、40万、50万、60万、70万、80万、90万、100万、またはそれ以上の被験者、最大で約100万、90万、80万、70万、60万、50万、40万、30万、20万、10万、9万、8万、7万、6万、5万、4万、3万、2万、1万、9000、8000、7000、6000、5000、4000、3000、2000、1000、またはそれ以下の被験者、または前述の値のいずれか2つによって定義される範囲内にある被験者の数など、任意の数の被験者に関連付けられたデータを含み得る。
図5は、第1の単一モードニューラルネットワークシステム500のブロック図である。いくつかの実施形態では、第1の単一モードニューラルネットワークシステムは、図1に関して本明細書で説明される予測システム100とともに使用するように構成されている。いくつかの実施形態では、第1の単一モードニューラルネットワークシステムは、図4に関して本明細書に記載された方法400(またはステップ402および404のいずれか)を実装するように構成されている。
いくつかの実施形態では、第1の単一モードニューラルネットワークシステムは、少なくとも1つの入力層502と少なくとも1つの高密度内層504とを含む。いくつかの実施形態では、入力層は、図4に関して本明細書で説明される入力を受信するように構成されている。いくつかの実施形態では、少なくとも1つの高密度内層は、訓練済みモデルを入力層に適用するように構成されている。
図示の例では、少なくとも1つの高密度内層は、訓練された画像認識モデル504aおよび少なくとも1つの出力高密度内層504bを含む。いくつかの実施形態では、訓練された画像認識モデルは、入力層に画像認識モデルを適用するように構成されている。いくつかの実施形態では、画像認識モデルは、本明細書に記載の任意の画像認識モデル(例えば、図3に関して本明細書に記載された任意の画像認識モデル)を含む。
いくつかの実施形態では、出力高密度内層は、画像認識モデルから出力を受信し、画像認識モデルからの出力に追加の演算を適用する。いくつかの実施形態では、追加の演算は、訓練済みモデルの訓練中に学習される。いくつかの実施形態では、画像認識モデルは、訓練済みモデルの訓練中に更新されない。いくつかの実施形態では、出力高密度内層は、平均プーリングおよび/またはソフトマックス活性化を適用するように構成されている。
図5では単一の出力高密度内層を含むものとして示されているが、少なくとも1つの出力高密度内層は、任意の数の高密度内層を含んでもよい。いくつかの実施形態では、少なくとも1つの出力高密度内層は、少なくとも約1、2、3、4、5、6、7、8、9、10、20、30、40、50、60、70、80、90、100、またはそれ以上の高密度内層、最大で約100、90、80、70、60、50、40、30、20、10、9、8、7、6、5、4、3、2、または1つの高密度内層、または前述の値のいずれか2つによって定義される範囲内にある高密度内層の数を含む。出力高密度内層のそれぞれは、平均プーリング、正規化線形(ReLu)活性化、および/またはソフトマックス活性化を適用するように構成されてもよい。
いくつかの実施形態では、ニューラルネットワークシステムは、分類データ510を出力するように構成されている。いくつかの実施形態では、分類データは、処置後の期間の視力測定で処置を受けている被験者が5文字未満のスコアを達成する可能性がある第1の尤度512、処置を受けている被験者が5~9文字のスコアを達成する可能性がある第2の尤度514、処置を受けている被験者が10~14文字のスコアを達成する可能性がある第3の尤度516、および/または処置を受けている被験者が15文字を超えるスコアを達成する可能性がある第4の尤度518を含む。いくつかの実施形態では、出力分類データは、ニューラルネットワークシステムの出力層として配置される。
図5では4つのクラスを含むものとして示されているが、分類データは、本明細書で説明するように、任意の数のクラスを含んでもよい(例えば、図3に関して本明細書で説明したように)。
いくつかの実施形態では、ニューラルネットワークシステムは、例示的なアテンションゲート機構を適用するように構成されている。
3次元データを使用した単一モードニューラルネットワーク
図6は、様々な実施形態にかかる、視力応答を予測するための第2の単一モードプロセス600のフローチャートである。1つまたは複数の実施形態では、プロセス600は、図1に関して本明細書で説明される予測システム100を使用して実装される。
ステップ602は、処置を受けている被験者に関連付けられた3次元撮像データを含む入力をニューラルネットワークシステムに受信することを含む。3次元撮像データは、本明細書に記載の任意の3次元撮像データ(例えば、図1、図2、または図3に関して本明細書に記載の任意の3次元撮像データ)を含み得る。
ステップ604は、ニューラルネットワークシステムを介して、入力を使用して視力応答(VAR)出力を予測することを含み、VAR出力は、処置を受けている被験者の視力応答の予測された変化を含む。いくつかの実施形態では、VAR出力は、本明細書に記載の任意のVAR出力(例えば、図1、図2、または図3に関して本明細書で説明される任意のVAR出力)を含む。
いくつかの実施形態では、本方法は、第1および第2の入力を受信する前に、ニューラルネットワークシステムを訓練することをさらに含む。いくつかの実施形態では、ニューラルネットワークシステムは、以前に処置を受けたことがある複数の被験者に関連付けられた3次元データを使用して訓練される。複数は、少なくとも約1000、2000、3000、4000、5000、6000、7000、8000、9000、1万、2万、3万、4万、5万、6万、7万、8万、9万、10万、20万、30万、40万、50万、60万、70万、80万、90万、100万、またはそれ以上の被験者、最大で約100万、90万、80万、70万、60万、50万、40万、30万、20万、10万、9万、8万、7万、6万、5万、4万、3万、2万、1万、9000、8000、7000、6000、5000、4000、3000、2000、1000、またはそれ以下の被験者、または前述の値のいずれか2つによって定義される範囲内にある被験者の数など、任意の数の被験者に関連付けられたデータを含み得る。
図7は、第2の単一モードニューラルネットワークシステム700のブロック図である。いくつかの実施形態では、第2の単一モードニューラルネットワークシステムは、図1に関して本明細書で説明される予測システム100とともに使用するように構成されている。いくつかの実施形態では、第2の単一モードニューラルネットワークシステムは、図6に関して本明細書に記載された方法600(またはステップ602および604のいずれか)を実装するように構成されている。
いくつかの実施形態では、第2の単一モデルニューラルネットワークシステムは、少なくとも1つの入力層702と、少なくとも1つの高密度内層704とを含む。いくつかの実施形態では、入力層は、図6に関して本明細書で説明される入力を受信するように構成されている。いくつかの実施形態では、少なくとも1つの高密度内層は、訓練済みモデルを入力層に適用するように構成されている。
図示の例では、少なくとも1つの高密度内層は、3つの高密度内層704a、704b、および704cを含む。いくつかの実施形態では、高密度内層704aは、第1のセットの演算を入力層に適用するように構成されている。いくつかの実施形態では、高密度内層704bは、高密度内層704aに第2のセットの演算を適用するように構成されている。いくつかの実施形態では、高密度内層704cは、高密度内層704bに第3のセットの演算を適用するように構成されている。いくつかの実施形態では、第1、第2、および第3のセットの演算は、訓練済みモデルの訓練中に学習される。いくつかの実施形態では、高密度内層704aおよび704bは、ReLu活性化を適用するように構成され、高密度内層704cは、ソフトマックス活性化を適用するように構成されている。
図7では3つの高密度内層を含むものとして示されているが、少なくとも1つの高密度内層は、任意の数の高密度内層を含んでもよい。いくつかの実施形態では、少なくとも1つの高密度内層は、少なくとも約1、2、3、4、5、6、7、8、9、10、20、30、40、50、60、70、80、90、100、またはそれ以上の高密度内層、最大で約100、90、80、70、60、50、40、30、20、10、9、8、7、6、5、4、3、2、または1つの高密度内層、または前述の値のいずれか2つによって定義される範囲内にあるいくつかの高密度内層を含む。高密度内層のそれぞれは、平均プーリング、正規化線形(ReLu)活性化、および/またはソフトマックス活性化を適用するように構成されてもよい。
いくつかの実施形態では、ニューラルネットワークシステムは、分類データ710を出力するように構成されている。いくつかの実施形態では、分類データは、処置後の期間の視力測定で処置を受けている被験者が5文字未満のスコアを達成する可能性がある第1の尤度712、処置を受けている被験者が5~9文字のスコアを達成する可能性がある第2の尤度714、処置を受けている被験者が10~14文字のスコアを達成する可能性がある第3の尤度716、および/または処置を受けている被験者が15文字を超えるスコアを達成する可能性がある第4の尤度718を含む。いくつかの実施形態では、出力分類データは、ニューラルネットワークシステムの出力層として配置される。
図7では4つのクラスを含むものとして示されているが、分類データは、本明細書で説明するように、任意の数のクラスを含んでもよい(例えば、図3に関して本明細書で説明したように)。
いくつかの実施形態では、ニューラルネットワークシステムは、例示的なアテンションゲート機構を適用するように構成されている。
いくつかの実施形態では、本明細書に記載のシステムおよび方法は、処置推奨を提供するために使用される。例えば、いくつかの実施形態では、ニューラルネットワークシステムは、VAR出力に基づいて処置出力を生成するように構成されている。いくつかの実施形態では、処置出力は、処置に応答した被験者の視力の予測される変化を示す。いくつかの実施形態では、処置推奨は、処置出力に基づいて提供される医療に提供される。いくつかの実施形態では、処置推奨は、処置出力が被験者の視力の改善であることに応じて、被験者に処置を投与するように医療提供者を促す。いくつかの実施形態では、処置を投与するステップは、処置投与量での処置またはその誘導体の硝子体内投与を含む。いくつかの実施形態では、処置はラニビズマブであり、処置投与量は、0.3ミリグラム(mg)または0.5mgである。
実施例
実施例1:CATT試験における視力応答の予測
血管新生加齢黄斑変性症患者のベースライン(BL)特性およびカラー眼底画像(CFI)を使用することによって、ラニビズマブ(RBZ)に対する視力応答(VAR)を予測するための深層学習(DL)モデルを開発した。VARは、4クラスの分類問題として定式化された(クラス1=<5文字、クラス2=5~9文字、クラス3=10~14文字、クラス4=≧15文字)。各クラスを、BLから12ヶ月目までの最高矯正視力(BCVA)の変化に基づいて割り当てた。分類問題を解決するために、異なるモダリティ(本明細書に記載の2次元および3次元の撮像モダリティ)からのデータを処理する3つのDLモデルを設計した。BCVA、年齢およびCFIまたは光干渉断層撮影(OCT)撮像バイオマーカーを含むBL特性を処理するために、(それぞれ図4および図5、ならびに図6および図7に関して本明細書で説明するように)2つの異なる単一モードモデルを訓練した。第3のモデルは、図2および図3に関して本明細書で説明したように、2つのサブネットワークを融合して最終的な分類を生成した。入力データの関連部分を強化し、モデルの性能を改善するために、例示的なアテンション機構が活用された。データを訓練セット、検証セット、および試験セットに3:1:1の比率で分割した。表1は、各モデルの訓練中に使用された損失タイプ、エポック数、およびオプティマイザを示している。
この試験は、加齢黄斑変性処置試験(CATT)の無作為化比較試験(NCT00593450)においてRBZの月1回の処置を受けた284人の患者からのBLデータの遡及的分析であった。CATT試験は、毎月および必要に応じたレジメンでRBZおよびベバシズマブの相対的有効性および安全性を評価することを目的とした。4つのクラスにわたる分布は不均衡であり、それぞれクラス1、2、3および4の64、43、52および125人の患者がいた。精度および受信者動作特性(AUROC)曲線下面積を使用して、検証(N=56)および試験(N=57)データサブセットに基づいて性能を評価した。さらに、マクロF1(mF1)スコア、クラスごとのF1スコア、および適合率-再現率(AUCPR)曲線下面積を計算して、モデル性能のより有益な評価を提供した。
表2は、3つのモデルの様々な性能尺度を示している。性能尺度は、3つのモデル間でかなり異なっていた(例えば、試験データセットのmF1スコアは、OCT、CFI、およびマルチモーダルモデルについてそれぞれ0.332、0.236、および0.354であった)。さらに、個々のクラスごとの結果は、データにおける強いクラス不均衡の存在を反映して、大きな変動を示した。

表3は、毎月RBZ注射を受けた試験群を含む試験データサブセットに対する3つのモデルの性能を示している。例示的なアテンション機構を適用した場合と適用しなかった場合のモデルについての結果を示している。表4は、例示的なアテンション機構を適用しない全ての試験アームを含む試験データサブセットに対する3つのモデルの性能を示している。
表1~4に示すように、マルチモーダルモデルは、多くの性能尺度においてCFIおよび程度は低いがOCTモデルよりも優れていた。しかしながら、特定の性能尺度では、CFIまたはOCTモデルが最良の性能を提供した。したがって、本明細書に提示される3つのモデルは、全て、関心のある特定の問題に応じて有用であり得る。
コンピュータ実装システム
図8は、様々な実施形態にかかるコンピュータシステムのブロック図である。コンピュータシステム800は、図1において上述したコンピューティングプラットフォーム102の一実装の例であり得る。1つまたは複数の例では、コンピュータシステム800は、情報を通信するためのバス802または他の通信機構と、情報を処理するためのバス802に結合されたプロセッサ804とを含むことができる。様々な実施形態では、コンピュータシステム800はまた、プロセッサ804によって実行される命令を決定するためにバス802に結合された、ランダムアクセスメモリ(RAM)806または他の動的記憶装置とすることができるメモリを含むことができる。メモリはまた、プロセッサ804によって実行される命令の実行中に一時変数または他の中間情報を記憶するために使用され得る。様々な実施形態では、コンピュータシステム800は、プロセッサ804のための静的情報および命令を記憶するためにバス802に結合された読み出し専用メモリ(ROM)808または他の静的記憶装置をさらに含むことができる。磁気ディスクまたは光ディスクなどの記憶装置810が設けられ、情報および命令を記憶するためにバス802に結合され得る。
様々な実施形態では、コンピュータシステム800は、バス802を介して、コンピュータユーザに情報を表示するために、陰極線管(CRT)または液晶ディスプレイ(LCD)などのディスプレイ812に結合され得る。英数字および他のキーを含む入力装置814は、情報およびコマンド選択をプロセッサ804に通信するためにバス802に結合され得る。別のタイプのユーザ入力装置は、プロセッサ804に方向情報およびコマンド選択を通信し、ディスプレイ812上のカーソル移動を制御するための、マウス、ジョイスティック、トラックボール、ジェスチャ入力装置、視線ベースの入力装置、またはカーソル方向キーなどのカーソル制御装置816である。この入力装置814は、典型的には、装置が平面内の位置を指定することを可能にする第1の軸(例えば、x)および第2の軸(例えば、y)の二軸の二自由度を有する。しかしながら、3次元(例えば、x、yおよびz)カーソル移動を可能にする入力装置814も本明細書で企図されることを理解されたい。
本教示の特定の実装と一致して、結果は、RAM806に含まれる1つまたは複数の命令の1つまたは複数のシーケンスを実行するプロセッサ804に応答して、またはこれらの専用処理ユニットの専用RAMに含まれる1つまたは複数の命令の1つまたは複数のシーケンスを実行する専用処理ユニットに応答して、コンピュータシステム800によって提供され得る。そのような命令は、記憶装置810などの別のコンピュータ可読媒体またはコンピュータ可読記憶媒体からRAM806に読み込まれ得る。RAM806に含まれる命令シーケンスの実行は、プロセッサ804に本明細書に記載のプロセスを実行させることができる。あるいは、本教示を実装するために、ソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて、ハードワイヤード回路が使用され得る。したがって、本教示の実装は、ハードウェア回路とソフトウェアとの特定の組み合わせに限定されない。
本明細書で使用される「コンピュータ可読媒体」(例えば、データストア、データストレージ、記憶装置、データ記憶装置など)、または「コンピュータ可読記憶媒体」という用語は、実行のためにプロセッサ804に命令を提供することに関与する任意の媒体を指す。そのような媒体は、不揮発性媒体、揮発性媒体、および伝送媒体を含むがこれらに限定されない多くの形態をとることができる。不揮発性媒体の例は、これらに限定されないが、記憶装置810などの光学、固体、磁気ディスクを含むことができる。揮発性媒体の例は、これに限定されないが、RAM806などのダイナミックメモリを含むことができる。伝送媒体の例は、これらに限定されないが、バス802を備えるワイヤを含む、同軸ケーブル、銅線、および光ファイバを含むことができる。
コンピュータ可読媒体の一般的な形態は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、または他の任意の磁気媒体、CD-ROM、他の任意の光学媒体、パンチカード、紙テープ、孔のパターンを有する他の任意の物理媒体、RAM、PROM、およびEPROM、フラッシュEPROM、他の任意のメモリチップまたはカートリッジ、またはコンピュータが読み出すことができる他の任意の有形媒体を含む。
コンピュータ可読媒体に加えて、命令またはデータは、実行のためにコンピュータシステム800のプロセッサ804に1つまたは複数の命令のシーケンスを提供するために、通信装置またはシステムに含まれる伝送媒体上の信号として提供され得る。例えば、通信装置は、命令およびデータを示す信号を有するトランシーバを含み得る。命令およびデータは、1つまたは複数のプロセッサに、本明細書の開示に概説される機能を実装させるように構成されている。データ通信伝送接続の代表的な例は、これらに限定されないが、電話モデム接続、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、赤外線データ接続、NFC接続、光通信接続などを含むことができる。
本明細書に記載の方法論、フローチャート、図、および付随する開示は、コンピュータシステム800をスタンドアロン装置として使用して、またはクラウドコンピューティングネットワークなどの共有コンピュータ処理リソースの分散ネットワーク上で実装され得ることを理解されたい。
本明細書に記載の方法論は、用途に応じて様々な手段によって実装され得る。例えば、これらの方法論は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの任意の組み合わせで実装され得る。ハードウェア実装の場合、処理ユニットは、1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、グラフィカル処理ユニット(GPU)、テンソル処理ユニット(TPU)、人工知能(AI)アクセラレータASIC、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、本明細書に記載の機能を実行するように設計された他の電子ユニット、またはそれらの組み合わせ内に実装されてもよい。
様々な実施形態では、本教示の方法は、C、C++、Pythonなどのような従来のプログラミング言語で書かれたファームウェアおよび/またはソフトウェアプログラムおよびアプリケーションとして実装されてもよい。ファームウェアおよび/またはソフトウェアとして実装される場合、本明細書に記載される実施形態は、コンピュータに上述した方法を実行させるためのプログラムが記憶された非一時的コンピュータ可読媒体上に実装され得る。本明細書に記載の様々なエンジンがコンピュータシステム800などのコンピュータシステム上に設けられ得、それによって、プロセッサ804は、メモリ構成要素RAM806、ROM808、または記憶装置810のいずれか1つ、またはそれらの組み合わせによって提供される命令、および入力装置814を介して提供されるユーザ入力にしたがって、これらのエンジンによって提供される分析および決定を実行することを理解されたい。
結論
本教示は、様々な実施形態に関連して説明されているが、本教示がそのような実施形態に限定されることは意図されていない。逆に、本教示は、当業者によって理解されるように、様々な代替、変更、および均等物を包含する。
例えば、上述したフローチャートおよびブロック図は、様々な方法およびシステム実施形態の可能な実装のアーキテクチャ、機能、および/または動作を示している。フローチャートまたはブロック図の各ブロックは、モジュール、セグメント、機能、動作もしくはステップの一部、またはそれらの組み合わせを表し得る。実施形態のいくつかの代替実装では、ブロックに記載された1つまたは複数の機能は、図に記載された順序とは異なる順序で行われてもよい。例えば、場合によっては、連続して示される2つのブロックは、実質的に同時に実行されてもよく、または何らかの方法で統合されてもよい。他の場合には、ブロックは、逆の順序で実行されてもよい。さらに、場合によっては、フローチャートまたはブロック図内の1つまたは複数の他のブロックを置換または補足するために、1つまたは複数のブロックが追加されてもよい。
したがって、様々な実施形態を説明する際に、本明細書は、特定の一連のステップとして方法および/またはプロセスを提示している場合がある。しかしながら、方法またはプロセスが本明細書に記載の特定の順番のステップに依拠しない限り、方法またはプロセスは、記載された特定の順序のステップに限定されるべきではなく、当業者は、順序が変動してもよく、依然として様々な実施形態の趣旨および範囲内にあることを容易に理解することができる。
実施形態の列挙
実施形態1.視力応答を予測するための方法であって、
処置を受けている被験者に関連付けられた2次元撮像データを含む第1の入力を受信することと、
処置を受けている被験者に関連付けられた3次元撮像データを含む第2の入力を受信することと、
ニューラルネットワークシステムを介して、第1の入力および第2の入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、方法。
実施形態2.3次元撮像データが、処置を受けている被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含み、2次元撮像データが、処置を受けている被験者に関連付けられたカラー眼底撮像データを含む、実施形態1に記載の方法。
実施形態3.第2の入力が、処置を受けている被験者に関連付けられた視力測定値および処置を受けている被験者に関連付けられた人口学的な統計データをさらに含む、実施形態1または2に記載の方法。
実施形態4.ニューラルネットワークシステムを介してVAR出力を予測することが、
処置を受けている被験者に関連付けられた2次元撮像データを使用して第1の出力を生成することと、
処置を受けている被験者に関連付けられた3次元撮像データを使用して第2の出力を生成することと、
第1の出力と第2の出力との融合を介してVAR出力を生成することと、を含む、実施形態1から3のいずれか一項に記載の方法。
実施形態5.ニューラルネットワークシステムが、
少なくとも1つの第1の入力層と少なくとも1つの第1の高密度内層とを含む第1のニューラルネットワークサブシステムであって、少なくとも1つの第1の入力層が第1の入力を受信するように構成され、少なくとも1つの第1の高密度内層が第1の入力層に第1の訓練されたモデルを適用するように構成されている、第1のニューラルネットワークサブシステムと、
少なくとも1つの第2の入力層と少なくとも1つの第2の高密度内層とを含む第2のニューラルネットワークサブシステムであって、少なくとも1つの第2の入力層が第1の入力を受信するように構成され、少なくとも1つの第2の高密度内層が第2の入力層に第2の訓練されたモデルを適用するように構成されている、第2のニューラルネットワークサブシステムと、
少なくとも1つの第1の高密度内層からの第1の出力および少なくとも1つの第2の高密度層からの第2の出力を受信し、第3の訓練されたモデルを第1の出力および第2の出力に適用し、それによってVAR出力を予測するように構成された少なくとも1つの第3の高密度内層を含む第3のニューラルネットワークサブシステムと、を備える、実施形態1から4のいずれか一項に記載の方法。
実施形態6.少なくとも1つの第1の高密度内層が、訓練された画像認識モデルおよび出力高密度内層を含み、少なくとも1つの第2の高密度内層が、複数の第2の高密度内層を含む、実施形態5に記載の方法。
実施形態7.第1の入力を受信することおよび第2の入力を受信することの前に、以前に処置を受けたことがある第1の複数の被験者に関連付けられた2次元撮像データおよび以前に処置を受けたことがある第2の複数の被験者に関連付けられた3次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態1から6のいずれか一項に記載の方法。
実施形態8.ニューラルネットワークシステムを訓練することが、処置を以前に受けたことがある第2の複数の被験者に関連付けられた視力測定値、処置を以前に受けたことがある第2の複数の被験者に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む、実施形態7に記載の方法。
実施形態9.視力応答を予測するためのシステムであって、
非一時的メモリと、
非一時的メモリに結合され、システムに動作を実行させるために非一時的メモリから命令を読み出すように構成された1つまたは複数のプロセッサであって、動作が、
処置を受けている被験者に関連付けられた2次元撮像データを含む第1の入力を受信することと、
処置を受けている被験者に関連付けられた3次元撮像データを含む第2の入力を受信することと、
ニューラルネットワークシステムを介して、第1の入力および第2の入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、1つまたは複数のプロセッサと、を備える、システム。
実施形態10.3次元撮像データが、処置を受けている被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含み、2次元撮像データが、処置を受けている被験者に関連付けられたカラー眼底撮像データを含む、実施形態9に記載のシステム。
実施形態11.第2の入力が、処置を受けている被験者に関連付けられた視力測定値および処置を受けている被験者に関連付けられた人口学的な統計データをさらに含む、実施形態9または10に記載のシステム。
実施形態12.ニューラルネットワークシステムを介してVAR出力を予測することが、
処置を受けている被験者に関連付けられた2次元撮像データを使用して第1の出力を生成することと、
処置を受けている被験者に関連付けられた3次元撮像データを使用して第2の出力を生成することと、
第1の出力と第2の出力との融合を介してVAR出力を生成することと、を含む、実施形態9から11のいずれか一項に記載のシステム。
実施形態13.ニューラルネットワークシステムが、
少なくとも1つの第1の入力層と少なくとも1つの第1の高密度内層とを含む第1のニューラルネットワークサブシステムであって、少なくとも1つの第1の入力層が第1の入力を受信するように構成され、少なくとも1つの第1の高密度内層が第1の入力層に第1の訓練されたモデルを適用するように構成されている、第1のニューラルネットワークサブシステムと、
少なくとも1つの第2の入力層と少なくとも1つの第2の高密度内層とを含む第2のニューラルネットワークサブシステムであって、少なくとも1つの第2の入力層が第1の入力を受信するように構成され、少なくとも1つの第2の高密度内層が第2の入力層に第2の訓練されたモデルを適用するように構成されている、第2のニューラルネットワークサブシステムと、
少なくとも1つの第1の高密度内層からの第1の出力および少なくとも1つの第2の高密度層からの第2の出力を受信し、第3の訓練されたモデルを第1の出力および第2の出力に適用し、それによってVAR出力を予測するように構成された少なくとも1つの第3の高密度内層を含む第3のニューラルネットワークサブシステムと、を備える、実施形態9から12のいずれか一項に記載のシステム。
実施形態14.少なくとも1つの第1の高密度内層が、訓練された画像認識モデルおよび出力高密度内層を含み、少なくとも1つの第2の高密度内層が、複数の第2の高密度内層を含む、実施形態13に記載のシステム。
実施形態15.動作が、第1の入力を受信することおよび第2の入力を受信することの前に、以前に処置を受けたことがある第1の複数の被験者に関連付けられた2次元撮像データおよび以前に処置を受けたことがある第2の複数の被験者に関連付けられた3次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態9から14のいずれか一項に記載のシステム。
実施形態16.ニューラルネットワークシステムを訓練することが、処置を以前に受けたことがある第2の複数の被験者に関連付けられた視力測定値、処置を以前に受けたことがある第2の複数の被験者に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む、実施形態15に記載のシステム。
実施形態17.システムに動作を実行させるように実行可能な機械可読命令が記憶された非一時的機械可読媒体であって、動作が、
処置を受けている被験者に関連付けられた2次元撮像データを含む第1の入力を受信することと、
処置を受けている被験者に関連付けられた3次元撮像データを含む第2の入力を受信することと、
ニューラルネットワークシステムを介して、第1の入力および第2の入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、非一時的機械可読媒体。
実施形態18.3次元撮像データが、処置を受けている被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含み、2次元撮像データが、処置を受けている被験者に関連付けられたカラー眼底撮像データを含む、実施形態17に記載の非一時的機械可読媒体。
実施形態19.第2の入力が、処置を受けている被験者に関連付けられた視力測定値および処置を受けている被験者に関連付けられた人口学的な統計データをさらに含む、実施形態17または18に記載の非一時的機械可読媒体。
実施形態20.ニューラルネットワークシステムを介してVAR出力を予測することが、
処置を受けている被験者に関連付けられた2次元撮像データを使用して第1の出力を生成することと、
処置を受けている被験者に関連付けられた3次元撮像データを使用して第2の出力を生成することと、
第1の出力と第2の出力との融合を介してVAR出力を生成することと、を含む、実施形態17から19のいずれか一項に記載の非一時的機械可読媒体。
実施形態21.ニューラルネットワークシステムが、
少なくとも1つの第1の入力層と少なくとも1つの第1の高密度内層とを含む第1のニューラルネットワークサブシステムであって、少なくとも1つの第1の入力層が第1の入力を受信するように構成され、少なくとも1つの第1の高密度内層が第1の入力層に第1の訓練されたモデルを適用するように構成されている、第1のニューラルネットワークサブシステムと、
少なくとも1つの第2の入力層と少なくとも1つの第2の高密度内層とを含む第2のニューラルネットワークサブシステムであって、少なくとも1つの第2の入力層が第1の入力を受信するように構成され、少なくとも1つの第2の高密度内層が第2の入力層に第2の訓練されたモデルを適用するように構成されている、第2のニューラルネットワークサブシステムと、
少なくとも1つの第1の高密度内層からの第1の出力および少なくとも1つの第2の高密度層からの第2の出力を受信し、第3の訓練されたモデルを第1の出力および第2の出力に適用し、それによってVAR出力を予測するように構成された少なくとも1つの第3の高密度内層を含む第3のニューラルネットワークサブシステムと、を備える、実施形態17から20のいずれか一項に記載の非一時的機械可読媒体。
実施形態22.少なくとも1つの第1の高密度内層が、訓練された画像認識モデルおよび出力高密度内層を含み、少なくとも1つの第2の高密度内層が、複数の第2の高密度内層を含む、実施形態21に記載の非一時的機械可読媒体。
実施形態23.動作が、第1の入力を受信することおよび第2の入力を受信することの前に、以前に処置を受けたことがある第1の複数の被験者に関連付けられた2次元撮像データおよび以前に処置を受けたことがある第2の複数の被験者に関連付けられた3次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態17から22のいずれか一項に記載の非一時的機械可読媒体。
実施形態24.ニューラルネットワークシステムを訓練することが、処置を以前に受けたことがある第2の複数の被験者に関連付けられた視力測定値、処置を以前に受けたことがある第2の複数の被験者に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む、実施形態23に記載の非一時的機械可読媒体。
実施形態25.視力応答を予測するための方法であって、
処置を受けている被験者に関連付けられた2次元撮像データを含む入力を受信することと、
ニューラルネットワークシステムを介して、入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、方法。
実施形態26.2次元撮像データが、処置を受けている被験者に関連付けられたカラー眼底撮像データを含む、実施形態25に記載の方法。
実施形態27.ニューラルネットワークシステムが、
入力を受信するように構成された少なくとも1つの入力層と、
訓練済みモデルを入力層に適用し、それによってVAR出力を予測するように構成された少なくとも1つの高密度内層と、を含む、実施形態25または26に記載の方法。
実施形態28.少なくとも1つの高密度内層が、訓練された画像認識モデルおよび出力高密度内層を含む、実施形態27に記載の方法。
実施形態29.入力を受信することの前に、以前に処置を受けたことがある複数の被験者に関連付けられた2次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態25から28のいずれか一項に記載の方法。
実施形態30.視力応答を予測するためのシステムであって、
非一時的メモリと、
非一時的メモリに結合され、システムに動作を実行させるために非一時的メモリから命令を読み出すように構成された1つまたは複数のプロセッサであって、動作が、
処置を受けている被験者に関連付けられた2次元撮像データを含む入力を受信することと、
ニューラルネットワークシステムを介して、入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、1つまたは複数のプロセッサと、を備える、システム。
実施形態31.2次元撮像データが、処置を受けている被験者に関連付けられたカラー眼底撮像データを含む、実施形態30に記載のシステム。
実施形態32.ニューラルネットワークシステムが、
入力を受信するように構成された少なくとも1つの入力層と、
訓練済みモデルを入力層に適用し、それによってVAR出力を予測するように構成された少なくとも1つの高密度内層と、を含む、実施形態30または31に記載のシステム。
実施形態33.少なくとも1つの高密度内層が、訓練された画像認識モデルおよび出力高密度内層を含む、実施形態32に記載のシステム。
実施形態34.動作が、入力を受信することの前に、以前に処置を受けたことがある複数の被験者に関連付けられた2次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態30から33のいずれか一項に記載のシステム。
実施形態35.ニューラルネットワークシステムを訓練することが、処置を以前に受けたことがある第2の複数の被験者に関連付けられた視力測定値、処置を以前に受けたことがある第2の複数の被験者に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む、実施形態34に記載のシステム。
実施形態36.システムに動作を実行させるように実行可能な機械可読命令が記憶された非一時的機械可読媒体であって、動作が、
処置を受けている被験者に関連付けられた2次元撮像データを含む入力を受信することと、
ニューラルネットワークシステムを介して、入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、非一時的機械可読媒体。
実施形態37.2次元撮像データが、処置を受けている被験者に関連付けられたカラー眼底撮像データを含む、実施形態36に記載の非一時的機械可読媒体。
実施形態38.ニューラルネットワークシステムが、
入力を受信するように構成された少なくとも1つの入力層と、
訓練済みモデルを入力層に適用し、それによってVAR出力を予測するように構成された少なくとも1つの高密度内層と、を含む、実施形態36または37に記載の非一時的機械可読媒体。
実施形態39.少なくとも1つの高密度内層が、訓練された画像認識モデルおよび出力高密度内層を含む、実施形態38に記載の非一時的機械可読媒体。
実施形態40.動作が、入力を受信することの前に、以前に処置を受けたことがある複数の被験者に関連付けられた2次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態36から39のいずれか一項に記載の非一時的機械可読媒体。
実施形態41.視力応答を予測するための方法であって、
処置を受けている被験者に関連付けられた3次元撮像データを含む入力を受信することと、
ニューラルネットワークシステムを介して、入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、非一時的機械可読媒体。
実施形態42.3次元撮像データが、処置を受けている被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含む、実施形態41に記載の方法。
実施形態43.入力が、処置を受けている被験者に関連付けられた視力測定値および処置を受けている被験者に関連付けられた人口学的な統計データをさらに含む、実施形態41または42に記載の方法。
実施形態44.ニューラルネットワークシステムが、
入力を受信するように構成された少なくとも1つの入力層と、
訓練済みモデルを入力層に適用し、それによってVAR出力を予測するように構成された少なくとも1つの高密度内層と、を含む、実施形態41から43のいずれか一項に記載の方法。
実施形態45.少なくとも1つの高密度内層が複数の高密度内層を含む、実施形態44に記載の方法。
実施形態46.入力を受信することの前に、以前に処置を受けたことがある複数の被験者に関連付けられた3次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態41から45のいずれか一項に記載の方法。
実施形態47.ニューラルネットワークシステムを訓練することが、以前に処置を受けたことがある複数の被験者に関連付けられた視力測定値、以前に処置を受けたことがある複数の被験者に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む、実施形態46に記載の方法。
実施形態48.視力応答を予測するためのシステムであって、
非一時的メモリと、
非一時的メモリに結合され、システムに動作を実行させるために非一時的メモリから命令を読み出すように構成された1つまたは複数のプロセッサであって、動作が、
処置を受けている被験者に関連付けられた3次元撮像データを含む入力を受信することと、
ニューラルネットワークシステムを介して、入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、非一時的機械可読媒体。
実施形態49.3次元撮像データが、処置を受けている被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含む、実施形態48に記載のシステム。
実施形態50.入力が、処置を受けている被験者に関連付けられた視力測定値および処置を受けている被験者に関連付けられた人口学的な統計データをさらに含む、実施形態48または49に記載のシステム。
実施形態51.ニューラルネットワークシステムが、
入力を受信するように構成された少なくとも1つの入力層と、
訓練済みモデルを入力層に適用し、それによってVAR出力を予測するように構成された少なくとも1つの高密度内層と、を含む、実施形態48から50のいずれか一項に記載のシステム。
実施形態52.少なくとも1つの高密度内層が複数の高密度内層を含む、実施形態51に記載のシステム。
実施形態53.動作が、入力を受信することの前に、以前に処置を受けたことがある複数の被験者に関連付けられた3次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態48から52のいずれか一項に記載のシステム。
実施形態54.ニューラルネットワークシステムを訓練することが、以前に処置を受けたことがある複数の被験者に関連付けられた視力測定値、以前に処置を受けたことがある複数の被験者に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む、実施形態53に記載のシステム。
実施形態55.システムに動作を実行させるように実行可能な機械可読命令が記憶された非一時的機械可読媒体であって、動作が、
処置を受けている被験者に関連付けられた3次元撮像データを含む入力を受信することと、
ニューラルネットワークシステムを介して、入力を使用して処置に応答した処置を受けている被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、を含む、非一時的機械可読媒体。
実施形態56.3次元撮像データが、処置を受けている被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含む、実施形態55に記載の非一時的機械可読媒体。
実施形態57.入力が、処置を受けている被験者に関連付けられた視力測定値および処置を受けている被験者に関連付けられた人口学的な統計データをさらに含む、実施形態55または56に記載の非一時的機械可読媒体。
実施形態58.ニューラルネットワークシステムが、
入力を受信するように構成された少なくとも1つの入力層と、
訓練済みモデルを入力層に適用し、それによってVAR出力を予測するように構成された少なくとも1つの高密度内層と、を含む、実施形態55から57のいずれか一項に記載の非一時的機械可読媒体。
実施形態59.少なくとも1つの高密度内層が複数の高密度内層を含む、実施形態58に記載の非一時的機械可読媒体。
実施形態60.動作が、入力を受信することの前に、以前に処置を受けたことがある複数の被験者に関連付けられた3次元撮像データを使用してニューラルネットワークシステムを訓練することをさらに含む、実施形態55から59のいずれか一項に記載の非一時的機械可読媒体。
実施形態61.ニューラルネットワークシステムを訓練することが、処置を以前に受けたことがある複数の被験者に関連付けられた視力測定値、処置を以前に受けたことがある複数の被験者に関連付けられた人口学的な統計データ、またはそれらの組み合わせを使用することをさらに含む、実施形態60に記載の非一時的機械可読媒体。
実施形態62.nAMD症状と診断された被験者を処置するための方法であって、
被験者に関連付けられた2次元撮像データを含む第1の入力を受信することと、
被験者に関連付けられた3次元撮像データを含む第2の入力を受信することと、
訓練されたニューラルネットワークシステムを介して、第1の入力および第2の入力を使用して処置出力を生成することであって、処置出力が、処置に応答した被験者の視力の予測される変化を示す、生成することと、
処置出力に基づいて、医療提供者に処置推奨を提供することであって、処置推奨が、
処置出力が被験者の視力の改善であることに応答して、処置を被験者に投与することであって、処置を投与するステップが、処置投与量での処置またはその誘導体の硝子体内投与を含み、処置がラニビズマブであり、処置投与量が0.3ミリグラム(mg)または0.5mgである、投与するように医療提供者に促す、提供することと、を含む、方法。

Claims (20)

  1. 視力応答を予測するための方法であって、
    処置を受けている被験者に関連付けられた2次元撮像データを含む第1の入力を受信することと、
    前記処置を受けている前記被験者に関連付けられた3次元撮像データを含む第2の入力を受信することと、
    ニューラルネットワークシステムを介して、前記第1の入力および前記第2の入力を使用して前記処置を受けている前記被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、
    を含む、方法。
  2. 前記3次元撮像データが、前記処置を受けている前記被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含み、前記2次元撮像データが、前記処置を受けている前記被験者に関連付けられたカラー眼底撮像データを含む、請求項1に記載の方法。
  3. 前記第2の入力が、前記処置を受けている前記被験者に関連付けられた視力測定値および前記処置を受けている前記被験者に関連付けられた人口学的な統計データをさらに含む、請求項1に記載の方法。
  4. 前記ニューラルネットワークシステムを介して前記VAR出力を予測することが、
    前記処置を受けている前記被験者に関連付けられた前記2次元撮像データを使用して第1の出力を生成することと、
    前記処置を受けている前記被験者に関連付けられた前記3次元撮像データを使用して第2の出力を生成することと、
    前記第1の出力と前記第2の出力との融合を介して前記VAR出力を生成することと、
    を含む、請求項1に記載の方法。
  5. 前記ニューラルネットワークシステムが、
    少なくとも1つの第1の入力層と少なくとも1つの第1の高密度内層とを含む第1のニューラルネットワークサブシステムであって、前記少なくとも1つの第1の入力層が前記第1の入力を受信するように構成され、前記少なくとも1つの第1の高密度内層が前記第1の入力層に第1の訓練されたモデルを適用するように構成されている、第1のニューラルネットワークサブシステムと、
    少なくとも1つの第2の入力層と少なくとも1つの第2の高密度内層とを含む第2のニューラルネットワークサブシステムであって、前記少なくとも1つの第2の入力層が前記第1の入力を受信するように構成され、前記少なくとも1つの第2の高密度内層が前記第2の入力層に第2の訓練されたモデルを適用するように構成されている、第2のニューラルネットワークサブシステムと、
    前記少なくとも1つの第1の高密度内層からの第1の出力および前記少なくとも1つの第2の高密度層からの第2の出力を受信し、第3の訓練されたモデルを前記第1の出力および前記第2の出力に適用し、それによって前記VAR出力を予測するように構成された少なくとも1つの第3の高密度内層を含む第3のニューラルネットワークサブシステムと、
    を備える、請求項1に記載の方法。
  6. 前記少なくとも1つの第1の高密度内層が、訓練された画像認識モデルおよび出力された高密度内層を含み、または前記少なくとも1つの第2の高密度内層が、複数の第2の高密度内層を含む、請求項5に記載の方法。
  7. 前記処置を以前に受けたことがある第1の複数の被験者に関連付けられた2次元撮像データを使用し、前記処置を以前に受けたことがある第2の複数の被験者に関連付けられた3次元撮像データを使用して、前記ニューラルネットワークシステムを訓練することをさらに含む、請求項1に記載の方法。
  8. 視力応答を予測するためのシステムであって、
    非一時的メモリと、
    前記非一時的メモリに結合され、前記システムに動作を実行させるために前記非一時的メモリから命令を読み出すように構成された1つまたは複数のプロセッサであって、前記動作が、
    処置を受けている被験者に関連付けられた2次元撮像データを含む第1の入力を受信することと、
    前記処置を受けている前記被験者に関連付けられた3次元撮像データを含む第2の入力を受信することと、
    ニューラルネットワークシステムを介して、前記第1の入力および前記第2の入力を使用して前記処置を受けている前記被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、
    を含む、1つまたは複数のプロセッサと、
    を備える、システム。
  9. 前記3次元撮像データが、前記処置を受けている前記被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含み、前記2次元撮像データが、前記処置を受けている前記被験者に関連付けられたカラー眼底撮像データを含む、請求項8に記載のシステム。
  10. 前記第2の入力が、前記処置を受けている前記被験者に関連付けられた視力測定値および前記処置を受けている前記被験者に関連付けられた人口学的な統計データをさらに含む、請求項8に記載のシステム。
  11. 前記ニューラルネットワークシステムを介して前記VAR出力を予測することが、
    前記処置を受けている前記被験者に関連付けられた前記2次元撮像データを使用して第1の出力を生成することと、
    前記処置を受けている前記被験者に関連付けられた前記3次元撮像データを使用して第2の出力を生成することと、
    前記第1の出力と前記第2の出力との融合を介して前記VAR出力を生成することと、
    を含む、請求項8に記載のシステム。
  12. 前記ニューラルネットワークシステムが、
    少なくとも1つの第1の入力層と少なくとも1つの第1の高密度内層とを含む第1のニューラルネットワークサブシステムであって、前記少なくとも1つの第1の入力層が前記第1の入力を受信するように構成され、前記少なくとも1つの第1の高密度内層が前記第1の入力層に第1の訓練されたモデルを適用するように構成されている、第1のニューラルネットワークサブシステムと、
    少なくとも1つの第2の入力層と少なくとも1つの第2の高密度内層とを含む第2のニューラルネットワークサブシステムであって、前記少なくとも1つの第2の入力層が前記第1の入力を受信するように構成され、前記少なくとも1つの第2の高密度内層が前記第2の入力層に第2の訓練されたモデルを適用するように構成されている、第2のニューラルネットワークサブシステムと、
    前記少なくとも1つの第1の高密度内層からの第1の出力および前記少なくとも1つの第2の高密度層からの第2の出力を受信し、第3の訓練されたモデルを前記第1の出力および前記第2の出力に適用し、それによって前記VAR出力を予測するように構成された少なくとも1つの第3の高密度内層を含む第3のニューラルネットワークサブシステムと、
    を備える、請求項8に記載のシステム。
  13. 前記少なくとも1つの第1の高密度内層が、訓練された画像認識モデルおよび出力された高密度内層を含み、または前記少なくとも1つの第2の高密度内層が、複数の第2の高密度内層を含む、請求項12に記載のシステム。
  14. 前記動作が、前記処置を以前に受けたことがある第1の複数の被験者に関連付けられた2次元撮像データを使用し、前記処置を以前に受けたことがある第2の複数の被験者に関連付けられた3次元撮像データを使用して、前記ニューラルネットワークシステムを訓練することをさらに含む、請求項8に記載のシステム。
  15. システムに動作を実行させるように実行可能な機械可読命令が記憶された非一時的機械可読媒体であって、前記動作が、
    処置を受けている被験者に関連付けられた2次元撮像データを含む第1の入力を受信することと、
    前記処置を受けている前記被験者に関連付けられた3次元撮像データを含む第2の入力を受信することと、
    ニューラルネットワークシステムを介して、前記第1の入力および前記第2の入力を使用して前記処置を受けている前記被験者の視力の予測される変化を含む視力応答(VAR)出力を予測することと、
    を含む、非一時的機械可読媒体。
  16. 前記3次元撮像データが、前記処置を受けている前記被験者に関連付けられた光干渉断層撮影(OCT)撮像データを含み、前記2次元撮像データが、前記処置を受けている前記被験者に関連付けられたカラー眼底撮像データを含む、請求項15に記載の非一時的機械可読媒体。
  17. 前記第2の入力が、前記処置を受けている前記被験者に関連付けられた視力測定値および前記処置を受けている前記被験者に関連付けられた人口学的な統計データをさらに含む、請求項15に記載の非一時的機械可読媒体。
  18. 前記ニューラルネットワークシステムを介して前記VAR出力を予測することが、
    前記処置を受けている前記被験者に関連付けられた前記2次元撮像データを使用して第1の出力を生成することと、
    前記処置を受けている前記被験者に関連付けられた前記3次元撮像データを使用して第2の出力を生成することと、
    前記第1の出力と前記第2の出力との融合を介して前記VAR出力を生成することと、
    を含む、請求項15に記載の非一時的機械可読媒体。
  19. 前記ニューラルネットワークシステムが、
    少なくとも1つの第1の入力層と少なくとも1つの第1の高密度内層とを含む第1のニューラルネットワークサブシステムであって、前記少なくとも1つの第1の入力層が前記第1の入力を受信するように構成され、前記少なくとも1つの第1の高密度内層が前記第1の入力層に第1の訓練されたモデルを適用するように構成されている、第1のニューラルネットワークサブシステムと、
    少なくとも1つの第2の入力層と少なくとも1つの第2の高密度内層とを含む第2のニューラルネットワークサブシステムであって、前記少なくとも1つの第2の入力層が前記第1の入力を受信するように構成され、前記少なくとも1つの第2の高密度内層が前記第2の入力層に第2の訓練されたモデルを適用するように構成されている、第2のニューラルネットワークサブシステムと、
    前記少なくとも1つの第1の高密度内層からの第1の出力および前記少なくとも1つの第2の高密度層からの第2の出力を受信し、第3の訓練されたモデルを前記第1の出力および前記第2の出力に適用し、それによって前記VAR出力を予測するように構成された少なくとも1つの第3の高密度内層を含む第3のニューラルネットワークサブシステムと、
    を備える、請求項15に記載の非一時的機械可読媒体。
  20. 前記少なくとも1つの第1の高密度内層が、訓練された画像認識モデルおよび出力された高密度内層を含み、または前記少なくとも1つの第2の高密度内層が、複数の第2の高密度内層を含む、請求項19に記載の非一時的機械可読媒体。
JP2023533641A 2020-12-03 2021-12-02 視力応答のマルチモーダル予測 Pending JP2023551900A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063121213P 2020-12-03 2020-12-03
US63/121,213 2020-12-03
US202163175544P 2021-04-15 2021-04-15
US63/175,544 2021-04-15
PCT/US2021/061595 WO2022120037A1 (en) 2020-12-03 2021-12-02 Multimodal prediction of visual acuity response

Publications (1)

Publication Number Publication Date
JP2023551900A true JP2023551900A (ja) 2023-12-13

Family

ID=79170794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023533641A Pending JP2023551900A (ja) 2020-12-03 2021-12-02 視力応答のマルチモーダル予測

Country Status (5)

Country Link
US (1) US20230394667A1 (ja)
EP (1) EP4256527A1 (ja)
JP (1) JP2023551900A (ja)
KR (1) KR20230110344A (ja)
WO (1) WO2022120037A1 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3136976A1 (en) * 2019-04-18 2020-10-22 Shelley Boyd Detection, prediction, and classification for ocular disease

Also Published As

Publication number Publication date
KR20230110344A (ko) 2023-07-21
WO2022120037A1 (en) 2022-06-09
EP4256527A1 (en) 2023-10-11
US20230394667A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
Benet et al. Artificial intelligence: the unstoppable revolution in ophthalmology
US20230157533A1 (en) A computer-implemented system and method for assessing a level of activity of a disease or condition in a patient's eye
Firke et al. Convolutional neural network for diabetic retinopathy detection
JP2022165915A (ja) 異常を動的に認識し訂正するための白内障手術のaiベースの映像解析
Patra et al. Diabetic Retinopathy Detection using an Improved ResNet50-InceptionV3 Structure
JP2023551900A (ja) 視力応答のマルチモーダル予測
CN117063207A (zh) 视敏度反应的多模式预测
US20240339191A1 (en) Predicting optimal treatment regimen for neovascular age-related macular degeneration (namd) patients using machine learning
US20240038395A1 (en) Machine learning-based prediction of treatment requirements for neovascular age-related macular degeneration (namd)
US20240038370A1 (en) Treatment outcome prediction for neovascular age-related macular degeneration using baseline characteristics
Sheikh Diabetic reinopathy classification using deep learning
US20230317288A1 (en) Machine learning prediction of injection frequency in patients with macular edema
CN118414671A (zh) 使用机器学习来预测针对新生血管性年龄相关性黄斑变性(namd)患者的最佳治疗方案
KR20240125600A (ko) 섬유증 발병 예측을 위한 예후 모델
US20230154595A1 (en) Predicting geographic atrophy growth rate from fundus autofluorescence images using deep neural networks
US20230057686A1 (en) Machine-learning based iol position determination
Yang Deep Learning Model for Detection of Retinal Vessels from Digital Fundus Images-A Survey
CN118451452A (zh) 用于预测纤维化发展的预后模型
WO2023205402A1 (en) Systems and methods for ocular finite element modeling and machine learning