JP2023506940A - 機械学習モデル及び波面分析に基づく視力品質評価 - Google Patents
機械学習モデル及び波面分析に基づく視力品質評価 Download PDFInfo
- Publication number
- JP2023506940A JP2023506940A JP2022537196A JP2022537196A JP2023506940A JP 2023506940 A JP2023506940 A JP 2023506940A JP 2022537196 A JP2022537196 A JP 2022537196A JP 2022537196 A JP2022537196 A JP 2022537196A JP 2023506940 A JP2023506940 A JP 2023506940A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- learning model
- training
- input
- wavefront aberration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 75
- 230000004304 visual acuity Effects 0.000 title abstract description 11
- 238000013441 quality evaluation Methods 0.000 title 1
- 230000004075 alteration Effects 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000012937 correction Methods 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims description 46
- 230000004438 eyesight Effects 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 14
- 230000002980 postoperative effect Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 201000009310 astigmatism Diseases 0.000 claims description 7
- 230000036541 health Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 9
- 230000004913 activation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 210000002159 anterior chamber Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000014733 refractive error Diseases 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010010071 Coma Diseases 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 235000004035 Cryptotaenia japonica Nutrition 0.000 description 1
- 208000010412 Glaucoma Diseases 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 206010038848 Retinal detachment Diseases 0.000 description 1
- 102000007641 Trefoil Factors Human genes 0.000 description 1
- 235000015724 Trifolium pratense Nutrition 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004264 retinal detachment Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/1015—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0033—Operational features thereof characterised by user input arrangements
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Eye Examination Apparatus (AREA)
Abstract
眼(E)の視力品質を評価するシステム(10)及び方法が提示されており、コントローラ(C)は、プロセッサ(P)と、命令が記録されている有形の非一時的メモリ(M)とを有する。コントローラ(C)は、少なくとも1つの機械学習モデル(35、36、38)を選択的に実行するよう構成されている。プロセッサ(P)による命令の実行により、コントローラ(C)に、眼の波面収差データを受信してゼルニケ多項式のコレクションとして波面収差データを表現する。コントローラ(C)は、ゼルニケ多項式のコレクションに基づいて複数の入力係数を取得する(120)ように構成され、複数の入力係数は、複数の入力係数を分析するように訓練された、少なくとも1つの機械学習モデル(35、36、38)に供給される(120)。機械学習モデル(35、36、38)は、複数の入力係数に部分的に基づいて、少なくとも1つの視力補正係数を生成する(130)。
Description
本開示は、概して、少なくとも1つの機械学習モデル及び波面分析に基づいて、眼の視力品質を評価するシステム及び方法に関する。
人間は、5つの基本的な感覚、すなわち、視覚、聴覚、嗅覚、味覚、及び触覚を有している。視覚は、我々の周りの世界を視覚化する能力を我々に与え、我々を我々の周囲に結び付けている。幾つかの科学報告書によれば、脳は、他の4つの感覚を合わせたものよりも多くの空間を視覚情報の処理及び記憶に充てており、視覚の重要性を強調している。世界中の多くの人々は、主に屈折異常に起因する、視力品質での問題を抱えている。眼の屈折異常は、一般的に、低次収差及び高次収差に分類され得る。低次収差には、近視、遠視、並びに乱視が含まれる。高次収差には、コマ収差、トレフォイル収差、及び球面収差などの多くの様々な収差が含まれる。従来の眼の検査手順は、眼の低次収差のみを評価する視力品質の評価に終わる。
本明細書で開示されるものは、眼の視力品質を評価するシステム及び方法であり、コントローラは、プロセッサと、命令が記録されている有形の非一時的メモリとを有する。コントローラは、少なくとも1つの機械学習モデルを選択的に実行するように構成されている。プロセッサによる命令の実行により、コントローラに、眼の波面収差データを受信して、ゼルニケ多項式のコレクションとして波面収差データを表現させる。コントローラは、ゼルニケ多項式のコレクションに基づいて、複数の入力係数を取得するように構成されている。複数の入力係数は、複数の入力係数を分析するように訓練された、少なくとも1つの機械学習モデルに供給される。機械学習モデルは、複数の入力係数に部分的に基づいて、少なくとも1つの視力補正係数を生成する。視力補正係数は、視力補正処置/屈折補正手術中に眼を再形成するためのレーザデバイス内にプログラムされ得る。視力補正係数は、眼鏡、コンタクトレンズ、及び/又は眼の眼内レンズの選択を支援するために使用され得る。
複数の入力係数には、焦点ぼけ、一次球面収差、斜め非点収差、及び垂直非点収差に対するそれぞれの波面係数が含まれ得る。視力補正係数は、自覚的屈折検査に基づく等価球面度数(manifest refraction spherical equivalent)であり得る。視力補正係数は、log MAR(最小分解能角度の対数)の未補正視力係数であり得る。少なくとも1つの機械学習モデルは、ニューラルネットワーク及び/又はサポートベクトル回帰モデルを組み込むことができる。
機械学習モデルは、第1の機械学習モデル及び第2の機械学習モデルを含み得る。第1の機械学習モデルの訓練は、それぞれの波面収差測定値、及び第1の患者のセットのそれぞれの測定された自覚的屈折検査に基づく等価球面度数値を有する、第1の訓練データセットを受信することを含み得る。第1の訓練入力値は、それぞれの波面収差測定値に基づいて取得され、第1の機械学習モデルのそれぞれの入力層に適用される。それぞれの測定された自覚的屈折検査に基づく等価球面度数値は、術前データ及び術後データを含み得る。それぞれの測定された自覚的屈折検査に基づく等価球面度数値は、第1の機械学習モデルのそれぞれの出力層に供給され得る。
第1の訓練入力値は、第1の機械学習モデルのそれぞれのノードに関連する第1の複数の重み値を生成するために使用され得る。第1の訓練データセットにおける第1の患者のセットは、第1の事前定義された最大値及び第1の事前定義された最小値内に適合しているそれぞれの健康状態及び/又はそれぞれの生体測定パラメータによって特徴付けられ得る。それぞれの生体測定パラメータは、前房の深さ、レンズの厚さ、レンズの直径、又は他の寸法であり得る。
第2の機械学習モデルの訓練は、それぞれの波面収差測定値、及び第2の患者のセットのそれぞれの測定された自覚的屈折検査に基づく等価球面度数値を有する、第2の訓練データセットを受信することを含み得る。第2の訓練入力値は、それぞれの波面収差測定値に基づいて取得される。第2の訓練入力値は、第2の機械学習モデルのそれぞれの入力層に適用される。それぞれの測定された自覚的屈折検査に基づく等価球面度数値は、第2の機械学習モデルのそれぞれの出力層に供給される。第2の訓練入力値は、第2の機械学習モデルのそれぞれのノードに関連する第2の複数の重み値を生成するために使用され得る。第2の訓練データセットにおける第2の患者のセットは、第2の事前定義された最大値及び第2の事前定義された最小値内に適合しているそれぞれの健康状態及び/又はそれぞれの生体測定パラメータによって特徴付けられ得る。
本開示の上記の特徴及び利点並びに他の特徴及び利点は、本開示を実施するための最良の態様の以下の詳細な説明を添付の図面と併せて読めば容易に明らかとなる。
同様の参照番号が同様の構成要素を指す図面を参照すると、図1は、眼Eの視力品質を評価するためのシステム10を概略的に示している。以下に説明するように、システム10は、1つ以上の機械学習モデルを利用するロバストなアプローチを採用して、視力品質の評価を最適化し、結果として視力品質の予測の成功率を高める。図1を参照すると、システム10は、光のビーム16を眼Eに投射するように構成された光源14を有する屈折デバイス12を含む。ビーム16は、網膜Rによって反射される。図1を参照すると、反射光20は、レンズ22を通過した後、波面24として眼Eを出ていく。波面24は、眼Eの物理的構造に対する特有の歪みによって特徴付けられる。
図1を参照すると、波面24は、レンズレットアレイ26によって捕捉され、センサ30によって検出される。眼Eの収差マップは、捕捉された波面24の形状を、(波面24が眼Eの瞳孔を通過するときに)同じ瞳孔サイズを有する事前にプログラムされた基準波面の形状と比較することによって作成される。例えば、その2つの間の差のポイントが、特定のポイントにおいて取得され得る。屈折デバイス12は、関連するビームガイド要素(図示せず)、電子構成要素、及び当業者が利用可能な他の構成要素を含み得る。屈折デバイス12は、多くの異なる形態をとり、且つ複数の及び/又は代替の構成要素を含み得ることが理解される。
図1を参照すると、システム10は、センサ30からデータを受信するように構成されたコントローラCを含む。コントローラCは、屈折デバイス12に組み込まれ得る。図1を参照すると、コントローラCは、短距離ネットワーク32を介して、屈折デバイス12及び他のエンティティと通信するように構成され得る。短距離ネットワーク32は、無線であってもよいし、又は物理的な構成要素を含んでもよい。短距離ネットワーク32は、例えばローカルエリアネットワークの形態のシリアル通信バスなど、様々な方法で実施されたバスであってもよい。ローカルエリアネットワークは、コントローラエリアネットワーク(CAN)、コントローラエリアネットワークウィズフレキシブルデータレート(Controller Area Network with Flexible Data Rate、CAN-FD)、イーサネット、Bluetooth(登録商標)、Wi-Fi、及び他のデータ接続形態を含み得るが、これらに限定されない。短距離ネットワーク32は、インターネットデバイス間及びデバイスとインターネットとの間の通信を簡素化することを目的とした短距離無線技術(radio technology)(又は無線技術(wireless technology))であると定義される、Bluetooth(登録商標)接続であってもよい。Bluetooth(登録商標)は、固定及びモバイル電子デバイスデータを短距離で伝送し、2.4GHz帯で動作するパーソナルネットワークを構築するためのオープン無線技術規格である。他のタイプの接続が採用されてもよい。
図1を参照すると、コントローラCは、ディスプレイユニットを含み得るユーザインターフェース34と通信することができる。加えて、コントローラCは、長距離ネットワーク44を介して、リモートサーバ40及び/又はクラウドユニット42と通信するように構成され得る。リモートサーバ40は、例えば、研究機関、企業、大学、及び/又は病院などの組織によって維持されている私的又は公的な情報源であってもよい。クラウドユニット42は、データの格納、管理、及び処理を行うためにインターネット上でホストされる1つ以上のサーバを備えてもよい。長距離ネットワーク44は、複数のデバイスを無線分散方式で繋ぐ無線ローカルエリアネットワーク(LAN)、いくつかの無線LANを接続する無線メトロポリタンエリアネットワーク(MAN)、又は近隣の市町村などの広い地域をカバーする無線ワイドエリアネットワーク(WAN)であってもよい。他のタイプの接続が採用されてもよい。
コントローラCは、図1に示すモバイルアプリケーション46を介して、リモートサーバ40との無線通信を受信及び送信するように構成され得る。モバイルアプリケーション46は、コントローラCのデータにアクセスできるように、短距離ネットワーク32を介してコントローラCと通信し得る。一例では、モバイルアプリケーション46は、コントローラCに物理的に接続(例えば、有線接続)される。別の例では、モバイルアプリケーション46は、コントローラCに組み込まれる。当業者が利用できるリモートサーバ40及びモバイルアプリケーション46(「アプリ」)の回路及び構成要素が採用されてもよい。
コントローラCは、少なくとも1つのプロセッサPと、方法100を実行するための命令が記録された少なくとも1つのメモリM(又は有形の非一時的コンピュータ読取可能記憶媒体)とを有する。方法100を図2に示し、それを参照して以下に説明する。コントローラCは、図1に示される第1の機械学習モデル36及び第2の機械学習38などの1つ以上の機械学習モデル35(以降、「1つ以上」は省略される)を選択的に実行するように特にプログラムされている。コントローラCは、短距離ネットワーク32、長距離ネットワーク44、及び/又はモバイルアプリケーション46を介して、機械学習モデル35にアクセスすることができる。或いは、機械学習モデル35は、コントローラCに組み込まれていてもよい。機械学習モデル35は、それぞれのコスト関数を最小化するパラメータ、重み、又は構造を見つけ、且つそれぞれの回帰モデルを組み込むことができるように構成され得る。
ここで図2を参照すると、図1のコントローラCによって実行可能な方法100のフロー図を示している。方法100は、本明細書に記載された特定の順序で適用される必要はなく、いくつかのブロックが省略されてもよい。メモリMは、コントローラ実行可能命令セットを格納することができ、プロセッサPは、メモリMに格納されたコントローラ実行可能命令セットを実行することができる。
図2のブロック110ごとに、コントローラCは、眼Eの波面収差データを受信し、それをゼルニケ多項式のコレクションに関して変換又は表現するように構成されている。波面収差データ(A)は、
であるように、円上の直交多項式のセットに分解され、ここで、ai,jは眼E上で測定されたそれぞれの波面係数であり、
はゼルニケ多項式を表す。各ゼルニケ多項式は、眼Eを通過した後の波面24上の特定のポイントに存在する収差のタイプ又は種類を表す。
コントローラCは、ゼルニケ多項式のコレクションに基づいて複数の入力係数を取得するように構成されており、複数の入力係数は、眼E上で測定されたそれぞれの波面係数の1つ以上である。一例では、コントローラCは2つの入力係数、すなわち、焦点ぼけに対するそれぞれの波面係数
及び一次球面収差
を使用する。別の例では、コントローラCは、4つの入力係数、すなわち、焦点ぼけに対するそれぞれの波面係数
、一次球面収差
、斜め非点収差
、及び垂直非点収差
を使用する。
図2のブロック120ごとに、方法100は、複数の入力係数を、複数の入力係数を分析するように訓練された機械学習モデル35に供給することを含む。図2のブロック130ごとに、コントローラCは、複数の入力係数に部分的に基づいて、機械学習モデル35を実行することによって少なくとも1つの視力補正係数を生成するように構成されている。視力補正係数には、屈折の成分、すなわち、球面、円柱、及び等価球面度数が含まれてもよく、自覚的屈折検査に基づく等価球面度数(MRSE)として表され得る。視力補正係数は、log MAR(最小分解能角度の対数)の未補正視力係数として表され得る。視力補正係数は、屈折補正手術のための切除プロファイルを確立するために、並びに眼鏡、コンタクトレンズ、及び/又は眼の眼内レンズの選択を支援するために使用され得る。加えて、コントローラCは、長距離ネットワーク44を介して、クラウド42及び/又はリモートサーバ40内に(眼Eの)患者用の患者プロファイルを作成し、且つ視力補正係数を患者プロファイル内にアップロード又は「記憶」するように構成され得る。
図1の機械学習モデル35は、ニューラルネットワークを含んでもよく、その例が図3に示されている。図3を参照すると、ニューラルネットワーク200は、入力層201、少なくとも1つの隠れ層220、及び出力層240を含む、少なくとも3つの層を有するフィードフォワード人工ニューラルネットワークである。各層は、入力の線形和のアフィン変換を実行するように構成されたそれぞれのノードNで構成されている。それぞれのノードNは、それぞれのバイアス及びそれぞれの重み付けリンクによって特徴付けられる。それぞれのノードNのパラメータは、他のものから独立していてもよく、すなわち、重みの一意のセットによって特徴付けられ得る。入力層201は、第1の入力ノード202、第2の入力ノード204、第3の入力ノード206、第4の入力ノード208、第5の入力ノード210、及び第6の入力ノード212を含み得る。入力層201内のそれぞれのノードNは、入力を受け取り、それらを正規化し、且つそれらを隠れ層220内のそれぞれのノードNに転送する。
図3を参照すると、隠れ層220は、第1の隠れノード222、第2の隠れノード224、第3の隠れノード226、第4の隠れノード228、及び第5の隠れノード230を含み得る。後続の層のそれぞれのノードNは、前の層の出力の線形結合を計算する。3層を有するネットワークは、活性化関数f(x)=f(3)(f(2)(f(1)(x)))を形成する。活性化関数fは、出力層240内のそれぞれのノードNに対して線形であり得る。活性化関数fは、隠れ層220のシグモイドであり得る。出力ベクトルyを特徴付ける連続関数を近似するために、シグモイドの線形結合が使用され得る。ニューラルネットワーク200によって認識されたパターンは、数値形式に翻訳又は変換され、ベクトル又は行列に組み込まれ得る。
機械学習モデル35は、サポートベクトル回帰モデル300を含むことができ、その例が図4に示されている。サポートベクトル回帰モデル300は、データポイント302がこの関数からのマージン306内にあるように、すなわち、第1の境界線308及び第2の境界線310の内側にあるように、関数(図4の超平面304)を見つけるように構成されている。図4を参照すると、超平面304は、入力ベクトルxを出力ベクトルyにマッチさせる、すなわち目標値を予測する線として定義され得る。超平面304は、マージン306を最大化し、事前定義された誤差を最小化するように個別化される。マージン306の外にあるポイント(外部ポイント312など)がある場合、ペナルティがサポートベクトル回帰モデル300に組み込まれてもよい。超平面304を決定する前に、サポートベクトル回帰モデル300は、低次元のデータセットを高次元のデータセットに対応させるためにカーネル関数を採用してもよい。当業者が利用できる他の機械学習モデルが採用されてもよい。
機械学習モデル35は、ディープラーニングマップを使用して、f(x)がyにマッピングされるように活性化関数fを学習することによって、入力ベクトルxを出力ベクトルyにマッチさせることができる。訓練プロセスにより、機械学習モデル35は、入力ベクトルxを出力ベクトルyに変換するための適切な活性化関数f(x)を相関させることが可能になる。例えば、単純な線形回帰モデルの場合、バイアス及びスロープの、2つのパラメータが学習される。バイアスは、入力ベクトルxを0としたときの出力ベクトルyのレベルであり、傾きは、入力ベクトルxが1単位増加するごとに予測される出力ベクトルyの増加率又は減少率である。一度機械学習モデル35がそれぞれ訓練されると、入力ベクトルxの新しい値により出力ベクトルyの推定値が計算され得る。
図1を参照すると、コントローラCは、長距離ネットワーク44を介して、リモートサーバ40から1つ以上の訓練データセットを取得するように構成され得る。第1の機械学習モデル36及び第2の機械学習モデル38の訓練は、それぞれ、第1の患者のセット及び第2の患者セットのそれぞれの波面収差測定値及びそれぞれの測定された自覚的屈折検査に基づく等価球面度数値を有する、第1の訓練データセット及び第2の訓練データセットを受け取ることを含み得る。訓練データセットは、眼の生体測定パラメータに基づいて階層化され得る。言い換えれば、プロセスは、眼の同様のサイズの寸法又は他の健康状態係数に対する訓練データセットをグループ化する(例えば、緑内障に冒された患者を第1の患者セットに、網膜剥離の病歴に冒された患者を第2の患者のセットにグループ化する)ことによって最適化され得る。
1つの非限定的な例では、第1の訓練データセットにおける第1の患者のセットは、第1の事前定義された最大値及び第1の事前定義された最小値内に適合しているそれぞれの生体測定パラメータによって特徴付けられ得る。それぞれの生体測定パラメータは、前房の深さ、レンズの厚さ、レンズの直径、又は眼の他の物理的寸法であり得る。第2の訓練データセットにおける第2の患者のセットは、第2の事前定義された最大値及び第2の事前定義された最小値内に適合しているそれぞれの生体測定パラメータによって特徴付けられ得る。
第1及び第2の訓練入力値は、それぞれの波面収差測定値に基づいてそれぞれ取得され、第1の機械学習モデル36及び第2の機械学習モデル38のそれぞれの入力層に適用され得る。それぞれの測定された自覚的屈折検査に基づく等価球面度数値は、術前データ及び術後データを含み得る。それぞれの測定された自覚的屈折検査に基づく等価球面度数値は、第1の機械学習モデル36及び第2の機械学習モデル38のそれぞれの出力層に供給され得る。第1及び第2の訓練入力値は、それぞれ、第1の機械学習モデル36及び第2の機械学習モデル38のそれぞれのノードに関連する第1の複数の重み値及び第2の複数の重み値を生成するために使用され得る。これは、屈折デバイス12及び/又はコントローラCとは別の訓練プログラムによって行うことができる。
ここで、図5、図6、及び図7を参照すると、トポグラフィックガイドレーザ屈折補正研究を使用した適合モデルの様々な例を表す概略グラフが示されている。図5は、術前データのモデル適合線400を示しており、縦軸Y1は、測定された自覚的屈折検査に基づく等価球面度数(MRSE)値を示し、横軸X1は、予測されたMRSE値を示している。図6は、術後データのモデル適合線500を示しており、縦軸Y2は、測定されたMRSE値を示し、横軸X2は、予測されたMRSE値を示している。図5及び図6ではスケールが異なっており、図6はそれぞれの範囲がより小さいことに留意されたい。
図7は、術前及び術後データの両方に対するモデル適合線600及びそれぞれの輪郭610を示し、縦軸Y3は、測定されたlog MAR(最小分解能角度の対数)の未補正視力値を示し、横軸X3は、予測されたlog MAR(最小分解能角度の対数)の未補正視力値を示している。以下の表1及び表2は、図5及び図6の適合モデルの比較を示しており、それぞれ、2次ゼルニケ多項式及び4次ゼルニケ多項式の線形和である。
上記の表1及び表2に示されるように、機械学習モデル35は、視力品質を評価するための平均絶対予測誤差及び予測成功率の両方を改善する。加えて、システム10は、遠くにある物体を観察する際に瞳孔径を再スケーリングする必要性を排除する。
図1のコントローラCは、コンピュータによって(例えば、コンピュータのプロセッサによって)読み取られてもよいデータ(例えば、命令)を提供することに関係する非一時的(例えば、有形)媒体を含む、コンピュータ読取可能媒体(プロセッサ読取可能媒体とも称する)を含んでいる。このような媒体は、不揮発性媒体及び揮発性媒体を含むが限定されない多くの形態をとっていてもよい。不揮発性媒体としては、例えば、光ディスク又は磁気ディスク及び他の永続的メモリが挙げられ得る。揮発性媒体としては、例えば、主記憶デバイスを構成し得るダイナミックランダムアクセスメモリ(DRAM)が挙げられ得る。このような命令は、コンピュータのプロセッサに結合されたシステムバスを備える配線を含む、同軸ケーブル、銅線、及び光ファイバを含む1つ以上の伝送媒体によって伝送され得る。コンピュータ読取可能媒体のいくつかの形態としては、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、他の磁気媒体、CD-ROM、DVD、他の光媒体、パンチカード、紙テープ、他の孔のパターンを有する物理媒体、RAM、PROM、EPROM、フラッシュEEPROM、他のメモリチップ又はカートリッジ、又は他のコンピュータが読み取り可能な媒体が挙げられる。
本明細書に記載されるルックアップテーブル、データベース、データリポジトリ、又は他のデータストアは、階層型データベース、ファイルシステム内の一式のファイル、独自形式のアプリケーションデータベース、リレーショナルデータベース管理システム(RDBMS)などを含む、様々な種類のデータを格納、アクセス、及び取得するための様々な種類の機構を含み得る。それぞれのそのようなデータストアは、上述したようなコンピュータオペレーティングシステムを採用するコンピューティングデバイス内に含まれてもよく、様々な方法のうちの1つ以上でネットワークを介してアクセスされてもよい。ファイルシステムは、コンピュータオペレーティングシステムからアクセス可能であり、様々な形式で格納されたファイルを含むことができる。RDBMSは、上述のPL/SQL言語などのストアドプロシージャを作成、保存、編集、及び実行するための言語に加えて、構造化照会言語(Structured Query Language、SQL)を採用してもよい。
詳細な説明及び図面又は各図は、本開示をサポートし、説明するものであるが、本開示の範囲は、特許請求の範囲によってのみ定義される。特許請求の範囲に記載された開示を実施するための最良の態様及び他の実施形態のいくつかを詳細に説明したが、添付の特許請求の範囲において定義された開示を実施するための様々な代替的な設計及び実施形態が存在する。さらに、図面に示された実施形態又は本明細書で言及された様々な実施形態の特徴は、必ずしも互いに独立した実施形態として理解されるべきではない。むしろ、ある実施形態の例のうちの1つにおいて説明された特性のそれぞれは、他の実施形態からの1つ又は複数の他の望ましい特性と組み合わせることが可能であり、その結果、言葉で説明されていない、又は図面を参照することによって説明されていない、他の実施形態を得ることができる。したがって、このような他の実施形態は、添付の特許請求の範囲の枠組み内に含まれる。
Claims (17)
- 眼の視力品質を評価するためのシステムであって、
プロセッサと、命令が記録された有形の非一時的メモリとを有するコントローラであって、少なくとも1つの機械学習モデルを選択的に実行するよう構成されている、コントローラと、を備え、
前記プロセッサによって前記命令が実行されることにより、前記コントローラが、
前記眼の波面収差データを受信して、ゼルニケ多項式のコレクションとして前記波面収差データを表現させ、
前記ゼルニケ多項式のコレクションに基づいて、複数の入力係数を取得させ、
前記複数の入力係数を、前記複数の入力係数を分析するように訓練された、少なくとも1つの前記機械学習モデルに供給させ、
少なくとも1つの前記機械学習モデルを介して、前記複数の入力係数に部分的に基づいて少なくとも1つの視力補正係数を生成させる、システム。 - 前記複数の入力係数には、焦点ぼけ、一次球面収差、斜め非点収差、及び垂直非点収差に対するそれぞれの波面係数が含まれる、請求項1に記載のシステム。
- 少なくとも1つの前記視力補正係数が、自覚的屈折検査に基づく等価球面係数である、請求項1に記載のシステム。
- 少なくとも1つの前記視力補正係数が、log MAR(最小分解能角度の対数)の未補正視力係数である、請求項1に記載のシステム。
- 少なくとも1つの前記機械学習モデルが、ニューラルネットワークを組み込んでいる、請求項1に記載のシステム。
- 少なくとも1つの前記機械学習モデルが、サポートベクトル回帰モデルを組み込んでいる、請求項1に記載のシステム。
- 少なくとも1つの前記機械学習モデルが、第1の機械学習モデルを含み、前記第1の機械学習モデルを訓練することが、
それぞれの波面収差測定値、及び第1の患者のセットのそれぞれの測定された自覚的屈折検査に基づく等価球面度数値を有する、第1の訓練データセットを受信することと、
前記それぞれの波面収差測定値に基づいて第1の訓練入力値を取得し、前記訓練入力値を前記第1の機械学習モデルのそれぞれの入力層に適用することと、
前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値を、前記第1の機械学習モデルのそれぞれの出力層に供給することと、
前記第1の訓練入力値に部分的に基づいて、前記第1の機械学習モデルのそれぞれのノードに関連する第1の複数の重み値を生成することと、を含む、請求項1に記載のシステム。 - 前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値が、それぞれの術前データ及びそれぞれの術後データを含む、請求項7に記載のシステム。
- 前記第1の訓練データセットにおける前記第1の患者のセットが、それぞれの生体測定パラメータ及び/又はそれぞれの健康状態によって特徴付けられ、前記それぞれの生体測定パラメータが、第1の事前定義された最大値及び第1の事前定義された最小値内に適合している、請求項7に記載のシステム。
- 少なくとも1つの前記機械学習モデルが、第2の機械学習モデルを含み、前記第2の機械学習モデルを訓練することが、
前記それぞれの波面収差測定値、及び第2の患者のセットの前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値を有する、第2の訓練データセットを受信することと、
前記それぞれの波面収差測定値に基づいて第2の訓練入力値を取得し、前記第2の訓練入力値を前記第2の機械学習モデルの前記それぞれの入力層に適用することと、
前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値を、前記第2の機械学習モデルの前記それぞれの出力層に供給することと、
前記第2の訓練入力値に部分的に基づいて、前記第2の機械学習モデルのそれぞれのノードに関連する第2の複数の重み値を生成することと、を含む、請求項7に記載のシステム。 - 前記第2の訓練データセットにおける前記第2の患者のセットが、それぞれの生体測定パラメータ及び/又はそれぞれの健康状態によって特徴付けられ、前記それぞれの生体測定パラメータが、第2の事前定義された最大値及び第2の事前定義された最小値内に適合している、請求項10に記載のシステム。
- 眼の視力品質を評価する方法であって、
プロセッサと、有形の非一時的メモリとを有するコントローラを介して、前記眼の波面収差データを受信することであって、前記コントローラが、少なくとも1つの機械学習モデルを選択的に実行するように構成されている、ことと、
ゼルニケ多項式のコレクションとして前記波面収差データを表現することと、
前記ゼルニケ多項式のコレクションに基づいて、複数の入力係数を取得することと、
前記複数の入力係数を、前記複数の入力係数を分析するように訓練された、少なくとも1つの前記機械学習モデルに供給することと、
少なくとも1つの前記機械学習モデルを介して、前記複数の入力係数に部分的に基づいて少なくとも1つの視力補正係数を生成することと、を含む、方法。 - 少なくとも1つの前記機械学習モデルが、第1の機械学習モデルを含み、前記第1の機械学習モデルを訓練することが、
それぞれの波面収差測定値、及び第1の患者のセットのそれぞれの測定された自覚的屈折検査に基づく等価球面度数値を有する、第1の訓練データセットを受信することと、
前記それぞれの波面収差測定値に基づいて第1の訓練入力値を取得し、前記訓練入力値を前記第1の機械学習モデルのそれぞれの入力層に適用することと、
前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値を、前記第1の機械学習モデルのそれぞれの出力層に供給することと、
前記第1の訓練入力値に部分的に基づいて、前記第1の機械学習モデルのそれぞれのノードに関連する第1の複数の重み値を生成することと、を含む、請求項12に記載の方法。 - 前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値に、それぞれの術前データ及びそれぞれの術後データを含めること、を更に含む、請求項13に記載の方法。
- 前記第1の訓練データセットにおける前記第1の患者のセットを、それぞれの生体測定パラメータ及び/又はそれぞれの健康状態によって特徴付けることであって、前記それぞれの生体測定パラメータが、第1の事前定義された最大値及び第1の事前定義された最小値内に適合している、こと、を更に含む、請求項13に記載の方法。
- 少なくとも1つの前記機械学習モデルが、第2の機械学習モデルを含み、前記第2の機械学習モデルを訓練することが、
前記それぞれの波面収差測定値、及び第2の患者のセットの前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値を有する、第2の訓練データセットを受信することと、
前記それぞれの波面収差測定値に基づいて第2の訓練入力値を取得し、前記第2の訓練入力値を前記第2の機械学習モデルの前記それぞれの入力層に適用することと、
前記それぞれの測定された自覚的屈折検査に基づく等価球面度数値を、前記第2の機械学習モデルの前記それぞれの出力層に供給することと、
前記第2の訓練入力値に部分的に基づいて、前記第2の機械学習モデルのそれぞれのノードに関連する第2の複数の重み値を生成することと、を含む、請求項13に記載の方法。 - 前記第2の訓練データセットにおける前記第2の患者のセットを、それぞれの生体測定パラメータ及び/又はそれぞれの健康状態によって特徴付けることであって、前記それぞれの生体測定パラメータが、第2の事前定義された最大値及び第2の事前定義された最小値内に適合していること、を更に含む、請求項16に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962950425P | 2019-12-19 | 2019-12-19 | |
US62/950,425 | 2019-12-19 | ||
PCT/IB2020/062237 WO2021124285A1 (en) | 2019-12-19 | 2020-12-18 | Vision quality assessment based on machine learning model and wavefront analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023506940A true JP2023506940A (ja) | 2023-02-20 |
Family
ID=74003840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022537196A Pending JP2023506940A (ja) | 2019-12-19 | 2020-12-18 | 機械学習モデル及び波面分析に基づく視力品質評価 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11931104B2 (ja) |
EP (1) | EP4076141A1 (ja) |
JP (1) | JP2023506940A (ja) |
CN (1) | CN114845626A (ja) |
AU (1) | AU2020409013A1 (ja) |
CA (1) | CA3158689A1 (ja) |
WO (1) | WO2021124285A1 (ja) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7130835B2 (en) * | 2002-03-28 | 2006-10-31 | Bausch & Lomb Incorporated | System and method for predictive ophthalmic correction |
JP2007531559A (ja) * | 2004-02-20 | 2007-11-08 | オフソニックス,インク | 波面収差を解析するシステムおよび方法 |
US20070203478A1 (en) * | 2006-02-21 | 2007-08-30 | Herekar Satish V | Method and system for elasto-modulation of ocular tissue |
CN109788901B (zh) * | 2016-07-25 | 2024-01-02 | 奇跃公司 | 光场处理器系统 |
EP3321831B1 (de) * | 2016-11-14 | 2019-06-26 | Carl Zeiss Vision International GmbH | Vorrichtung zum ermitteln von prognostizierten subjektiven refraktionsdaten oder prognostizierten subjektiven korrektionsdaten und computerprogramm |
CN106873152B (zh) * | 2017-01-11 | 2019-01-25 | 浙江大学 | 一种基于机器学习的高速像差校正方法 |
WO2019075410A1 (en) * | 2017-10-13 | 2019-04-18 | Ai Technologies Inc. | DIAGNOSIS BASED ON DEEP LEARNING AND RECOMMENDATION OF OPHTHALMIC DISEASES AND DISORDERS |
CN110207835A (zh) * | 2019-05-23 | 2019-09-06 | 中国科学院光电技术研究所 | 一种基于离焦图像训练的波前校正方法 |
-
2020
- 2020-12-18 CN CN202080088635.5A patent/CN114845626A/zh active Pending
- 2020-12-18 AU AU2020409013A patent/AU2020409013A1/en active Pending
- 2020-12-18 WO PCT/IB2020/062237 patent/WO2021124285A1/en unknown
- 2020-12-18 EP EP20829027.0A patent/EP4076141A1/en active Pending
- 2020-12-18 JP JP2022537196A patent/JP2023506940A/ja active Pending
- 2020-12-18 CA CA3158689A patent/CA3158689A1/en active Pending
- 2020-12-18 US US17/127,693 patent/US11931104B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2021124285A1 (en) | 2021-06-24 |
CA3158689A1 (en) | 2021-06-24 |
US11931104B2 (en) | 2024-03-19 |
AU2020409013A1 (en) | 2022-06-09 |
CN114845626A (zh) | 2022-08-02 |
EP4076141A1 (en) | 2022-10-26 |
US20210186323A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111565677B (zh) | 用于眼内透镜选择的系统和方法 | |
JP6672529B2 (ja) | 予測自覚屈折データまたは予測矯正値を確定するための装置およびコンピュータプログラム | |
US11547484B2 (en) | Selection of intraocular lens based on a plurality of machine learning models | |
US20210369106A1 (en) | Selection of intraocular lens based on a predicted subjective outcome score | |
US20220189608A1 (en) | Selection of a preferred intraocular lens based on ray tracing | |
CN112102940A (zh) | 一种屈光检测方法、装置、计算机设备及存储介质 | |
AU2021101742A4 (en) | Method for Analyzing Relationship between Environmental Factors and Juvenile Myopia | |
US20240041653A1 (en) | Intelligent topographic corneal procedure advisor | |
JP2023506940A (ja) | 機械学習モデル及び波面分析に基づく視力品質評価 | |
US20230162828A1 (en) | Personalized assistance system for user of vision correction device | |
US20240188819A1 (en) | Vision quality assessment based on machine learning model and wavefront analysis | |
WO2021059080A1 (ja) | 統計モデルの作成方法、状態推定方法、および状態推定システム | |
US20230009821A1 (en) | Evaluation and control system for cornea and intraocular refractive surgery | |
US20230148859A1 (en) | Prediction of iol power | |
JPWO2019034525A5 (ja) | ||
JP2023548197A (ja) | 眼域の画像からの少なくとも一方の眼の眼科に関連するバイオメトリの判定 | |
CN116670569A (zh) | 基于大数据方法和机器学习的计算眼镜镜片的方法 | |
WO2023281366A1 (en) | System and method for selection of a preferred intraocular lens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231208 |