JP2023500466A - 偽水晶体患者用の視覚シミュレーションを提供するシステム及び方法 - Google Patents

偽水晶体患者用の視覚シミュレーションを提供するシステム及び方法 Download PDF

Info

Publication number
JP2023500466A
JP2023500466A JP2022525039A JP2022525039A JP2023500466A JP 2023500466 A JP2023500466 A JP 2023500466A JP 2022525039 A JP2022525039 A JP 2022525039A JP 2022525039 A JP2022525039 A JP 2022525039A JP 2023500466 A JP2023500466 A JP 2023500466A
Authority
JP
Japan
Prior art keywords
image
eye
eye model
scene
simulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022525039A
Other languages
English (en)
Inventor
サランガパニ ラメシュ
イン ルー
Original Assignee
アルコン インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルコン インコーポレイティド filed Critical アルコン インコーポレイティド
Publication of JP2023500466A publication Critical patent/JP2023500466A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Processing (AREA)
  • Prostheses (AREA)
  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

ある眼の状態を有する患者の視覚シミュレーションを提供するシステム及び方法が提示されている。現実世界シーンを表す合成画像が取得される。合成画像は複数の画像層を含み、各画像層は、現実世界シーン内の特定の視認距離にあるオブジェクトを表す。患者の眼の光学系を表す第1の眼モデルが生成される。視認者の眼の光学系を表す第2の眼モデルが生成される。第2の眼モデルは、数学関数を実行することによって修正される。患者の視覚を表すシミュレーション画像は、第1の眼モデル及び修正された第2の眼モデルを合成画像で畳み込むことによって生成される。いくつかの実施形態では、トーンマッピングアルゴリズムもまた、シミュレーション画像に適用されて、夜間シーンをシミュレーションすることができる。

Description

本開示は、視覚シミュレーション、より詳細には、本開示の様々な実施形態による眼内レンズを移植された患者の視覚をシミュレーションすることに関する。
白内障は、患者の眼の水晶体上に曇った領域が形成され、それが患者の視覚を妨げる状態である。白内障は、年配者にとって非常に一般的である。一般に、白内障は、眼の(白内障を伴う)自然水晶体を眼内レンズ(IOL)に置き換えることによって治癒され得る。患者は前から存在する眼の状態(例えば、老眼など)を有し得るため、白内障手術に続いて眼内に人工レンズを移植した患者は、患者に対して適切な度数及び特性を有するIOL(多焦点IOLなど)を使用することによって、様々な距離(例えば、長距離、近距離、及び中間距離など)において精緻な空間の詳細を視認する能力を取り戻すことができる。
患者に移植される様々なIOLの能力を示すために、白内障手術を受けることになる患者のシミュレーションされた視覚を提示することは有用であり、それによって、ユーザ(例えば、患者、患者に対してケアを提供する他の人々)は、白内障手術を受けるときに使用すべきIOLを決定することができる。しかしながら、患者の視覚シミュレーションを生成することは、患者が現実世界シーンで知覚するものをシミュレーションし、次いで、ユーザに検知される前にユーザの眼を通過することを意図したシミュレーション画像が、フラットスクリーン(例えば、タブレットディスプレイなど)上に提示されるため、困難であり得る。したがって、当該技術分野において、偽水晶体患者の視覚を正確にシミュレーションする視覚シミュレータを提供する必要性が存在する。
いくつかの実施形態によれば、システムは、非一時的メモリと、1つ以上のハードウェアプロセッサであって、非一時的メモリから命令を読み取って、システムに、患者の眼を表す第1の眼モデル、及び患者とは異なるユーザの眼を表す第2の眼モデルにアクセスすることと、シーンに対応する複数の画像層を含む合成画像を取得することであって、複数の画像層の各画像層が、シーン内の現実世界の寸法及び現実世界の視認距離に関連付けられたオブジェクトを含む、ことと、第2の眼モデルに対して数学関数を実行することによって、第2の眼モデルを修正することと、合成画像の複数の画像層の各画像層に対して第1の眼モデル及び修正された第2の眼モデルを適用することによって、シミュレーション画像を生成することと、を含む、動作を実行させるように構成された1つ以上のハードウェアプロセッサと、を含む。
いくつかの実施形態によれば、方法は、1つ以上のハードウェアプロセッサによって、患者の眼の生体情報に基づいて第1の眼モデルを生成することと、1つ以上のハードウェアプロセッサによって、患者とは異なるユーザの眼を表す第2の眼モデルにアクセスすることと、1つ以上のハードウェアプロセッサによって、シーンに対応する複数の画像層を含む合成画像を取得することであって、複数の画像層の各画像層が、シーン内の現実世界の寸法及び現実世界の視認距離に関連付けられたオブジェクトを含む、ことと、1つ以上のハードウェアプロセッサによって、第2の眼モデルに基づいて第1の眼モデルを修正することと、1つ以上のハードウェアプロセッサによって、合成画像の複数の画像層の各画像層に対して第1の眼モデルを適用することによって、シミュレーション画像を生成することと、を含む。
いくつかの実施形態によれば、機械読取可能命令を記憶した非一時的機械読取可能媒体であって、機械読取可能命令は、機械に、患者の眼を表す第1の眼モデル、及び患者とは異なるユーザの眼を表す第2の眼モデルにアクセスすることと、シーンに対応する複数の画像層を含む合成画像を取得することであって、複数の画像層の各画像層が、シーン内の現実世界の寸法及び現実世界の視認距離に関連付けられたオブジェクトを含む、ことと、第2の眼モデルに対して数学関数を実行することによって、第2の眼モデルを修正することと、合成画像の複数の画像層の各画像層に対して第1の眼モデル及び修正された第2の眼モデルを適用することによって、シミュレーション画像を生成することと、を含む、動作を実行させるように実行可能である。
本技術、本技術の特徴、及び本技術の利点をより完全に理解するために、添付の図面と併せて、以下の説明を参照する。
図1は、いくつかの実施形態による、シミュレーション画像を生成するシステムの図である。 図2Aは、いくつかの実施形態による、昼間シーンを表すシミュレーション画像を生成するプロセスを示す。 図2Bは、いくつかの実施形態による、夜間シーンを表すシミュレーション画像を生成するプロセスを示す。 図3は、いくつかの実施形態による、合成画像を示す。 図4Aは、いくつかの実施形態による、現実世界シーンの人間の知覚を示す。 図4Bは、いくつかの実施形態による、ダブルパス効果を示す。 図5Aは、いくつかの実施形態による、昼間シーンを表す別の合成画像を示す。 図5Bは、いくつかの実施形態による、夜間シーンを表す別の合成画像を示す。 図6A-6Bは、いくつかの実施形態による、処理システムの図である。
図面において、同一符号を有する要素は、同一又は類似の機能を有する。
発明の態様、実施形態、実装形態、又はモジュールを示すこの説明及び添付の図面は、限定するものとして解釈されるべきではなく、特許請求の範囲が、保護された発明を定義する。この説明及び特許請求の範囲の精神及び範囲から逸脱することなく、様々な機械的、構成的、構造的、電気的、及び動作上の変更を行ってもよい。場合によっては、本発明をあいまいにしないために、周知の回路、構造、又は技術は、図示又は詳細に説明されていない。2つ以上の図の類似の番号は、同一又は類似の要素を表す。
この説明において、本開示と一致するいくつかの実施形態を説明する特定の詳細が示されている。実施形態の完全な理解を提供するために、多数の特定の詳細が示されている。しかしながら、これらの具体的詳細の一部又は全部なしにいくつかの実施形態が実施されてもよいことは、当業者には明らかであろう。本明細書に開示された特定の実施形態は、限定的でなく、例示的であるように意図される。当業者であれば、本明細書に具体的に説明されないが、この開示の範囲及び精神の範囲内にある他の要素を実現してもよい。加えて、不必要な繰り返しを避けるために、一実施形態に関連して図示されて説明された1つ以上の特徴は、特に別途説明しない限り、又は1つ以上の特徴によって実施形態が機能しなくなる場合を除いて、他の実施形態に組み込まれてもよい。
以下に説明する技術は、白内障状態、老眼状態などの眼の状態を有する患者、又は眼内レンズ(IOL)を移植されている患者(偽水晶体患者とも呼ばれる)の視覚シミュレーションを提供するシステム及び方法を伴う。いくつかの実施形態では、視覚シミュレーションシステムは、不透明な自然水晶体がIOLに置き換えられている、白内障手術後の患者が現実世界シーンをどのように知覚するかをシミュレーションする画像を提示するように構成されている。例えば、視覚シミュレーションシステムは、1人以上のユーザが見る視認するために、シミュレーション画像をデジタルデバイス(例えば、タブレットディスプレイ)上に提示することができる。
患者の視覚をシミュレーションするシミュレーション画像を生成するために、視覚シミュレーションシステムは、最初に、異なる視認距離にあるオブジェクトの複数の層を有する合成画像を準備することができる。合成画像は、現実世界シーンの複数の画像層を組み合わせることによって生成することができ、異なる画像層は、異なる視認距離にあるオブジェクトを表す。したがって、画像層を組み合わせることにより、合成画像は、3次元の現実世界シーンを表すことができる。いくつかの実施形態では、合成画像は、現実世界シーンが患者の眼によってどのように視認されるかに従って較正される。すなわち、合成画像内の全てのオブジェクトは、推定される物理的サイズ及び視認距離によって定義される視角に設定される。
次いで、視覚シミュレーションシステムは、患者の眼を表す眼モデル(例えば、第1の眼モデル)を確立(例えば、取得又は生成)することができる。いくつかの実施形態では、第1の眼モデルは、1つ以上の点像分布関数(PSF)を含み得る。そのような実施形態では、PSFは、網膜画像を形成する際の患者の眼の光学系の特性に基づいて、異なる視認距離にあるオブジェクトからの光が患者の眼によってどのように集束されるかを表す。次に、視覚シミュレーションシステムは、第1の眼モデルを対応する層と畳み込むことによって合成画像の各層を修正し(例えば、ぼかし)、全てのぼけた層を一緒にブレンドして、シミュレーション画像を形成することができる。シミュレーション画像は、眼の光学系を通して、患者の眼の網膜上の現実世界シーンの実現を表している。いくつかの実施形態では、視覚シミュレーションシステムは、アルファブレンディングを使用してぼけた層を1つの平面にマージし、現実世界シーン内のオブジェクトオクルージョンを処理することができる。第1の眼モデルを現実世界シーンの画像に適用することにより、眼の患者が知覚する視覚を生成することができる。しかしながら、上述のように、シミュレーション画像はユーザの眼の前のフラットディスプレイ上に表示されるため、ダブルパス効果を回避するために、シミュレーション画像を生成する際にユーザの眼の光学系を考慮する必要がある。
ダブルパス効果は、ディスプレイ上に示されるシミュレーション画像が視認者に見られるときに、視認者の眼(例えば、ユーザの眼)内で発生し得る。本明細書で言及されるダブルパス効果は、視認者が視認したときに、眼の患者に関連付けられた第1の眼モデルを現実世界シーンに適用することによって生成されたシミュレーション画像が、視認者が検知する前に、視認者の眼の光学系によって更に処理されるという現象を説明している。したがって、シミュレーション画像は、画像が視認者によって検知されるときに、視認者(例えば、ユーザ)の眼の光学系によって更に処理される(例えば、ぼける)ものとして知覚される。現実世界シーンを視認するときに患者が実際に知覚するものを視認者が知覚するために(例えば、ダブルパス効果を排除するために)、シミュレーション画像をディスプレイ上に表示する前に、視認者の眼の光学系の効果をシミュレーション画像から差し引く必要がある。
したがって、いくつかの実施形態では、視覚シミュレーションシステムは、視認者の眼(例えば、ユーザの眼)の眼の光学系を表す別の眼モデル(例えば、第2の眼モデル)を確立することができる。次いで、視覚シミュレーションシステムは、第2の眼モデルに対して数学関数を実行することによって(例えば、第2の眼モデルに対して逆関数を実行することによって)第2の眼モデルを修正することができる。次に、視覚シミュレーションシステムは、修正された第2の眼モデルをシミュレーション画像に更に適用することによって、ダブルパス効果に対抗する(例えば、排除する)ことができる。例えば、合成画像を修正する際に、視覚シミュレーションシステムは、第1の眼モデル及び修正された第2の眼モデルを対応する層と畳み込むことによって、合成画像の各層を修正し(例えば、ぼかし)、次いでぼけた層を一緒にブレンドして、シミュレーション画像を形成することができる。
次いで、視覚シミュレーションシステムは、シミュレーション画像を表示デバイス(例えば、タブレットディスプレイ)に送信及び/又は提示することができる。合成画像は、合成画像の各ピクセルが特定の視角をなすように、オブジェクトの視認距離に基づいて較正されたため、シミュレーション画像は、事前設定された倍率で、及び合成画像の較正に対応する距離(例えば、40cm)で、ユーザによって視認される必要があることに留意されたい。したがって、視覚シミュレーションシステムはまた、シミュレーション画像がユーザに提示されるときに、画像に関連付けられた特定の視認距離でシミュレーション画像を視認するようにユーザに指示することができる。
上記の技術は、患者の昼間シーンの視覚をシミュレーションする際に効果的である。夜間シーンの場合、視覚シミュレーションシステムは、夜間シーンの潜在的により高いダイナミックレンジ、暗闇での光の強度(例えば、明るさ)の人間の知覚、及び光源の強度の(例えば、ハロー、スターバーストなどの視覚障害を引き起こす可能性がある)影響などの、追加の要因を考慮する必要がある。したがって、夜間シーンの患者の視覚をシミュレーションするに、夜間シーンに対して取得される合成画像が、高いダイナミックレンジ(HDR)を有し、その結果、ピクセル強度が光源の物理的強度に比例している必要がある。視覚シミュレーションエンジンは、最初に、昼間シーンのシミュレーションに関連する本明細書で説明する技術を使用して(例えば、第1の眼モデル及び修正された第2の眼モデルをHDR合成画像で畳み込むことによって)、HDR合成画像を処理することができる。視覚シミュレーションシステムは、トーンマッピングアルゴリズムを合成画像に適用することによりシミュレーション画像を更に処理して、HDR画像の強度範囲を標準(又は低)ダイナミックレンジに圧縮することができ、それによって、HDR画像の空間的特徴の可視性を維持し、及び画像が、標準(又は低)ダイナミックレンジの表示機能しか有しない表示デバイス上で適切に表示できるようにする。いくつかの実施形態では、視覚シミュレーションシステムは、最初に、画像を光源に対応する部分と非光源に対応する部分に分割し、シミュレーション画像の光源部分に対してのみトーンマッピングアルゴリズムを適用することができる。
図1は、いくつかの実施形態による、本明細書で論じられる視覚シミュレーションシステムが実装され得るシステム100を示している。システム100は、合成画像(例えば、昼間シーン用の通常の合成画像、又は夜間シーン用のHDR合成画像など)を生成するための合成画像生成器130、シミュレーション画像を生成するために1つ以上の眼モデルに基づいて合成画像を修正するための視覚シミュレーションエンジン102、及びシミュレーション画像をユーザに提示するための表示デバイス140を含む。示されるように、視覚シミュレーションエンジン102は、シミュレーションマネージャ104、1つ以上の患者の眼モデル106、1つ以上のユーザの眼モデル108、画像ブレンドモジュール110、及び夜間シミュレーションモジュール112を含む。いくつかの実施形態では、シミュレーションマネージャ104は、診断デバイス(図示せず)又はデータベース114から検索することによって、患者の眼に関する生体情報(例えば、瞳孔径、前房深度、角膜度数など)を取得することができる。次いで、シミュレーションマネージャは、複数の眼内レンズ(IOL)から、シミュレーション画像の特定のIOLを選択することができる。例えば、レンズ製造業者は、異なる光学設計及び/又は異なる度数を有する異なるIOLを製造することができる。いくつかの実施形態では、シミュレーションマネージャ104は、レンズ製造業者によって製造された複数のIOLから、患者の生体情報に基づいて特定のIOLを選択することができる。例えば、シミュレーションマネージャ104は、1つ以上の機械学習モデルを使用して、患者の生体情報に基づいて目標視覚品質を達成するために、患者に最適なレンズタイプを予測することができる。いくつかの実施形態では、シミュレーションマネージャ104はまた、表示デバイス140上に複数のIOLのリストを提示して、ユーザ(又は外科医)がシミュレーション画像を生成するための特定のIOLを選択することを可能にすることができる。次に、シミュレーションマネージャは、生体情報及び選択されたIOLに基づいて、第1の眼モデル(例えば、患者の眼モデル)を生成することができる。
シミュレーションマネージャ104はまた、第2の眼モデル(例えば、ユーザの眼モデル)を生成することができる。いくつかの実施形態では、シミュレーションマネージャ104は、(例えば、診断デバイスなどを介して)シミュレーション画像を視認することになるユーザの眼の生体情報を取得することができる。ユーザの生体情報を測定する代わりに、いくつかの実施形態のシミュレーションマネージャ104は、任意のユーザが視認するために使用できる平均的な人の眼に基づく一般的な眼モデルを単純に生成して、様々なユーザ用の生体情報を測定する必要を回避することができる。次に、シミュレーションマネージャ104は、画像修正モジュール110及び/又は夜間シミュレーションモジュール112を使用して、第1及び第2の眼モデルに基づいて合成画像を修正してシミュレーション画像を生成し、次いで、シミュレーション画像を表示デバイス140上に提示することができる。
図2Aは、本開示の一実施形態による、昼間シーンのシミュレーション画像をユーザに提供するためのプロセス200を示している。シミュレーション画像は、(例えば、患者の眼の光学系を通して)患者が知覚する昼間シーンを表している。いくつかの実施形態では、プロセス200は、視覚シミュレーションエンジン102によって実行され得る。上述のように、患者は、白内障状態、老眼状態、偽水晶体眼状態(例えば、眼の自然水晶体をIOLに置き換える白内障手術を受けた患者)などの異なる眼の状態を有し得る。いくつかの実施形態では、プロセス200は、不透明な自然水晶体がIOLに置き換えられている、白内障手術後の患者が現実世界シーンをどのように知覚するかをシミュレーションするシミュレーション画像を生成する。
プロセス200は、(ステップ205において)複数の画像層を含む合成画像を取得することによって始まる。例えば、シミュレーションマネージャ104は、合成画像生成器130から合成画像を取得することができる。合成画像は、現実世界シーンの複数の画像層を組み合わせることによって生成することができ、各画像層は、異なる視認距離にあるオブジェクトを表す。図3は、異なる画像層306a~306cを組み合わせることによって生成される合成画像304を示している。いくつかの実施形態では、異なる画像層306a~306cは、現実世界シーンから異なる視認距離にある異なるオブジェクトを表す。例えば、異なる画像層306a~306cのうち、画像層306aは、遠方視認距離にあるオブジェクト(例えば、山、背景)を表し、画像層306bは、中間視認距離にあるオブジェクト(例えば、地図)を表し、及び画像層306cは、近方視認距離にあるオブジェクト(例えば、コンパス)を表す。したがって、画像層306a~306cを組み合わせることによって、合成画像304は、3次元の現実世界シーンを表す。いくつかの実施形態では、合成画像は、現実世界シーンが眼の患者の眼によってどのように視認されるかに従って較正される。すなわち、合成画像内の全てのオブジェクトは、推定される物理的サイズ及び視認距離によって定義される視角に設定される。較正を行うため、各オブジェクト(各層内のオブジェクト)は、現実世界の物理的サイズ(例えば、heightobjectPhysical)と所定の視認距離(lviewingDistance)を想定している。オブジェクトによってなされる視角は、以下の式を使用して計算され得る。
Figure 2023500466000002
合成画像(例えば、合成画像306)の全ての層は、以下の式を使用して、ピクセルあたり同じラジアンを有するようにスケーリングされる。
Figure 2023500466000003
ここで、heightobjectPixelは、オブジェクトの高さ(ピクセル単位)である。
図5Aは、異なる画像層504~510を組み合わせることによって日中の運転シーンを表す別の合成画像502を示している。この例では、画像層504は、遠方視認距離にあるオブジェクト(例えば、他の車、道路、他の背景オブジェクト)を表し、画像層506は、中間視認距離(例えば、75cm)にあるオブジェクト(例えば、車のダッシュボード)を表し、画像層508は、別の中間視認距離(例えば、60cm)にあるオブジェクト(例えば、自動車のコンピュータ画面)を表し、及び画像層510は、近方視認距離(例えば、40cm)にあるオブジェクト(例えば、コーヒーカップ)を表す。
図4Aは、患者が現実世界シーン402をどのように知覚し得るかを示している。現実世界シーンからの光は、最初に患者の眼の光学系404を通過し、そこで、現実世界シーン402の異なる部分(例えば、現実世界シーン402の異なる部分から反射された光)が、眼の光学系404によりぼけて、網膜画像406を形成することができる。次に、網膜画像406は、患者の脳に到達し、網膜画像406に対して追加の処理(例えば、コントラストの増大、神経適応など)を実行して、現実世界シーン402の神経知覚408を生成し得る。このように、現実世界シーンにおけるオブジェクトの網膜投影が患者の眼の光学系を通してどのようにぼけるかをシミュレーションするために、患者の眼の光学系を表す第1の眼モデルが取得される。したがって、ステップ210において、プロセス200は、患者の眼を表す第1の眼モデルを確立する。
人間の眼の光学特性は、眼の全体の波面によって説明され得る。波面は、眼の瞳孔(例えば、角膜)平面において特徴付けられ、人間の眼の総光学収差を測定する。IOLが移植された偽水晶体眼の波面をシミュレーションするために、2面縮小眼モデルを構築することができる。2面縮小眼モデルには、以下の2つの面、すなわち、一方は患者の眼の角膜用、他方はIOL用、が含まれる。角膜面は、高次収差を有する場合があり、IOL用の面は、IOLの設計による光学回折構造を含む。いくつかの実施形態では、眼モデルによって表される生体情報(例えば、瞳孔径、前房深度、角膜度数など)は、(例えば、診断デバイスを使用して)患者の眼の測定値を得ることによって取得され得る。いくつかの実施形態では、生体情報は、以前に白内障手術を受けた偽水晶体眼から収集された臨床データに基づいて取得することができる。例えば、臨床データからのこれらの生体情報の平均値を使用して、平均的な偽水晶体眼を表すことができる。角膜乱視、及びIOL面のトーリック成分は、眼モデルの角膜平面において組み合わせられ得る。異なる視認距離に対する偽水晶体患者の視覚を計算するために、異なる視認距離に基づいて角膜平面における焦点ぼけ(ぼけ)を変更することができる。以下の表1は、2面縮小眼モデルの例示的なパラメータを表している。
Figure 2023500466000004
いくつかの実施形態では、人間の眼の光学的性能は、眼の波面から直接計算されるか、又は点像分布関数(PSF)から計算されるかのいずれかの様々な光学的メトリックを使用して定量化することができる。PSFは、網膜画像を形成する際の患者の眼の光学特性の特性に基づいて、異なる視認距離にあるオブジェクトからの光が患者の眼によってどのように集束される(及び/又はぼける)かの品質決めをする、眼の画像平面(例えば、眼の網膜)における波面に関連付けられた変換を表す。PSFは、オブジェクト空間の視角の(ラジアン)単位を使用して計算され得る。PSFのフーリエ変換は、眼の光学伝達関数(OTF)又は変調伝達関数(MTF)を生成することができる。PSFが空間ドメインにある間、OTFは、空間周波数ドメインにおいてPSFを表現する。一方、MTFは、OTFの係数であり、異なる空間周波数におけるコントラスト刺激に対する人間の眼の感度に関連する。PSF、OTF、及びMFTは全て、網膜画像(例えば、網膜画像406)を形成する際の眼の光学系の特性を記述している。
いくつかの実施形態では、第1の眼モデルは、患者の眼の生体情報(又は臨床データを使用して計算された生体情報)に基づくPSFを使用して生成することができる。例えば、シミュレーションマネージャ104は、生体情報を使用してPSFを計算することによって、第1の眼モデル(例えば、患者の眼モデル106)を生成することができる。次いで、シミュレーションマネージャ104は、第1の眼モデルの角膜平面において焦点ぼけ(例えば、ぼけ)及び角膜乱視を追加することができる。第1の眼モデルに追加される焦点ぼけの量は、視認距離に比例する(又は反比例する)場合がある。更に、第1の眼モデルの角膜平面において追加される角膜乱視の量は、患者の偽水晶体眼が非トーリック又はトーリックIOLに移植されたかどうかに依存し得る。いくつかの実施形態では、第1の眼モデルを生成するために、角膜前部高次収差(HOA)は使用されない。IOLの回折光学設計プロファイルは、波面として表現することができ、スケーリングを用いてIOL平面から角膜平面に投影することができる。スケーリング係数γPatientEyeは、以下の式を使用して計算され得る。
Figure 2023500466000005
入射瞳のサイズは、現実世界シーンの光の状態に応じて設定され得る。眼のスタイルクロフォード効果は、瞳孔アポダイゼーションとして計算に含められ得る。いくつかの実施形態では、550nmの波長を有する単色光を、PSFの計算の際に使用することができる。
いったん第1の眼モデル(例えば、患者の眼モデル160)が生成されると、シミュレーションマネージャ104は、第1の眼モデル160をデータベース114に記憶することができる。いくつかの実施形態では、現実世界シーン(例えば、現実世界シーン402)におけるオブジェクトの網膜投影が患者の眼の光学系を通してどのようにぼけるかをシミュレーションするために、シミュレーションマネージャ104は、(患者の眼の、眼の光学系を表す)第1の眼モデル160、例えば、本明細書に記載の技術を使用して計算されたPSFを使用して、合成画像(例えば、合成画像304)を修正してシミュレーション画像を形成することができる。例えば、シミュレーションマネージャ104は、以下の式に示されるように、合成画像(例えば、合成画像304)内の対応する画像層(例えば、画像層306a~306c)で第1の眼モデル(例えば、PSF)を畳み込むことができる。
Figure 2023500466000006
ここで、記号
Figure 2023500466000007
は、画像畳み込みを表し、スーパースクリプト「層」は、合成画像の各層に対して実行される計算を示す。
次いで、シミュレーションマネージャ104は、遠方から近方までの想定視認距離に応じて、異なる修正された画像層(例えば、第1の眼モデル160を対応する画像層と畳み込むことによって修正されている各画像層)を1つずつマージすることによって、シミュレーション画像を生成することができる。いくつかの実施形態では、シミュレーション画像が現実世界シーン402のオブジェクトオクルージョン及び境界を反映することを確実にするために、シミュレーションマネージャ104は、アルファブレンディング方法を使用して、異なる修正された画像層をマージすることができる。例えば、シミュレーションマネージャ104は、以下の式に示されるように、各画像層のアルファチャネルを対応するPSFと畳み込むことによって、ブレンドに使用されるアルファ値を計算することができる。
Figure 2023500466000008
いくつかの実施形態では、シミュレーションマネージャ104は、以下の式を使用して、遠方から近方までの想定視認距離に従って、異なる修正された画像層をアルファブレンドすることができる。
AlphaprecedingLayer=1-AlphacurrentLayer...(6)
しかしながら、本明細書で論じられるように、上述の技術を使用して第1の眼モデル160を画像層と畳み込むことによって生成されたシミュレーション画像は、神経伝達関数(NTF)に対するゲインがより高いコントラスト知覚を強化するための潜在的な神経適応など、人間の視覚システム内の追加の視覚処理をキャプチャしない場合がある。更に、シミュレーション画像はまた、シミュレーション画像が視認者によって見られるときの視認者の眼の光学系の影響を考慮に入れていない。図4Bに示されるように、シミュレーション画像412は、患者が現実世界シーン402をどのように知覚するかをシミュレーションする第1の眼モデル160に基づいて生成される(例えば、知覚された画像406)。しかしながら、ユーザがシミュレーション画像412を見るとき、シミュレーション画像412は、シミュレーション画像412のユーザの知覚416を形成する前に、ユーザの眼414の眼の光学系を通過し、ユーザの脳によって更に処理される。シミュレーション画像は視認者の眼の光学系を通して視認されるため、特に高い空間周波数において、画像のコントラストが更に失われ、これが、IOLを使用している患者の視覚での空間的明瞭さの認識低下につながる。この画質の低下は、多くの場合、ダブルパス効果と呼ばれる。したがって、シミュレーション画像416のユーザの知覚は、シミュレーション画像412と同じではない。
ダブルパス効果は、ディスプレイ上に示されるシミュレーション画像が視認者に見られるときに、視認者の眼(例えば、ユーザの眼)において発生し得る。本明細書で言及されるダブルパス効果は、視認者が視認したときに、眼の患者に関連付けられた第1の眼モデルを現実世界シーンに適用することによって生成されたシミュレーション画像が、視認者が検知する前に、視認者の眼の光学系によって更に処理される(例えば、ぼける)という現象を説明している。したがって、視認者がシミュレーション画像をどのように知覚するかは、シミュレーション画像とは異なる場合がある。したがって、以下の式に示されるように、画像が視認者によって検知されると、シミュレーション画像は、視認者(例えば、ユーザ)の眼の光学系によって更に処理される(例えば、ぼける)ものとして知覚される。
Figure 2023500466000009
式(7)に示されるように、ダブルパス効果により、視認者の眼の後ろに形成される画像は、患者の眼に対してシミュレーションされたものとは異なる。したがって、シミュレーション画像の視認者が、現実世界シーンを表示するときに患者が実際に知覚するものを知覚するために(例えば、ダブルパス効果を排除するために)、シミュレーション画像をディスプレイ上に提示する前に、視認者の眼の光学系の効果をシミュレーション画像から差し引く(例えば、シミュレーション画像において視認者の眼の光学的ぼけを事前補正する)必要がある。
第1に、シミュレーション画像は、視認者の眼の光学系を考慮しない以下の式を使用して、シミュレーションマネージャ104によって生成され得る。
Figure 2023500466000010
ここで、「F()」はフーリエ変換を表し、「F-1」は逆フーリエ変換を表す。OTFPatientEyeは、患者の眼の光学伝達関数であり、これはPSFPatientEyeのフーリエ変換である。
ダブルパス効果を補正するために、いくつかの実施形態のシミュレーションマネージャ104は、視認者の眼の光学系を表す第2の眼モデル(例えば、ユーザの眼モデル108)を生成することができる。したがって、プロセス200は、(ステップ215において)ユーザの眼を表す第2の眼モデルを取得する。いくつかの実施形態では、シミュレーションマネージャ104は、(例えば、診断デバイスなどを介して)シミュレーション画像を視認することになるユーザ(例えば、視認者)の眼の生体情報を取得することができる。一人一人のユーザの生体情報を測定する代わりに、いくつかの実施形態のシミュレーションマネージャ104は、「平均的な」人の眼に基づいて(例えば、過去に得られた健康な眼を有する患者に関連する臨床データ(所定の視力範囲内の通常の視覚)に基づいて)、単純に一般的な眼モデルを生成してもよい。次いで、シミュレーションマネージャ104は、患者の眼モデル106を生成することを参照することによって、本明細書に記載の技術を使用して、視認者の生体情報に基づいて第2の眼モデル108を生成することができる。例えば、第2の眼モデル108はまた、1つ以上のPSFとして表現することができ、これが、OTF及び/又はMTFに変換され得る。
視認者の眼の光学系を考慮に入れるために、シミュレーション画像は、以下の式を使用して、シミュレーションマネージャ104によって生成され得る。
Figure 2023500466000011
いくつかの実施形態では、異なる視認者間での眼の収差の変動により、シミュレーションマネージャ104は、以下の式に示されるように、OTFPatientEyeを、人間の眼の平均モジュラス伝達関数(MTF)(MTFaverageVeiwerEye)に置き換えることができる。
Figure 2023500466000012
視認者の生体情報が得られた場合、MTFaverageViewerEyeは、MTFviewerEyeに置き換えることができることに留意されたい。平均的な視認者のMTFを使用することにより、OTFviewerEyeの位相成分及び振幅成分の両方での個々の変動は無視されるが、MTFaverageViewerEyeは、異なる空間周波数におけるコントラストが平均的な視認者の眼の光学系を通してどのように伝達されているかを表すため、シミュレーションに関連する主要な光学特性を保持する。式(10)における第2の眼モデルの逆数(例えば、1/MTFaverageViewerEye)は、視認者の眼のダブルパス効果による平均コントラスト損失を補償する。式(10)はまた、以下のように表され得る。
Figure 2023500466000013
ここで、PSFdoublePassCorrectionは、以下のように表され得る。
Figure 2023500466000014
図2Aに戻り、プロセス200では、(ステップ220において)第1の眼モデル及び第2の眼モデルに基づいて合成画像を修正することによって、シミュレーション画像を生成する。例えば、シミュレーションマネージャ104は、画像修正モジュール110を使用して、第1の眼モデル106及び第2の眼モデル108に基づいて合成画像(例えば、合成画像304)を修正してシミュレーション画像を生成することができる。いくつかの実施形態では、画像修正モジュール110は、式(11)及び(12)を使用して、例えば、第1の眼モデル106(例えば、PSFPatientEye)及び第2の眼モデルの逆数(例えば、1/MTFaverageViewerEye)を合成画像304の各画像層と畳み込み、及び修正された画像層をブレンドすることによって、シミュレーション画像を生成することができる。
視認者の眼の光学系に加えて、神経適応はまた、視認者がシミュレーション画像をどのように知覚するかに影響を及ぼす。神経適応は、視覚的ぼけに適応する人間の視覚システムの能力である。具体的には、網膜画像(例えば、網膜画像406)が人間の脳に送信されると、脳は、コントラスト感度を自動的に増大させることによって、眼の光学系(又は他の要因)によって引き起こされる視覚的ぼけを適応させることができる。いくつかの実施形態では、シミュレーションマネージャ104は、神経伝達関数のゲインの増大として、平均的な人間の眼の神経適応をモデル化することができる。次いで、シミュレーションマネージャ104は、ダブルパス補正を参照することによって上述と同じ技術を使用して、シミュレーション画像に神経適応の効果を適用する。例えば、シミュレーションマネージャ104は、(例えば、第1の眼モデル及び第2の眼モデルに加えて)合成画像に(例えば、畳み込みされた)神経適応モデルを直接適用して、シミュレーション画像を生成することができる。いくつかの実施形態では、別のモデルを生成する代わりに、シミュレーションマネージャ104は、ダブルパス効果のPSFを合成画像に適用する前に、第2の眼モデルにおける神経適応のコントラスト増大効果を単純に適用することができる。
次に、プロセス200は、(ステップ225において)表示デバイスを介してシミュレーション画像をユーザに提示し、(ステップ230において)第1の眼モデルに関連付けられた特定の距離において提示された画像を視認するようにユーザに指示する。例えば、シミュレーションマネージャ104は、シミュレーション画像を表示デバイス140に送信して、表示デバイス140上に表示することができる。ダブルパス補正は、表示デバイスが特定の視認距離に配置されて患者に対する同じ視認条件を再現する場合にのみ正確であり、その結果、視認者は、現実世界シーン(例えば、現実世界シーン402)における空間スケールを体験できることに留意されたい。上述のように、合成画像(例えば、合成画像304)は、各ピクセルが、特定の画面サイズの表示デバイス用に対する特定の視角をなし、及び特定の視認距離で視認されるように較正された。したがって、シミュレーション画像は、特定の倍率(例えば、視認者の眼からの視認距離)で示される必要があり、それによって、表示画面上の画像ピクセルによる視認者の眼に対する物理的な視角は、シミュレーションにおいて患者の眼に対して想定されるものと同じになる。言い換えれば、画像内のオブジェクトは、患者に対する現実世界シーン内のオブジェクトと同じ視角を視認者に対してなす。例えば、シミュレーションマネージャ104は、所定の倍率でシミュレーション画像を提示することができ、(例えば、表示デバイス140を介して)40cmの視認距離においてシミュレーション画像を視認するように視認者に指示することができる。
上述の技術は、患者の昼間シーンの視覚をシミュレーションする際に効果的である。夜間シーンの場合、視覚シミュレーションシステムは、夜間シーンの潜在的により高いダイナミックレンジ、暗闇での光の強度(例えば、明るさ)の人間の知覚、及び光源の強度の(例えば、ハロー、スターバーストなどの視覚障害を引き起こす可能性がある)影響などの、追加の要因を考慮する必要がある。したがって、夜間シーンの患者の視覚をシミュレーションするに、夜間シーンに対して取得される合成画像が、高いダイナミックレンジ(HDR)を有し、その結果、ピクセル強度が光源の物理的強度に比例している必要がある。図2Bは、本開示の一実施形態による、夜間シーンの患者の知覚を表すシミュレーション画像を生成するためのプロセス232を示している。いくつかの実施形態では、プロセス232は、視覚シミュレーションエンジン102によって実行され得る。プロセス232は、(ステップ235において)夜間シーンを表す合成画像を取得することによって始まる。
図5Bは、夜間の運転シーンの合成画像520を示している。昼間シーンを表す合成画像304と同様に、合成画像520もまた、複数の画像層を含み、各画像層は、異なる視認距離にあるオブジェクトを表している。例えば、合成画像520は、遠方視認距離にあるオブジェクト(例えば、道路、対向車など)を表す画像層、中間の視認距離にあるオブジェクト(例えば、車のダッシュボード及びスクリーン)を表す画像層、及び近方視認距離にあるオブジェクト(例えば、コーヒーカップ)を表す画像層を含み得る。合成画像520のピクセル値は、夜間シーンにおける現実的な物理的光強度を表すため、合成画像520は、高ダイナミックレンジ(HDR)画像である。例えば、合成画像520内の光源(例えば、車のヘッドライト、ロードランプなど)を表すピクセルは、10,000cd/m以上のオーダーの光強度(例えば、輝度)を表すピクセル値を有し、一方、非光源を表すピクセルは、1cd/mのオーダーの光強度を表すピクセル値を有する。
次いで、プロセス232は、(ステップ240において)合成画像に基づいてシミュレーション画像を生成する。例えば、シミュレーションマネージャ104は、HDR合成画像(例えば、合成画像520)を処理するために(本明細書で図2Aを参照して説明されるように)昼間シーンのシミュレーションに関連する、本明細書で説明される技術を使用することができる。例えば、シミュレーションマネージャ104は、患者の眼を表す第1の眼モデルを確立し(図2Aのステップ210)、視認者の眼を表す第2の眼モデルを取得し(図2Aのステップ215)、及び第1の眼モデル及び第2の眼モデルに基づいて(例えば、式(12)及び(13)を使用して)合成画像520を修正することによって、シミュレーション画像を生成することができる。患者の眼の、眼の光学系を表す第1の眼モデルのPSFは、光が患者の眼の光学系を通過するときに(例えば、シーンの光源によって生成される)光がどのように広がるかを考慮に入れているため、合成画像を第1の眼モデルと畳み込むことによって、シミュレーション画像上に適切なハローを生成することができる。
いくつかの実施形態では、シミュレーションマネージャ104は、夜間シミュレーションモジュール112を使用して、シミュレーション画像を更に処理することができる。例えば、シミュレーションマネージャ104は、トーンマッピングアルゴリズムを合成画像520に適用して、HDR画像の強度範囲を標準(又は低)ダイナミックレンジに圧縮することができ、それによって、シミュレーション画像を、標準(又は低)ダイナミックレンジの表示機能しか有しない表示デバイス上で適切に表示できるようにする。いくつかの実施形態では、シミュレーションマネージャ104は、最初に、画像を光源に対応する部分(例えば、部分522)と非光源に対応する部分とに分割し、トーンマッピングアルゴリズムを、シミュレーション画像の光源部分522にのみ適用することができる。したがって、プロセス232は、(ステップ240において)夜間シーンの光源を表すシミュレーション画像の第1の領域を識別し、(ステップ245において)シミュレーション画像の少なくとも第1の領域にトーンマッピングアルゴリズムを適用することによって、シミュレーション画像を修正し、(ステップ250において)シミュレーション画像の第1の領域と残りの領域とを組み合わせる。1つの特定の例では、トーンマッピングアルゴリズムは、カットオフ輝度値(例えば、10,000cd/m)を定義し、それによって、カットオフ輝度値を上回る輝度値を有する任意のピクセル(例えば、第1の領域内のピクセル)は、最終的なシミュレーション画像の最大明度値(例えば、ピクセル値255)にマッピングされ、カットオフ輝度値を下回る輝度値を有するピクセルは、曲線に従って(例えば、線形方式、非線形方式などで)異なる明度値にマッピングされる。シミュレーション画像にトーンマッピングアルゴリズムを適用した後、プロセス232は、(ステップ260において)シミュレーション画像を表示デバイス上に提示する。例えば、シミュレーションマネージャ104は、シミュレーション画像を表示デバイス140に送信して、表示デバイス140上に表示することができる。
自然水晶体をIOLに置き換えた患者の視覚をシミュレーションすることに加えて、いくつかの実施形態の視覚シミュレーションエンジン102はまた、白内障の眼の状態、老眼の眼の状態などの他のタイプの眼の状態を有する患者の視覚をシミュレーションするシミュレーション画像を提示することができる。白内障を有する患者の視覚をシミュレーションするために、シミュレーションマネージャ104によって第1の眼モデルを生成して、白内障状態を有する眼の、眼の光学系を表すことができる。例えば、シミュレーションマネージャ104は、白内障の眼の波面を、位相遅延の空間変動を有する粗い面としてモデル化することができる。シミュレーションにおいて使用される波面の粗さ(空間変動の振幅及び変動の空間周波数の両方)は、白内障の重症度とともに増大する。白内障レンズの黄変及びレンズを通過する光の透過率の低下は、シミュレーション画像のRGBピクセル値を徐々に下げることによってシミュレーションされた。
図6A及び図6Bは、いくつかの実施形態による処理システムの図である。図6A及び46Bには2つの実施形態を示しているが、当業者であればまた、他のシステムの実施形態も可能であることを容易に理解するであろう。いくつかの実施形態によれば、図6A及び/又は6Bの処理システムは、レンズ選択プラットフォーム102、ECP装置130、140、及び150等のうちの1つ以上に含まれてもよいコンピューティングシステムを代表している。
図6Aは、システム600の構成要素がバス605を用いて互いに電気通信しているコンピューティングシステム600を示している。システム600は、プロセッサ610と、読み出し専用メモリ(ROM)620、ランダムアクセスメモリ(RAM)625等の形態のメモリ(例えば、PROM、EPROM、FLASH-EPROM、及び/又は他のメモリチップ若しくはカートリッジ)を含む様々なシステム構成要素をプロセッサ610に結合するシステムバス605と、を含む。システム600は更に、プロセッサ610に直接接続されるか、近接しているか、又はプロセッサ610の一部として統合されている、高速メモリのキャッシュ612を含んでいてもよい。システム600は、プロセッサ610による高速アクセスのために、キャッシュ612を介してROM620、RAM625、及び/又は1つ以上の記憶デバイス630に記憶されたデータにアクセスしてもよい。いくつかの実施例では、キャッシュ612は、メモリ615、ROM620、RAM625、及び/又はキャッシュ612に以前に記憶された1つ以上の記憶デバイス630からのデータにプロセッサ610がアクセスする際の遅延を回避するパフォーマンスブーストを提供してもよい。いくつかの実施例において、1つ以上の記憶デバイス630は、1つ以上のソフトウェアモジュール(例えば、ソフトウェアモジュール632、634、636等)を記憶する。ソフトウェアモジュール462、634、及び/又は636は、方法300及び/又は500のプロセス等の様々なアクションを実行するために、プロセッサ610を制御し、及び/又は制御するように構成されてもよい。また、システム600は1つのプロセッサ610のみを示しているが、プロセッサ610は、1つ以上の中央処理装置(CPU)、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、グラフィックス処理ユニット(GPU)、テンソル処理ユニット(TPU)等を代表してもよいことが理解されよう。いくつかの実施例において、システム400は、スタンドアロンサブシステムとして、及び/又はコンピューティング装置に追加されたボードとして、若しくは仮想マシンとして実装されてもよい。
ユーザがシステム600と対話するのを可能にするために、システム600は、1つ以上の通信インターフェース640及び/又は1つ以上の入出力(I/O)装置645を含む。いくつかの実施例において、1つ以上の通信インターフェース640は、1つ以上のネットワーク及び/又は通信バス規格に従って通信を提供するために、1つ以上のネットワークインターフェース、ネットワークインターフェースカード等を含んでいてもよい。いくつかの実施例において、1つ以上の通信インターフェース440は、ネットワーク115等のネットワークを介してシステム600と通信するためのインターフェースを含んでいてもよい。いくつかの実施例において、1つ以上のI/O装置645には、1つ以上のユーザインターフェース装置(例えば、キーボード、ポインティング/選択装置(例えば、マウス、タッチパッド、スクロールホイール、トラックボール、タッチスクリーン等))、オーディオ装置(例えば、マイクロフォン及び/又はスピーカ)、センサ、アクチュエータ、表示デバイス等を含んでいてもよい。
1つ以上の記憶デバイス630のそれぞれは、ハードディスク、光学媒体、ソリッドステートドライブ等によって提供されるもののような、非一時的及び不揮発性記憶デバイスを含んでいてもよい。いくつかの実施例において、1つ以上の記憶デバイス630のそれぞれは、システム600(例えば、ローカル記憶デバイス)と同じ場所に配置され、及び/又はシステム600(例えば、クラウド記憶デバイス)から離れて配置され得る。
図6Bは、本明細書中に説明する方法(例えば、方法300及び/又は510)のいずれかを実行する際に用いられてもよいチップセットアーキテクチャに基づくコンピューティングシステム650を示している。システム650は、ソフトウェア、ファームウェア、及び/又は1つ以上のCPU、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、DSP、FPGA、ASIC、GPU、TPU等の他の計算を実行してもよい、任意の数の物理的及び/又は論理的に個別のリソースを代表するプロセッサ655を含んでいてもよい。示されるように、プロセッサ655は、1つ以上のCPU、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、DSP、FPGA、ASIC、GPU、TPU、コプロセッサ、コーダ-デコーダ(CODEC)等も含み得る、1つ以上のチップセット660によって支援される。示されるように、1つ以上のチップセット660は、1つ以上のI/O装置665、1つ以上の記憶デバイス670、メモリ675、ブリッジ680、及び/又は1つ以上の通信インターフェース690のうちの1つ以上と共に、プロセッサ655とインターフェースする。いくつかの実施例において、1つ以上のI/O装置665、1つ以上の記憶デバイス670、メモリ、及び/又は1つ以上の通信インターフェース690は、図6A及びシステム600の同様に名付けられた対応物に対応してもよい。
いくつかの実施例において、ブリッジ680は、1つ以上のキーボード、ポインティング/選択装置(例えば、マウス、タッチパッド、スクロールホイール、トラックボール、タッチスクリーン等)、オーディオ装置(例えば、マイク及び/又はスピーカ)、表示デバイス等の、システム650に1つ以上のユーザインターフェース(UI)構成要素へのアクセスを提供するための追加のインターフェースを提供してもよい。いくつかの実施形態によれば、システム600及び/又は650は、方法200及び/又は232のプロセスの実行の際にユーザ(例えば、外科医及び/又は他の医療関係者)を支援するのに適したグラフィックユーザインターフェース(GUI)を提供してもよい。
上述の実施形態による方法は、非一時的で有形の機械読取可能媒体に記憶される実行可能命令として実装されてもよい。実行可能命令は、1つ以上のプロセッサ(例えば、プロセッサ610及び/又はプロセッサ655)によって実行されると、1つ以上のプロセッサに、方法200及び/又は210のプロセスのうちの1つ以上を実行させてもよい。方法200及び/又は210のプロセスを含んでいてもよい機械読取可能媒体のいくつかの一般的な形態は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD-ROM、任意の他の光学媒体、パンチカード、紙テープ、穴のパターンを有する任意の他の物理的媒体、RAM、PROM、EPROM、FLASH-EPROM、任意の他のメモリチップ若しくはカートリッジ、及び/又はプロセッサ若しくはコンピュータが読み取るように適合されている任意の他の媒体である。
これらの開示による方法を実装する装置は、ハードウェア、ファームウェア、及び/又はソフトウェアを含むことができ、及び様々なフォームファクタのいずれかを取ってもよい。かかるフォームファクタの典型的な例としては、ラップトップ、スマートフォン、スモールフォームファクタのパーソナルコンピュータ、携帯情報端末等が挙げられる。本明細書で記載されている機能性の一部はまた、周辺機器及び/又はアドインカードで具体化されてもよい。かかる機能性はまた、更なる例として、単一の装置において実行される異なるチップ又は異なるプロセスの中から回路基板上に実装されてもよい。
例示的な実施形態が示され、説明されてきたが、前述の開示では広範囲の修正、変更、及び置換が想定されており、場合によっては、実施形態のいくつかの特徴は、他の特徴の対応する使用なしに利用されてもよい。当業者であれば、多くの変形、代替、及び修正を認識するであろう。したがって、本発明の範囲は、以下の特許請求の範囲によってのみ限定されるべきであり、特許請求の範囲は、本明細書に開示される実施形態の範囲と一致する方法で広く解釈されることが適切である。

Claims (20)

  1. システムであって、
    非一時的メモリと、
    1つ以上のハードウェアプロセッサであって、前記非一時的メモリと結合され、及び前記非一時的メモリから命令を読み取って、前記システムに、
    患者の眼を表す第1の眼モデル、及び前記患者とは異なるユーザの眼を表す第2の眼モデルにアクセスすることと、
    シーンに対応する複数の画像層を含む合成画像を取得することであって、前記複数の画像層の各画像層が、前記シーン内の現実世界の寸法及び現実世界の視認距離に関連付けられたオブジェクトを含む、ことと、
    前記第2の眼モデルに対して数学関数を実行することによって、前記第2の眼モデルを修正することと、
    前記合成画像の前記複数の画像層の各画像層に対して前記第1の眼モデル及び前記修正された第2の眼モデルを適用することによって、シミュレーション画像を生成することと
    を含む、動作を実行させるように構成された、1つ以上のハードウェアプロセッサと、
    を備える、システム。
  2. 前記シーンが、昼間シーンであり、前記第2の眼モデルを前記修正することが、前記第2の眼モデルの逆数を生成することを含む、請求項1に記載のシステム。
  3. 前記動作が、表示デバイス上に前記シミュレーション画像を提示することを更に含む、請求項1に記載のシステム。
  4. 前記第1の眼モデルが、特定の倍率及び特定の視認距離に関連付けられ、前記動作が、表示デバイス上に前記特定の倍率で前記シミュレーション画像を提示し、及び前記特定の視認距離で前記表示デバイス上に提示された前記シミュレーション画像を視認するようにユーザに指示することを更に含む、請求項1に記載のシステム。
  5. 前記動作が、前記複数の画像層の各画像層内の前記オブジェクトに対して、前記関連付けられた現実世界の寸法及び前記現実世界の視認距離に基づいて視角を決定することによって、前記合成画像を較正することを更に含む、請求項1に記載のシステム。
  6. 前記第1の眼モデルが、特定の眼内レンズを有する偽水晶体眼を表す、請求項1に記載のシステム。
  7. 前記動作が、前記特定の眼内レンズの特性に少なくとも部分的に基づいて前記第1の眼モデルを生成することを更に含む、請求項6に記載のシステム。
  8. 1つ以上のハードウェアプロセッサによって、患者の眼の生体情報に基づいて第1の眼モデルを生成することと、
    前記1つ以上のハードウェアプロセッサによって、前記患者とは異なるユーザの眼を表す第2の眼モデルにアクセスすることと、
    前記1つ以上のハードウェアプロセッサによって、シーンに対応する複数の画像層を含む合成画像を取得することであって、前記複数の画像層の各画像層が、前記シーン内の現実世界の寸法及び現実世界の視認距離に関連付けられたオブジェクトを含む、ことと、
    前記1つ以上のハードウェアプロセッサによって、前記第2の眼モデルに基づいて前記第1の眼モデルを修正することと、
    前記1つ以上のハードウェアプロセッサによって、前記合成画像の前記複数の画像層の各画像層に対して前記第1の眼モデルを適用することによって、シミュレーション画像を生成することと
    を含む、方法。
  9. 前記シミュレーション画像を生成することが、前記複数の画像層をブレンドすることを更に含む、請求項8に記載の方法。
  10. 前記シーンが夜間シーンであり、前記方法が、
    前記シーンの光源を表す前記シミュレーション画像の第1の領域を識別することと、
    前記シミュレーション画像の前記第1の領域内のピクセルに対してトーンマッピングアルゴリズムを適用することによって、前記シミュレーション画像を修正することと、を更に含む、請求項8に記載の方法。
  11. 前記合成画像が高ダイナミックレンジ画像であり、前記合成画像内の各ピクセルが現実世界の輝度強度を表し、前記方法が、前記高ダイナミックレンジ画像を前記表示デバイスに関連付けられた標準ダイナミックレンジ画像に変換することを更に含む、請求項10に記載の方法。
  12. 前記第1の眼モデルが、点像分布関数を含む、請求項8に記載の方法。
  13. 前記シミュレーション画像を前記生成することが、前記複数の画像層の各画像層で前記第1の眼モデルを畳み込むことを含む、請求項8に記載の方法。
  14. 前記患者の前記眼が、偽水晶体、老眼、又は白内障を有する、のうちの1つである、請求項8に記載の方法。
  15. 前記ユーザの前記眼が、偽水晶体ではない、請求項8に記載の方法。
  16. 機械読取可能命令を記憶している非一時的機械読取可能媒体であって、前記機械読取可能命令が、機械に、
    患者の眼を表す第1の眼モデル、及び前記患者とは異なるユーザの眼を表す第2の眼モデルにアクセスすることと、
    シーンに対応する複数の画像層を含む合成画像を取得することであって、前記複数の画像層の各画像層が、前記シーン内の現実世界の寸法及び現実世界の視認距離に関連付けられたオブジェクトを含む、ことと、
    前記第2の眼モデルに対して数学関数を実行することによって、前記第2の眼モデルを修正することと、
    前記合成画像の前記複数の画像層の各画像層に対して前記第1の眼モデル及び前記修正された第2の眼モデルを適用することによって、シミュレーション画像を生成することと
    を含む、動作を実行させるように実行可能である、非一時的機械読取可能媒体。
  17. 前記シーンが昼間シーンであり、前記第2の眼モデルを前記修正することが、前記第2の眼モデルの逆数を生成することを含む、請求項16に記載の非一時的機械読取可能媒体。
  18. 前記動作が、表示デバイス上に前記シミュレーション画像を提示することを更に含む、請求項16に記載の非一時的機械読取可能媒体。
  19. 前記第1の眼モデルが、特定の倍率及び特定の視認距離に関連付けられ、前記動作が、表示デバイス上に前記特定の倍率で前記シミュレーション画像を提示し、及び前記特定の視認距離で前記表示デバイス上に提示された前記シミュレーション画像を視認するようにユーザに指示することを更に含む、請求項16に記載の非一時的機械読取可能媒体。
  20. 前記シーンが夜間シーンであり、前記動作が、
    前記シーンの光源を表す前記シミュレーション画像の第1の領域を識別することと、
    前記シミュレーション画像の前記第1の領域内のピクセルに対してトーンマッピングアルゴリズムを適用することによって、前記シミュレーション画像を修正することと、を更に含む、請求項16に記載の非一時的機械読取可能媒体。
JP2022525039A 2019-10-31 2020-10-22 偽水晶体患者用の視覚シミュレーションを提供するシステム及び方法 Pending JP2023500466A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962928614P 2019-10-31 2019-10-31
US62/928,614 2019-10-31
PCT/IB2020/059957 WO2021084390A1 (en) 2019-10-31 2020-10-22 Systems and methods for providing vision simulation for pseudophakic patients

Publications (1)

Publication Number Publication Date
JP2023500466A true JP2023500466A (ja) 2023-01-06

Family

ID=73040183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022525039A Pending JP2023500466A (ja) 2019-10-31 2020-10-22 偽水晶体患者用の視覚シミュレーションを提供するシステム及び方法

Country Status (7)

Country Link
US (1) US11790582B2 (ja)
EP (1) EP4018459A1 (ja)
JP (1) JP2023500466A (ja)
CN (1) CN114600164A (ja)
AU (1) AU2020377149A1 (ja)
CA (1) CA3150801A1 (ja)
WO (1) WO2021084390A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230163701A (ko) * 2022-05-24 2023-12-01 경상국립대학교산학협력단 렌즈 시뮬레이션 방법 및 그 시스템
CN115712363A (zh) * 2022-11-21 2023-02-24 北京中科睿医信息科技有限公司 界面色彩显示方法、装置、设备及介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5552842A (en) * 1994-11-10 1996-09-03 Vision Sciences Research Corp. Process and apparatus for generating comparison image representative of actual subject view
CA2172471C (en) 1995-03-29 1999-01-26 Hua Qi Apparatus for and method of simulating ocular optical system
US8747466B2 (en) * 2007-08-27 2014-06-10 Amo Groningen, B.V. Intraocular lens having extended depth of focus
JP6349751B2 (ja) * 2014-02-03 2018-07-04 株式会社ニデック 眼科用情報処理プログラム
KR101808852B1 (ko) 2015-08-18 2017-12-13 권혁제 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법
US20180074344A1 (en) * 2016-09-05 2018-03-15 Nidek Co., Ltd. Method for generating information for assisting lens prescription
US10409071B2 (en) * 2017-09-27 2019-09-10 University Of Miami Visual enhancement for dynamic vision defects
KR102550325B1 (ko) * 2017-12-20 2023-06-30 엘지디스플레이 주식회사 마이크로led 표시장치 및 그 구동방법
JP7254477B2 (ja) * 2018-10-26 2023-04-10 キヤノン株式会社 表示装置およびその制御方法

Also Published As

Publication number Publication date
EP4018459A1 (en) 2022-06-29
US20210134035A1 (en) 2021-05-06
US11790582B2 (en) 2023-10-17
CN114600164A (zh) 2022-06-07
WO2021084390A1 (en) 2021-05-06
AU2020377149A1 (en) 2022-03-31
CA3150801A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
Pamplona et al. Tailored displays to compensate for visual aberrations
JP5921533B2 (ja) 観察者の視覚障害を補正するための表示を表現するシステム、方法、およびそのプログラムを格納している記憶媒体
US7524065B1 (en) Vision testing with rendered digital imagery modification under viewer control
Barsky Vision-realistic rendering: simulation of the scanned foveal image from wavefront data of human subjects
Ritschel et al. Temporal glare: Real‐time dynamic simulation of the scattering in the human eye
EP3189514A1 (en) Altered vision via streamed optical remapping
JP2023500466A (ja) 偽水晶体患者用の視覚シミュレーションを提供するシステム及び方法
Krösl et al. Icthroughvr: Illuminating cataracts through virtual reality
Montalto et al. A total variation approach for customizing imagery to improve visual acuity
Lian et al. Ray tracing 3D spectral scenes through human optics models
Luidolt et al. Gaze-dependent simulation of light perception in virtual reality
Barsky et al. Introducing vision-realistic rendering
CN110598652B (zh) 眼底数据预测方法和设备
US11543655B1 (en) Rendering for multi-focus display systems
JP2015094788A (ja) 表示装置および表示制御プログラム
Csoba et al. Rendering algorithms for aberrated human vision simulation
JP2016532147A (ja) 眼科レンズの視覚的効果を特定する方法
WO2023059276A1 (en) A method of post-operative vision simulation and system implementing the same
Lima et al. Real-time simulation of accommodation and low-order aberrations of the human eye using light-gathering trees
Schulz et al. A framework for pervasive visual deficiency simulation
Barsky Vision-realistic rendering: simulation of the scanned foveal image with elimination of artifacts due to occlusion and discretization
JP3328095B2 (ja) 眼光学系のシミュレーション装置及び眼光学系のシミュレーション方法
Krösl Simulating Cataracts in Virtual Reality
Acevedo et al. Real-time low vision simulation in mixed reality
Csoba et al. Fast rendering of central and peripheral human visual aberrations across the entire visual field with interactive personalization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231012