JP2023505173A - 一体化された視覚化カメラ及び光学コヒーレンストモグラフィを用いた外科的応用 - Google Patents
一体化された視覚化カメラ及び光学コヒーレンストモグラフィを用いた外科的応用 Download PDFInfo
- Publication number
- JP2023505173A JP2023505173A JP2022533228A JP2022533228A JP2023505173A JP 2023505173 A JP2023505173 A JP 2023505173A JP 2022533228 A JP2022533228 A JP 2022533228A JP 2022533228 A JP2022533228 A JP 2022533228A JP 2023505173 A JP2023505173 A JP 2023505173A
- Authority
- JP
- Japan
- Prior art keywords
- oct
- module
- controller
- stereoscopic
- volume data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012014 optical coherence tomography Methods 0.000 title claims abstract description 244
- 238000012800 visualization Methods 0.000 title claims abstract description 238
- 238000000034 method Methods 0.000 claims abstract description 64
- 239000002131 composite material Substances 0.000 claims abstract description 39
- 238000009877 rendering Methods 0.000 claims abstract description 30
- 210000001508 eye Anatomy 0.000 claims description 92
- 210000003128 head Anatomy 0.000 claims description 41
- 210000004087 cornea Anatomy 0.000 claims description 37
- 238000005259 measurement Methods 0.000 claims description 24
- 238000012876 topography Methods 0.000 claims description 18
- 238000001356 surgical procedure Methods 0.000 claims description 16
- 230000002159 abnormal effect Effects 0.000 claims description 12
- 210000005252 bulbus oculi Anatomy 0.000 claims description 11
- 201000009310 astigmatism Diseases 0.000 claims description 10
- 230000004323 axial length Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000872 buffer Substances 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 208000002177 Cataract Diseases 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 description 75
- 238000003384 imaging method Methods 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 14
- 238000005070 sampling Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000009466 transformation Effects 0.000 description 13
- 210000001519 tissue Anatomy 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 8
- 210000001525 retina Anatomy 0.000 description 8
- 239000000463 material Substances 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 230000002207 retinal effect Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000037303 wrinkles Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000013213 extrapolation Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000002054 transplantation Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002513 implantation Methods 0.000 description 3
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011088 calibration curve Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 210000004127 vitreous body Anatomy 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 210000002159 anterior chamber Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 229910052804 chromium Inorganic materials 0.000 description 1
- 239000011651 chromium Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 210000000458 cuboid bone Anatomy 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003090 exacerbative effect Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/107—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/13—Ophthalmic microscopes
- A61B3/132—Ophthalmic microscopes in binocular arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/00736—Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/008—Methods or devices for eye surgery using laser
- A61F9/00825—Methods or devices for eye surgery using laser for photodisruption
- A61F9/00834—Inlays; Onlays; Intraocular lenses [IOL]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/008—Methods or devices for eye surgery using laser
- A61F2009/00844—Feedback systems
- A61F2009/00846—Eyetracking
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/008—Methods or devices for eye surgery using laser
- A61F2009/00844—Feedback systems
- A61F2009/00851—Optical coherence topography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/008—Methods or devices for eye surgery using laser
- A61F2009/00855—Calibration of the laser system
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Vascular Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本願は、2019年12月5日出願の米国仮特許出願第62/943965号明細書に対する優先権及び利益を主張し、その内容の全てを引用し、本明細書中に組み込む。
図1を参照すると、少なくとも1つのセレクタ22をヘッドユニット18に取り付けて、倍率、フォーカス、及び他の特徴等の特定の特徴を選択し得る。セレクタ22を利用して、オペレータがヘッドユニット18を手動で位置決めできるようにし得る。システム10は、ヘッドユニット18に動作可能に接続され、ヘッドユニット18を選択的に移動させるように構成されたロボットアーム24を含み得る。例えば、図2を参照すると、ロボットアーム24は、軸方向A、第1の横断方向T1、及び第2の横断方向T2においてOCTモジュール14の閲覧範囲を拡張するように選択的に動作可能であり得る。
図3をこれより参照して、システム10の実施態様例又は方法100のフローチャートを示す。方法100は、本明細書に記載された特定の順序で適用される必要はなく、幾つかのブロックが省略されてもよいことが理解される。メモリMはコントローラ実行可能命令セットを記憶することができ、プロセッサPはメモリMに記憶されたコントローラ実行可能命令セットを実行することができる。方法100は、立体視覚化カメラ12及び光学コヒーレンストモグラフィ(OCT)モジュール14に基づいて共有複合ビューを特定できるようにする。
図4A、図4B、図4C、及び図4Dをこれより参照して、OCTモジュール14のスキャン領域例を示す。図4A及び図4Bはスキャンパターン例の概略断片斜視図であり、一方、図4C及び図4Dはスキャンパターン例の概略断片上面図である。図4Aを参照すると、標的部位16のスポットスキャン60に向けられた単一スキャンは、第1のビームB1が入射方向に沿って向けられる物理的サンプルの構造の深度スキャン202を生成する。図4Aを参照すると、深度スキャン202は「Aスキャン」と呼ぶことができ、軸方向Aに沿って検出される深度204にスキャンするように構成される。図2に示される例では第1の光源40の移動方向である軸方向A。
システム10のサンプリング分解能は、軸方向A(Aスキャンの方向)での分解能、単一Aスキャンの直径、及び2つの残りの方向、即ち第1の横断方向T1及び第2の横断方向T2の各々での隣接するAスキャンの隔たりの関数である。一例では、2つの異なる軸方向分解能が可能である:高深度低分解能」モードでの第1の軸方向分解能及び「低深度高分解能」モードでの第2の軸方向分解能。一例では、第1及び第2の軸方向分解能はそれぞれ概ね20マイクロメートル(20μm)及び2マイクロメートル(2μm)である。この実施形態では、2つの異なる光源を使用して異なる軸方向分解能を実施し得る:「低深度高分解能」用の高帯域幅光源及び「高深度低分解能」用の低帯域幅光源。最適な実行のために、各光源はそれ自体の検出器/分光計と組み合わせられて、結果として生じる帯域幅を最良に利用し得る。光源/分光計対間の切り替えは、光学スイッチ(図示せず)を使用して達成し得る。
図4Dを参照すると、他のスキャンパターンが操縦ユニット64の相対的タイミングを変えることによって可能である。例えば、径方向スキャンパターン250を実施し得、ここで、円形領域252が例えばスキャン開始点254から開始され、径方向パス256に沿って進み、パス258に沿って「ステップ」及びサンプルパス260の「リピート」(又は他の実施形態ではサンプルパス260に沿った連続移動)を実行してサンプリングされる。このスキャンを簡易化したより高速のバージョンは、一対のスキャンが横断方向において互いに垂直に向けられた「2つのBスキャン」プロセスを含み得、それにより、これらの正弦されたスキャンで移動を検出することができるような速度まで標的部位16の移動のより高速の決定が可能になる。
システム10は、2つの撮像モダリティによって提供された情報を融合するように構成される:立体視覚化カメラ12及びOCTモジュール14。立体視覚化カメラ12は2つの2D視覚化モジュールV1、V2、例えば立体画像の左ビュー及び右ビューを一般に提供する2台のカメラを含む。立体視覚化カメラ12及びOCTモジュール14の画像空間情報を正確且つ臨床的に有用な融合を可能にするために、システム10は、まるで全次元で同じ三次元物体を表すかのように2つの撮像モダリティの各々によってそれぞれ作られた捕捉をユーザに表現するように構成される。各モダリティからの標的部位16の特定の部分からのデータは、同じ場所に表示されなければならず、又は同じ場所にあることを他の方法で暗示しなければならない。さらに、システム10は、全次元にわたり複数の次元を表現する画像について、画像全体を通してサイズ及び向きが合致する(本明細書では視点の合致と呼ばれる)ように構成される。さらに、立体視覚化及び立体OCT画像の両方の融合表示を含む実施形態では、各モダリティからの左ビュー及び右ビューが組み合わせられて、画像セットを構成することが求められる。最適な制度及び視覚的快適性のために、各モダリティの第1及び第2のビューは各々、各眼内距離、スケール、視点、及び向き等の同一の立体パラメータを有するように見えなければならない。
OCTモジュール14の較正は、軸方向較正及び横断較正を含む。さらに、第1のビームB1が標的部位16を透過する材料の屈折率の補償を行わなければならない。種々の環境条件で較正を実行し、現在の条件への結果の補間及び外挿を行うことにより、環境変動を補償し得る。例えば、軸方向較正をヘッドユニット18の予期される動作範囲にわたって複数の温度で実行し得、温度に応じた結果を種々の複雑性の較正曲線にフィッティングする。次いでヘッドユニット18の構成要素の動作温度を手術時に測定し得、較正曲線を使用して、現在の手術に正確な軸方向較正を決定し得る。
軸方向較正とは、深度方向又は軸方向Aに沿ったOCTデータのピクセルが物理的単位、例えばミリメートル(1/1000メートル)又はマイクロメートル(1/1000ミリメートル)に変換されるような第1のビームB1(図2参照)に沿った距離の較正である。図6Aは、OCTモジュール14の基準アーム46における軸方向較正セットアップ400の概略図である。図6Aは、ビームスプリッタ42及び基準アーム反射デバイス62を示す。基準アーム反射デバイス62は平坦な第1表面ミラーであり得る。他の実施形態では、基準アーム反射デバイス62は、最小の損失で制御された方向に沿ってビームを反射することが可能なコーナキューブ又は他の光学得構造であり得る。図6Aを参照すると、軸方向較正セットアップ400は、基準アーム46に制御及び読み出しモジュール406を有する較正線形運動機構又はリニアアクチュエータ404を含む。
OCTスキャン空間の第1及び第2の横断次元T1、T2の各々における較正は、OCTモジュール14を用いてパターン化された標的を見ることによって達成される。パターン化された標的500の一例を図8Aに示す。パターン化された標的500は、複数の尺度の既知の各幅504、高さ506、及び各ギャップ508を有する複数のバーパターン502を有する。パターン化された標的500は、主に平坦な基板上にプリントされるか、又は他の方法で見えるようにし得る。パターン化された標的500の厚さは、他の2次元よりもはるかに小さな大きさであるように構成される。これは、付影等の第3の次元を撮像することの横断構成に対する潜在的な悪影響を低減する。例えば、パターン化された標的500は、例えば、正の最大標的幅5mm及び厚さ約1μm又は10μmで、ガラス基板上にクロムを用いてフォトリソグラフィを介してプリントし得る。
図2を参照すると、OCTモジュール14の第1のビームB1は一般にAスキャンにわたって非平行である。これは、狭いソース及び狭いビームがソース及びビームよりもはるかに広いボリュームにわたって向けられることが生じ、本明細書ではファン歪み(fan distortion)と呼ばれる。OCTモジュール14からの軸方向距離が様々な較正デバイスを用いて行われた複数のスキャン間で較正デバイスのピクセルパターンを比較することにより、ファン歪みを考慮に入れるための改良を行い得る。軸方向距離の変化は、例えば、図8Aに示す等の較正されたリニアアクチュエータ404を使用して行われることにより、軸方向較正ステップから分かる。OCT画像データにおける正及び負の標的領域の分離は、当業者が利用可能なエッジ検出のための画像処理アルゴリズムを使用して自動化し得る。
軸方向オフセットが任意選択的にいかに調整されて、OCTデータの「開始」が物理的空間において軸方向で生じる場所を制御するかと同様に、横断スキャンエリアも調整されて、物理的空間において両横断次元(例えば図4Aにおける第1及び第2の横断次元T1、T2)でOCTデータの「開始」又は「原点」が生じる場所を制御し得る。このオフセットの制御は、OCTモジュール14のスポットスキャン60が所与のシーンの周囲で移動するこができるように有用であるだけでなく、基準点又はOCTモジュール14に対して相対的又は絶対的な既知の場所にその原点を設定するのに有用である。例えば、立体視覚化カメラ12の2つの2D視覚化モジュールV1、V2のうちの一方の焦点面の左上隅をそのような基準点として使用し得る。横断オフセットの測定は、上記横断較正方法を使用して見出し得、後に使用するために記録し得る。
図10Aは、標的空間を定義する較正デバイスに対するOCTモジュールの各データ空間の場所及び向きを特定するセットアップ700の概略斜視図である。図1に関して先に触れたように、システム10は、ヘッドユニット18に動作可能に接続され、ヘッドユニット18を選択的に移動させるように構成されたロボットアーム24を含み得る。標的空間の標的空間原点702(及び向き)は、ロボットベース(ロボット基準系としても知られる)に対して既知の場所に標的を置くロボットアーム24にヘッドユニット18を取り付けることにより、ヘッドユニット18(立体視覚化カメラ12及びOCTモジュール14の各部分を収容する)に対して取得し得る。ロボットアーム24のジョイント角及びリンク長は、測定により、例えばロボットセンサを読み取ることにより取得し得、又は知られ得る。別の実施形態では、図1を参照すると、ヘッドユニット18の各マウント及び較正標的520を有する取り付けスタンド25を利用し得、各マウントは既知の相対位置及び向きを有する。
図10Aを参照すると、各OCT拡張710によって区切られた較正標的520を含む現実世界空間が、軸方向Aに沿った単一Aスキャン712の配置、第1の横断方向T1におけるBスキャン718を構成する複数のAスキャンの第1のグループ716、及び第2の横断方向T2における複数のBスキャンの第2のグループ720と共に示されている。標的空間原点702に対するOCT空間原点704は、OCTデータの3つの直交ビューO1、O2、及びO3の各々における較正標的520の第1の表面に線をフィッティングすることによって特定し得る。
図11A及び図11Bは、立体視覚化カメラ12の2つの単一視覚ビューのうちの一方に対する較正標的520の場所及び向きを示すセットアップ800の概略斜視図である。所与の撮像モダリティを用いて所与のシーンを見ることは、撮像モダリティの画像空間へのシーンビューの「捕捉」に繋がる。シーン捕捉は、ピンホールカメラモデルの使用を含め、幾つかの方法でモデリングし得る。所与のズーム及び作業距離設定において、立体視覚化カメラ12の2D視覚化モジュールV1、V2は、シーン(例えば較正標的520等)からの光が投影中心(COP)802としても知られている単一の「ピンホール」を通り仮想画像804等イメージセンサ806に投影される単純なピンホールカメラとしてモデリングし得る。これは、各2D視覚化モジュールV1、V2の較正標的520の二次元画像820(図11B参照)を生成する。モノクロのセンサ及び画像ピクセルでは、画像はピクセルの二次元グリッドであり、ピクセルの値は、センサ内の対応する感光素子に落ちる較正標的520の部分から来た光に関連する。カラーピクチャでは、赤、緑、及び青のフィルタをセンサピクセル上で利用し得、再結合アルゴリズムを使用して色を結合し、カラー出力ピクセルにし得る。
OCTモジュールの画像空間へのシーン又は標的部位16のビューの単一Aスキャン又は深度スキャン202の捕捉は、単一線のデータを生成する。これは概念的に、立体視覚化カメラ12の2D視覚化モジュールV1、V2のうちの一方によって捕捉された画像中の単一列のピクセルに幾らか等しいことがある。操縦ユニット64を使用して、第1のビームB1を線で、例えば軸方向Aに沿って移動させて、複数のAスキャンを捕捉すると、単一のBスキャンが生成され、単一のBスキャンは、図7Aに示される出力画像470等の単一の二次元画像としてOCT画像データ空間に記憶される。操縦ユニット64を使用して、第1のビームB1をラスタパターン218(図4C参照)等のラスタ型パスで移動させると、複数のBスキャンが生成され、複数のBスキャンは、図7Aの出力画像470等の複数の二次元画像としてOCT画像データ空間に記憶される。それらは、OCT空間境界224によってカバーされる三次元シーン空間の三次元サンプリングを表す。結果として生成されたデータは、構成に応じて、OCTデータが、AスキャンがBスキャン画像の垂直列又は水平行のいずれかを構成する一連の二次元Bスキャン画像として編成される場合、三次元である。コンピュータグラフィックス技術を三次元テクスチャ等の記憶メカニズム及びデータスパン内の任意の三次元場所からそのようなデータをサンプリングする手段と共に利用し得る。そのようなサンプリングは、サンプル位置が元のデータ位置と一致しない場合、値を補間するアルゴリズムを含む。
光学較正は、ピクセル次元等の幾つかの既知のパラメータと、焦点距離及び光学歪み等の他の未知のパラメータとを有する所与の2D視覚化モジュールの内因性光学パラメータを特徴付ける。これにより、既知の寸法の現実世界構造が2D視覚化モジュールの画像空間でいかに表現されるかを知ることができ、ひいてはスケーリングパラメータ内への逆作用も可能になる:所与の光学的に較正された2D視覚化モジュールにおける画像空間表現を使用した現実世界構造(スケーリングパラメータ内への)の寸法の特定。光学較正はまた、カメラに対する既知の寸法の較正物体のシーンにおける位置及び向き関連する外因性光学パラメータを明らかにすることもできる。さらに、立体視覚化カメラ12の較正は、互いの近くに位置決めされ向けられた同様の光学性質の2つの2D視覚化モジュールV1、V2間の関係を特定し、絶対サイズ並びに立体視覚化カメラ12上の何らかの基準点に対するそれらの位置及び向き等のシーン中の任意の構造の測定値(その寸法、位置、及び向きを事前に知る必要はない)の所与の組の単位(例えばミリメートル)での絶対値を特定できるようにする。
所与のズーム及びフォーカス設定での2D視覚化モジュールV1、V2はそれぞれ、単純なピンホールカメラとしてモデリングし得る。立体視覚化カメラ12における2つの2D視覚化モジュールV1、V2の各々はまずそれ自体で別個にモデリングされる。そのようなピンホールカメラの関連する内因性パラメータは、焦点距離、主点、及び光学歪みパラメータである。焦点距離は、投影中心(別名ピンホール)とセンサ面との間の距離である。主点は、理想化されたピンホールカメラの中心があるデジタルセンサ上の場所である。歪みパラメータは、立体視覚化カメラ12の非理想的な光学系によって画像に付与される光学歪みをモデリングする。さらに、接線歪みパラメータがモデリングされて、イメージセンサの平面に垂直に出る線とのカメラ光学系パスの位置合わせずれを記述しようとする。較正から取得される外因性パラメータは、捕捉された各較正画像での立体視覚化カメラ12に対する標的の並進及び回転又は変換を含む。
2D視覚化モジュールの空間(「カメラ空間」とも呼ばれる)は、「投影中心」空間又はCOP空間830とも呼ばれる。図11Aを参照すると、COP空間830に対する標的空間832の場所(又は「位置」又は「原点」)は一緒にされて、本明細書ではCOP空間830に対する標的空間832の第2の変換834と呼ばれる。記載される他のパラメータに加えて、較正機能57は、とられる各画像捕捉でCOP空間830に対する較正標的520の第3の変換862を得るように構成される。数学的にこの情報は変換行列に符号化し得る。
現実世界カメラの焦点面における視野は、出力が立体視覚化カメラ12の出力と視覚的に合致するように立体ボリュームレンダラーのセットアップに必要なパラメータの1つである。立体視覚化カメラ12の各2D視覚化モジュールV1、V2の焦点面における視野は、この代替方法では以下のように見つけられ得る。ヘッドユニット18の立体視覚化カメラ12は、第1及び第2の光路の各々に合焦され、各ズーム及び作業距離設定で焦点面に垂直及び水平に集束するように位置合わせされるように光学機械的に既に較正済みであると仮定される。先に触れたように、較正標的520(図8B参照)はテーブル780(図2参照)に置かれ得、テーブル780は公称的に、立体視覚化カメラ12の光軸に沿って(ここではz方向に)移動し得る。テーブル780の位置は測定され、そのような各測定で記録される。較正標的520は、公称的にカメラ画像軸と位置合わせされるように位置決めし得る。
作業距離Wは、共通対物レンズセット72の下面から光軸(ビュー軸とも呼ばれる)に沿ってシーン又は標的部位16までの距離として定義し得る。例えば、一般に両目で本来の視覚を処理する人間の閲覧者が立体を利用して物体を見る場合、見掛けの立体光軸は、例えば片目の中心からもう片方の目の中心までの線の中間点を起点とした線として見なし得る。多くの場合、鼻の端部は、物体が長距離にあるシーンにおいて光軸の基端部を示すものとして参照される。しかしながら、閲覧者が片目に近い場合、開かれた目の光軸がビューを支配し、立体光軸のものとはわずかに異なる方向にある。2つの人間ビューは一般に物体に合焦し物体に収束する。幾つかの実施形態では、立体視覚化カメラ12の2つの2D視覚化モジュールV1、V2は、同じ点上で合焦し収束するように設定し得る。
焦点面の中心から投影中心までの絶対距離は、較正標的520に合焦し、ディスプレイ画面の矩形の四隅の較正標的520上の場所に留意することによって推定し得る。次いでテーブル780を使用して、較正標的520を焦点面から離れた既知の距離に移動させ、カメラ光学系は変更されず(再合焦されず、ズームも全く変更されない)、ディスプレイ画面の矩形の同じ四隅のチェス盤上の新しい場所に留意する。同様の三角形の三角法並びにテーブル780及び画像の追加の位置を使用して、較正標的520に対する各2D視覚化モジュールの投影中心が推定される。
見当合わせは、立体視覚化カメラ12の2つのビューの回転、並進、及びスケールの、OCTデータをレンダリングするVRモジュール51(仮想カメラを実施する)の各ビューへの位置合わせ並びに各視点を合致させることとして理解し得る。少数の見当合わせ技法を後述するが、他の技法及び方法が採用されてもよいことが理解される。第1の組のボリュームデータを第2の組のボリュームデータと見当合わせすることは、第1の組のボリュームデータにおける関心のある局所エリアの位置、向き、及びサイズを第2の組のボリュームデータと位置合わせすることを含み得る。例えば図5を参照すると、関心のある局所エリアは角膜縁332及び強膜脈管334を含み得る。
COP_T_OCT=COP_T_TARGET*(OCT_T_TARGET).逆
立体視覚化カメラ12の2D視覚化モジュールV1、V2の較正は、2D視覚化モジュールV1、V2への物体の距離が変わる場合、物体が画像において相対的にいかにサイジングされるかを記述する視点決定を含む。これは、現実世界の三次元が2D視覚化モジュールにおける二次元平面に投影されるためである。これは「視点投影」と呼ばれる。同一サイズの物体は、イメージャの有効投影中心からいかに離れるかに基づいて異なるサイズで投影画像に現れる。視点較正は、立体視覚化カメラ12とOCTモジュール14との間のこの相対サイズスケールのマッチングであり、異なる視覚化モジュールからの三次元画像の共通撮像空間への正確且つ現実的な「融合」を可能にするに当たり極めて重要な要因の1つである。OCTモジュール14はこの「視点投影」挙動を有さず、その理由は、OCTモジュール14は三次元を用いて三次元の現実世界を撮像しており、OCT撮像プロセスから生成される画像データは三次元であり、二次元に投影されないためである。
図2を参照すると、システム10は、コントローラCによって選択的に実行可能であり、第1の組のボリュームデータ及び第2の組のボリュームデータの各表現が予め定義された斜位角で見られるような共有複合ビューの軸外ビューを生成する斜位視覚化モジュール55を含み得る。図19A~図13Cはそれぞれ、ディスプレイ32上の眼球Eの共有複合ビューを示す(ライブ立体画像Lに重ねられる)。図13Aは、ゼロ度斜位角を有する眼球Eの上から下を見た図1300を示す。図13Aは、第1の斜位角1332に従った眼球Eの軸外ビュー1330を示す。図13Cは、第2の斜位角1352に従った眼球Eの軸外ビュー1350を示す。示される例では、第1の斜位角は約45度であり、第2の斜位角は約80度である。
システム10は、多くの目的で種々の外科用途に利用し得る:視覚化の強化、術前、術中、及び術後の眼球の光学特性の変化の評価、眼内デバイスの指定及び配置の支援、複雑化の緩和、及び全体的によりよい患者結果の可能化。システム10が、術前、術中、又は術後にデータを収集するように構成し得ることを理解されたい。幾つかの具体的な用途について後述する。
図14Aを参照して、瞳孔1402及び虹彩1404を有する眼球Eの概略断面斜視図を示す。複数の深度スキャン1406を利用して、第1のスキャン範囲1408及び第2のスキャン範囲1410にわたって延びる眼球Eの構造的特徴を抽出し得る。図14Bを参照して、眼球Eの断面図を、複数の深度スキャン1406から得られた出力画像1420、1430、1460、及び1440と共に示す。
図15は、水晶体1416を有する眼球Eの3Dボリュメトリック表現を抽出するためのシステム10の使用を示す概略断片断面図である。図15に拡大して示される網膜の部分1530において、高分解能低深度OCT構成が使用され、公称OCT作業距離は網膜又はその近傍にある。図15を参照すると、複数の深度スキャン1502、1504、1506、1508又は行スキャン1532が眼球Eに沿ってとられる。図15を参照すると、サンプリング点1534は網膜前面1510を測定し、一方、第2のサンプリング点1536は網膜後面1512を撮像する。表面下サンプリング点1538、1540、1542、1544は、ここでは異常1550を示している網膜の層を撮像する。異常1550の表現は、引き抜かれた異常1550がライブビューLにおける異常場所と並ぶようにライブビューLに重ねられる。これは、上述したようにOCTモジュール14と立体視覚化カメラ12との見当合わせを必要とする。外科チームは、全て同じディスプレイ上で共有複合ビュー中の眼球Eを見ながら、異常及び他の目標を見つけ得る。使用される外科器具もライブ画像Lに視覚化される。異常1550は従来の顕微鏡を介しては可視ではない。システム10は、異常1550の視覚化、ひいてはより効率的な処置を可能にする。OCTモジュール14及び立体視覚化カメラ12の統合、較正、及び見当合わせは、場所特定の大幅な簡易化及びユーザへのガイドを可能にする。
図2を参照すると、ユーザは、スポットスキャン60における第1の光源40のスペクトル幅、スポットスキャン60の光学特性、及び検出器44の分解能間のトレードオフを介して、深度分解能が低い大きなサンプル深度か深度分解能が高い小さなサンプル深度かを選択し得る。網膜表面の場合、深度分解能が低い大きなサンプル深度を有する深度スキャンを利用し得る。図15を参照すると、そのような深度スキャンは眼球Eの瞳孔を透過するが、潜在的に水晶体1416も透過し得、それにより、水晶体1416上の第1及び第2の水晶体点1518及び1520をサンプリングし得る。さらに、硝子体液1526は、完全透明未満の幾つかの光学性質を有し得る。幾つかの場合、外科除去に起因して、水晶体1416は、硝子体液1526と同様に存在しなくなり、したがって、表面反射の特定は幾らか簡易化される。スポットスキャン60は、OCTモジュール14の限度内で操縦ユニット64を使用して標的部位16周囲を移動可能である(図2参照)。さらに、OCTの範囲及び分解能(例えば低深度/高分解能等)は、OCTモジュール14自体における異なる光学セットアップ間を切り替えることによって変更可能である。この切り替えは高速であり、約数十ミリ秒である。ロボットアーム24に取り付けられた一体化された立体視覚化カメラ12及びOCTモジュール14を用いて、OCTサンプルボリュームは標的部位16の周囲を制御されて移動し得る。これは、OCT範囲を軸方向A並びに第1及び第2の横断方向T1及びT2において大きく拡張する。OCT読み出し及びロボット位置は、例えば、後に同期し得るように十分な精度のユニバーサルタイムスタンプを含むことにより、そのように記録し得る。見当合わせプロセスから、立体視覚化カメラ12上の既知の基準に対する標的部位16の位置及び向きが入手可能であり、そしてロボット基準系に対する基準の位置及び向き、ロボットアームに対する標的部位16の位置及び向きが取得され得、そのような範囲拡張を利用して眼科処置中に制御され得る。
図15を参照すると、システム10を利用して、眼球Eの軸方向長さ1560を特定し得、この距離は、第1の角膜表面1412から網膜前面1510までの距離である。図15を参照すると、軸方向長さ1560は、第1の角膜表面1412上の測定点1514と網膜前面1510上の測定点1522との間の現実世界座標における差によって抽出し得る。
図16Bを参照すると、1つ又は複数の行スキャン1604又は角膜1602の表面をカバーする、第1のスライス1610、第2のスライス1612、第3のスライス1614、第4のスライス1616、及び第5のスライス1618等のスライスを使用することにより、眼球Eの角膜1602の前面(又は後面)の曲率を取得し得る。図16Aは、第1のスライス1610の出力画像を示す。角膜1602は、第1のビームB1で使用される波長において透明又は半透明であり、第1のビームB1の全深度範囲(図4Aの検出深度204参照)未満の寸法を有する。したがって、深度スキャンは、パスに沿って少なくとも2つの反射点が検出されることになるサンプルパスを用いて角膜1602に複数回直面するように構成される。例えば、第1、第2、及び第3の開始点1622、1624、及び1626(図16Bの)はそれぞれ、第1、第2、及び第3の画像点1632、1634、及び1636として図16Aの出力画像1620に現れる。
人間の眼球の乱視は部分的に、角膜が幾らか、表面にわたり均一な曲率を有する球形の代わりに2つの目立つ曲率線を有する楕円形に似た形であることから生じる。システム10を利用して、診断ツールとして及び矯正処置中にリアルタイムに乱視の程度を突き止め得る。一例では、図17Aを参照すると、眼球Eの角膜1704の複数の深度スキャン1702がとられる。複数の深度スキャン1702は星形パターン1706に配置し得、複数の行スキャン1708は各々、図17Aに示される角膜1710を交差する。図17Aに示される例では、5つの行スキャン1708があるが、任意の数が採用されてもよいことが理解される。さらに、他のタイプのスキャンパターンが採用されてもよい。
システム10は、リアルタイムでの眼内レンズの調整及び後続する実施のガイドに利用し得る。図18Aは、第1のレンズ軸1804及び第2のレンズ軸1806と共に示され、レンズ原点1808にセンタリングされた、眼球内に移植されるように構成された一例の眼内レンズ1802の概略図である。眼内レンズ1802は、眼内レンズ1802を位置決めするための第1のアーム1810及び第2のアーム1812を含む。図18Bを参照すると、眼球Eの第1の共有複合ビュー1820は第1のディスプレイ32(又は図1の第2のディスプレイ34)に示されている。図18Bは瞳孔1822及び虹彩1824を示す。第1の角膜軸1826及び第2の角膜軸1828及び眼球中心1830が、眼内レンズ1802と共にライブ画像Lへのオーバーレイとして描かれている。図18Bの第1の共有複合ビュー1820では、第1のレンズ軸1804及び第2のレンズ軸1806は、第1の角膜軸1826及び第2の角膜軸1828と十分に位置合わせされていない。
角膜移植処置での不良な結果の共通原因は、患者の眼球内部に裂けた、折り重なった、又はしわが寄ったドナー角膜が配置されることである。角膜は光学的に透明又は半透明であるため、これらのタイプの裂け、折り重なり、又はしわを見ることは極めて困難であり得る。外科医は、OCT画像を用いて裂け、折り重なり、又はしわを見ることが可能であり得るが、顕微鏡を通して眼球を見ている場合、異常の場所を必ずしも知る必要がないか、又は場所をピンポイントすることができない。
先に触れたように、オーバーレイが、位置合わせが意図される移動物体上で許容可能な許容差内で位置及び向きが位置合わせされたままであるのに十分なレートで、待ち時間オーバーレイはライブ画像L上に描かれ又は適宜関連付けられ得る。眼球Eの運動と眼球Eのためのオーバーレイの位置、向き、スケール、及び/又は視点の更新との間には待ち時間がある。この待ち時間は、そのようなパラメータのわずかな位置合わせずれを生じさせるが、眼球Eが移動を停止する(即ち、物体が移動を停止すると、オーバーレイが物体に「追いつく」)場合、各パラメータの最小許容差に低減される。待ち時間は、撮像フレームレート、表示パイプライン処理時間等のシステム速度に関連する。幾つかの実施形態では、1組の画像バッファが、一方のモダリティに対する他方のモダリティの待ち時間を、一方のモダリティの表示を遅延させることによって低減することができるか、又はなくすことができるように、両撮像モダリティパイプラインに含まれる。
Claims (19)
- 眼科処置をガイドするシステムであって、
眼球の標的部位に少なくとも部分的に向けられるように構成されたヘッドユニットを有する筐体組立体と、
少なくとも部分的に前記ヘッドユニットに配置され、前記標的部位の第1の組のボリュームデータを取得するように構成された光学コヒーレンストモグラフィ(OCT)モジュールと、
少なくとも部分的に前記ヘッドユニットに配置され、前記標的部位の第2の組のボリュームデータを取得するように構成された立体視覚化カメラであって、前記第2の組のボリュームデータは前記標的部位の第1及び第2のビューを含む、立体視覚化カメラと、
前記立体視覚化カメラ及び前記OCTモジュールと通信するコントローラと、
前記コントローラによって選択的に実行可能なボリュームレンダリングモジュールと、
を備え、
前記コントローラは、プロセッサと、命令が記録された有形非一時的メモリとを有し、前記命令の実行は前記コントローラに、
前記OCTモジュールからの前記第1の組のボリュームデータを前記立体視覚化カメラからの前記第2の組のボリュームデータと見当合わせして、第3の組の見当合わせ済みボリュームデータを作成することと、
前記ボリュームレンダリングモジュールを介して前記第3の組の見当合わせ済みボリュームデータを第1の領域にレンダリングして、二次元OCTビューを取得することと、
前記ボリュームレンダリングモジュールを介して前記立体視覚化カメラからの前記第2の組のボリュームデータを第2の領域にレンダリングして、ライブ二次元立体ビューを取得することと、
前記第1の領域及び前記第2の領域を重ねて、前記標的部位の共有複合ビューを取得し、前記標的部位の特徴の視覚化及び抽出の少なくとも一方を行うことと、
を行わせる、システム。 - 前記コントローラは、
角膜表面を通して延びる複数の深度スキャンを取得することであって、前記複数の深度スキャンの各々は各開始点を定義する、取得することと、
点群として前記複数の深度スキャンの前記開始点の各々に対応する各三次元場所を収集することと、
各前記開始点間の補間を含め、前記点群を変換して、抽出曲率を取得することと、
を行うように構成される、請求項1に記載のシステム。 - 前記抽出曲率は複数の深度によって特徴付けられ、
前記コントローラは、複数のトポグラフィレベルを用いて前記共有複合ビューを視覚化するように構成され、
前記複数のトポグラフィレベルはそれぞれ、前記抽出曲率を視覚化し得るように前記複数の深度を表す、請求項2に記載のシステム。 - 前記眼科処置は、眼内レンズを眼球に移植することを含む白内障手術であり、
前記コントローラは、ディスプレイ上で前記共有複合ビュー上に少なくとも1つの注釈を追加することであって、少なくとも1つの前記注釈は前記抽出曲率を示す、追加することと、
前記共有複合ビューにおける少なくとも1つの前記注釈の相対位置を維持することと、
前記抽出曲率を利用して、前記眼球への眼内デバイスの位置合わせをガイドすることと、
を行うように構成される、請求項2に記載のシステム。 - 前記第1の組のボリュームデータは、第1の周波数で更新されるように構成され、前記第2の組のボリュームデータは、第2の周波数で更新されるように構成され、
前記第1の組のボリュームデータ及び前記第2の組のボリュームデータの前記更新は同期されて、前記眼球への前記眼内デバイスの前記位置合わせを促進する、請求項4に記載のシステム。 - 前記コントローラは、前記OCTモジュールを第1の分解能モードと第2の分解能モードとの間で切り替えることにより、前記眼科処置中、各軸方向長さ測定をリアルタイムで繰り返し取得するように構成される、請求項1に記載のシステム。
- 前記眼科処置は角膜の移植であり、前記コントローラは、前記角膜の複数の深度スキャンを取得するように構成され、
前記コントローラは、前記複数の深度スキャンのうちの第1の深度スキャンと前記複数の深度スキャンのうちの第2の深度スキャンとの間にあるものとして異常領域を識別して分離するように構成され、
前記コントローラは、ディスプレイ上で前記共有複合ビュー上に少なくとも1つの注釈を追加することであって、少なくとも1つの前記注釈は前記異常領域を示す、追加することを行うように構成される、請求項1に記載のシステム。 - 前記眼科処置は乱視矯正を含み、
前記コントローラは、角膜の複数の行スキャンを取得するように構成され、
前記コントローラは、前記角膜の曲率の各最大点及び各最小点の追跡を介して前記複数の行スキャンから急勾配経線及び平坦経線を抽出するように構成される、請求項1に記載のシステム。 - 前記複数の行スキャンは星形パターンに配置される、請求項8に記載のシステム。
- 前記ヘッドユニットに動作可能に接続され、前記ヘッドユニットを選択的に移動させるように構成されたロボットアームを更に含み、
前記ロボットアームは、軸方向、第1の横断方向、及び第2の横断方向において前記OCTモジュールの閲覧範囲を拡張するように選択的に動作可能である、請求項8に記載のシステム。 - 前記立体視覚化カメラ及び前記OCTモジュールは、各待ち時間を定義し、
前記コントローラは、前記立体視覚化カメラの各前記待ち時間に合うように、前記二次元OCTビューの表示を選択的に遅延させるように構成された第1の組のイメージバッファを含み、
前記コントローラは、前記OCTモジュールの各前記待ち時間に合うように、前記ライブ二次元立体ビューの表示を選択的に遅延させるように構成された第2の組のイメージバッファを含む、請求項8に記載のシステム。 - 前記コントローラは、
ディスプレイ上で前記共有複合ビューにわたり少なくとも1つの注釈を追加することであって、少なくとも1つの前記注釈は前記眼球のランドマークを示す、追加することと、
前記ライブ二次元立体ビューにおける少なくとも1つの前記注釈の相対位置を維持することと、
を行うように構成される、請求項1に記載のシステム。 - 前記OCTモジュールからの前記第1の組のボリュームデータを前記立体視覚化カメラからの前記第2の組のボリュームデータと見当合わせすることは、
回転、並進、及びスケーリングで前記立体視覚化カメラの前記第1及び第2のビューを前記ボリュームレンダリングモジュールにそれぞれ位置合わせすることと、
前記立体視覚化カメラの前記第1及び第2のビューの各視点を前記ボリュームレンダリングモジュールに合わせることと、
を含む、請求項1に記載のシステム。 - 前記第1の組のボリュームデータを前記第2の組のボリュームデータと見当合わせすることは、
前記OCTモジュールの各データ空間の各場所及び各向きに相対する前記立体視覚化カメラの第1の二次元視覚化モジュール及び第2の二次元視覚化モジュールの投影中心の各場所及び各向きを見つけることを含む、請求項1に記載のシステム。 - 前記第1の組のボリュームデータを前記第2の組のボリュームデータと見当合わせすることは、
前記第1の組のボリュームデータ内の関心のある局所エリアの、位置、向き、及びサイズを前記第2の組のボリュームデータと合わせることを含み、
前記関心のある局所エリアは、角膜縁及び強膜脈管の少なくとも一方を含む、請求項1に記載のシステム。 - 前記第1の組のボリュームデータを前記第2の組のボリュームデータと見当合わせする前、前記コントローラは、
較正デバイスを前記標的部位に配置し、3つの直交ビューの各々において前記較正デバイスの各表面への各線をフィッティングすることを含む、前記OCTモジュールの較正及び前記立体視覚化カメラの較正を行うように構成される、請求項1に記載のシステム。 - 前記コントローラによって選択的に実行可能であり、前記第1の組のボリュームデータ及び前記第2の組のボリュームデータの各表現が予め定義された斜位角で閲覧されるような前記共有複合ビューの軸外ビューを生成する斜位視覚化モジュールを更に備え、
前記斜位視覚化モジュールの実行は前記コントローラに、
部分的に前記第1の組のボリュームデータに基づいて仮想画像を形成することと、
第1の対の立体画像として前記仮想画像をレンダリングすることと、
第2の対の立体画像として前記第2の組のボリュームデータをレンダリングすることと、
前記第1の対の立体画像及び前記第2の対の立体画像を融合して、前記軸外ビューを形成することと、
を行わせる、請求項1に記載のシステム。 - 予め定義された前記斜位角は、ユーザインターフェースを介してユーザによって選択可能である、請求項17に記載のシステム。
- 眼科処置をガイドするシステムであって、
眼球の標的部位に少なくとも部分的に向けられるように構成されたヘッドユニットを有する筐体組立体と、
少なくとも部分的に前記ヘッドユニットに配置され、前記標的部位の第1の組のボリュームデータを取得するように構成された光学コヒーレンストモグラフィ(OCT)モジュールと、
少なくとも部分的に前記ヘッドユニットに配置され、前記標的部位の第1及び第2のビューを含む前記標的部位の第2の組の二次元画像データを取得するように構成された視覚化カメラと、
前記視覚化カメラ及び前記OCTモジュールと通信するコントローラと、
前記コントローラによって選択的に実行可能なボリュームレンダリングモジュールと、
を備え、
前記コントローラは、プロセッサと、命令が記録された有形非一時的メモリとを有し、前記命令の実行は前記コントローラに、
前記OCTモジュールからの前記第1の組のボリュームデータを前記視覚化カメラからの前記第2の組の二次元画像データと見当合わせして、第3の組の見当合わせ済みボリュームデータを作成することと、
前記ボリュームレンダリングモジュールを介して前記第3の組の見当合わせ済みボリュームデータを第1の領域にレンダリングして、多次元OCTビューを取得することと、
前記ボリュームレンダリングモジュールを介して前記視覚化カメラからの前記第2の組の二次元画像データを第2の領域にレンダリングして、ライブ多次元ビューを取得することと、
前記第1の領域及び前記第2の領域を重ねて、前記標的部位の共有複合ビューを取得することと、
を行わせる、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962943965P | 2019-12-05 | 2019-12-05 | |
US62/943,965 | 2019-12-05 | ||
PCT/US2020/062688 WO2021113229A1 (en) | 2019-12-05 | 2020-12-01 | Surgical applications with integrated visualization camera and optical coherence tomography |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023505173A true JP2023505173A (ja) | 2023-02-08 |
JP7404534B2 JP7404534B2 (ja) | 2023-12-25 |
Family
ID=74003891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022533228A Active JP7404534B2 (ja) | 2019-12-05 | 2020-12-01 | 一体化された視覚化カメラ及び光学コヒーレンストモグラフィを用いた外科的応用 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11986240B2 (ja) |
EP (1) | EP4069057A1 (ja) |
JP (1) | JP7404534B2 (ja) |
WO (1) | WO2021113229A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2016433859A1 (en) * | 2016-12-30 | 2019-07-04 | Barco Nv | System and method for camera calibration |
CN113729615B (zh) * | 2021-10-12 | 2023-01-13 | 中山大学中山眼科中心 | 具有手持式探头的光学相干断层成像设备 |
WO2023166404A1 (en) * | 2022-03-02 | 2023-09-07 | Alcon Inc. | Robotic imaging system with orbital scanning mode |
DE102022120203A1 (de) * | 2022-08-10 | 2024-02-15 | Carl Zeiss Meditec Ag | System zum Erfassen und Visualisieren von OCT-Signalen |
US20240070970A1 (en) * | 2022-08-23 | 2024-02-29 | Alcon Inc. | Visualization system with stereo-volumetric intraoperative oct and stereoscopic camera |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2594599B1 (fr) | 1986-02-19 | 1988-06-24 | Centre Nat Rech Scient | Materiaux semiconducteurs thermoelectriques a base d'argent, cuivre, tellure et thallium, procede de preparation et application aux convertisseurs thermoelectriques |
WO2002082980A2 (en) * | 2001-04-16 | 2002-10-24 | Lasersight Technologies, Inc. | Stereoscopic measurement of cornea and illumination patterns |
AU2011295719B2 (en) * | 2010-09-02 | 2014-07-10 | Amo Development, Llc | Patient interface for ophthalmologic diagnostic and interventional procedures |
EP2583619B1 (en) | 2011-10-22 | 2022-03-16 | Alcon Inc. | Apparatus for monitoring one or more surgical parameters of the eye |
US9237851B2 (en) * | 2012-02-03 | 2016-01-19 | Ninepoint Medical, Inc. | Imaging system producing multiple registered images of a body lumen |
WO2015031589A1 (en) | 2013-08-28 | 2015-03-05 | Bioptigen, Inc. | Heads up displays for optical coherence tomography integrated surgical microscopes |
US20180299658A1 (en) | 2015-04-23 | 2018-10-18 | Duke University | Systems and methods of optical coherence tomography stereoscopic imaging for improved microsurgery visualization |
US20170045728A1 (en) * | 2015-08-13 | 2017-02-16 | Novartis Ag | Systems and methods for an optical system with an adjustable projected focal plane |
JP6702024B2 (ja) | 2016-06-27 | 2020-05-27 | 株式会社ニデック | 眼科画像処理装置、眼科画像処理プログラム |
JP6898724B2 (ja) | 2016-11-10 | 2021-07-07 | キヤノン株式会社 | 画像処理方法、画像処理装置およびプログラム |
US10299880B2 (en) * | 2017-04-24 | 2019-05-28 | Truevision Systems, Inc. | Stereoscopic visualization camera and platform |
US20180360655A1 (en) | 2017-06-16 | 2018-12-20 | Michael S. Berlin | Methods and systems for oct guided glaucoma surgery |
US11013407B2 (en) * | 2019-02-15 | 2021-05-25 | Amo Development, Llc | Intraocular pressure measurement for an eye docked to a laser system |
JP6736734B2 (ja) | 2019-07-23 | 2020-08-05 | 株式会社トプコン | 眼科撮影装置及び眼科情報処理装置 |
EP4069056A1 (en) * | 2019-12-05 | 2022-10-12 | Alcon Inc. | System and method for integrated visualization camera and optical coherence tomography |
-
2020
- 2020-12-01 EP EP20829080.9A patent/EP4069057A1/en active Pending
- 2020-12-01 JP JP2022533228A patent/JP7404534B2/ja active Active
- 2020-12-01 US US17/108,481 patent/US11986240B2/en active Active
- 2020-12-01 WO PCT/US2020/062688 patent/WO2021113229A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2021113229A1 (en) | 2021-06-10 |
EP4069057A1 (en) | 2022-10-12 |
JP7404534B2 (ja) | 2023-12-25 |
US20210169320A1 (en) | 2021-06-10 |
US11986240B2 (en) | 2024-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7379704B2 (ja) | 視覚化カメラ及び光学コヒーレンストモグラフィを統合するシステム及び方法 | |
JP7404534B2 (ja) | 一体化された視覚化カメラ及び光学コヒーレンストモグラフィを用いた外科的応用 | |
JP7350103B2 (ja) | 光コヒーレンス断層拡張現実に基づく手術顕微鏡撮像システム及び方法 | |
US7625088B2 (en) | Image processing apparatus | |
US6483948B1 (en) | Microscope, in particular a stereomicroscope, and a method of superimposing two images | |
US20150342460A1 (en) | Imaging and visualization systems, instruments, and methods using optical coherence tomography | |
JP2020519930A (ja) | 立体視覚化カメラ及びプラットフォーム | |
JP2014530697A (ja) | 多視点の眼底カメラ | |
US11698535B2 (en) | Systems and methods for superimposing virtual image on real-time image | |
WO2021106987A1 (ja) | 医用画像処理装置、光干渉断層撮影装置、医用画像処理方法、及びプログラム | |
JP4889030B2 (ja) | 画像処理装置 | |
Cutolo et al. | The role of camera convergence in stereoscopic video see-through augmented reality displays | |
JP5160823B2 (ja) | 画像処理装置 | |
US20240070970A1 (en) | Visualization system with stereo-volumetric intraoperative oct and stereoscopic camera | |
US20240056558A1 (en) | System and method for multimodal image acquisition and image visualization | |
US20240054717A1 (en) | System for Acquiring and Visualizing OCT Signals | |
JP5054579B2 (ja) | 画像処理方法および画像処理装置 | |
JP2017012535A (ja) | 眼科用顕微鏡 | |
CN116421137A (zh) | 眼科装置 | |
CN116421136A (zh) | 眼科装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A525 Effective date: 20220602 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7404534 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |