WO2022176828A1 - 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム - Google Patents
眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム Download PDFInfo
- Publication number
- WO2022176828A1 WO2022176828A1 PCT/JP2022/005828 JP2022005828W WO2022176828A1 WO 2022176828 A1 WO2022176828 A1 WO 2022176828A1 JP 2022005828 W JP2022005828 W JP 2022005828W WO 2022176828 A1 WO2022176828 A1 WO 2022176828A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- phase
- data
- unit
- phase difference
- oct
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 77
- 238000003672 processing method Methods 0.000 title claims description 18
- 238000000034 method Methods 0.000 claims abstract description 73
- 230000008569 process Effects 0.000 claims abstract description 60
- 238000012937 correction Methods 0.000 claims abstract description 43
- 239000000284 extract Substances 0.000 claims abstract description 24
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 238000012935 Averaging Methods 0.000 claims abstract description 17
- 238000012014 optical coherence tomography Methods 0.000 claims description 353
- 238000012545 processing Methods 0.000 claims description 153
- 238000005259 measurement Methods 0.000 claims description 115
- 230000008859 change Effects 0.000 claims description 23
- 238000009499 grossing Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 abstract description 14
- 230000003287 optical effect Effects 0.000 description 153
- 210000001508 eye Anatomy 0.000 description 135
- 230000004075 alteration Effects 0.000 description 66
- 238000013441 quality evaluation Methods 0.000 description 64
- 238000012360 testing method Methods 0.000 description 62
- 238000010586 diagram Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 31
- 230000007246 mechanism Effects 0.000 description 28
- 238000003384 imaging method Methods 0.000 description 26
- 230000006641 stabilisation Effects 0.000 description 26
- 238000011105 stabilization Methods 0.000 description 26
- 201000009310 astigmatism Diseases 0.000 description 22
- 238000005286 illumination Methods 0.000 description 20
- 238000003860 storage Methods 0.000 description 18
- 239000013307 optical fiber Substances 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 230000002207 retinal effect Effects 0.000 description 12
- 230000000087 stabilizing effect Effects 0.000 description 11
- 230000010287 polarization Effects 0.000 description 9
- 210000001747 pupil Anatomy 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 239000000835 fiber Substances 0.000 description 8
- 210000004220 fundus oculi Anatomy 0.000 description 8
- 230000007423 decrease Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 206010025421 Macule Diseases 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000010408 sweeping Methods 0.000 description 3
- 230000004323 axial length Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 206010010071 Coma Diseases 0.000 description 1
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 206010047642 Vitiligo Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000013532 laser treatment Methods 0.000 description 1
- 239000010410 layer Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000001210 retinal vessel Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Definitions
- the present invention relates to an ophthalmic information processing device, an ophthalmic device, an ophthalmic information processing method, and a program.
- CAO Computer Adaptive Optics
- CAO can improve measurement accuracy by correcting measurement data based on aberration information acquired using known hardware such as a wavefront sensor.
- Non-Patent Document 1 and Non-Patent Document 2 disclose a method of applying such CAO to an optical coherence tomography (OCT) system.
- OCT optical coherence tomography
- phase information contained in the measurement data acquired by OCT is useful in applications such as OCT Angiography (OCTA) and CAO-OCT in which CAO is applied to OCT.
- This phase information is affected by phase drift caused by the movement of the observed object and phase instability within the measurement system. Therefore, the accuracy of OCTA and CAO-OCT can be improved by stabilizing the phase so as not to be affected by phase drift.
- phase difference it is possible to stabilize the phase by calculating the phase difference between measurement data at adjacent positions and canceling the calculated phase difference.
- This is premised on the assumption that the expected value of the phase difference is zero for the object to be measured, such as the retina of the eye to be examined, which consists of countless scatterers.
- the phase errors are accumulated as the phase correction is repeated by the above method, and the influence of the accumulated errors may not be negligible.
- the present invention has been made in view of such circumstances, and one of its purposes is to provide a new technique for stabilizing the phase contained in the measurement data acquired by OCT.
- a first aspect of the embodiment performs an averaging process in the depth direction of the phase differences calculated for each depth position of the A line between two adjacent B frames of the complex OCT data of the eye to be examined.
- a generation unit for generating a phase difference profile by; an extraction unit for extracting a phase drift from the phase difference profile generated by the generation unit; and based on the phase drift extracted by the extraction unit, the two B and a phase correction unit that corrects the phase of the first complex OCT data of any one of the frames.
- a removal unit for removing unreliable phase difference data from the phase difference profile is included, and the extraction unit removes the unreliable phase difference data by the removal unit. extract the phase drift with the local phase difference change removed from the phase difference profile with .
- the low-reliability phase difference data is data whose signal intensity is less than a predetermined threshold level, and the phase difference at a predetermined depth position in the averaging process. Include at least one of the data whose contribution exceeds a predetermined threshold.
- the extraction unit performs at least one of smoothing processing, polynomial fitting, and high-frequency cut filter processing on the phase difference profile. to extract the phase drift.
- At least one parameter of the smoothing process, the polynomial fitting, and the high-frequency cut filter process is the frequency of phase change in a measurement system that acquires the complex OCT data, the It is set based on at least one of the speed of phase change and the time required for OCT scanning in the measurement system.
- the first B frame and the second B frame adjacent to each other are generated based on the phase difference profile generated by the generation unit. After correcting the phase of the complex OCT data of the second B frame, for the second B frame and the third B frame adjacent to the second B frame, based on the phase difference profile generated by the generating unit to correct the phase of the complex OCT data of the third B frame.
- a seventh aspect of the embodiment is, in any one of the first aspect to the sixth aspect, based on the complex OCT data of the eye to be inspected in which at least one complex OCT data of B frames is corrected by the phase corrector. It includes an imaging unit that forms an OCT image of the optometry.
- An eighth aspect of the embodiment is a measurement system that acquires complex OCT data by performing optical coherence tomography on the eye to be examined, an ophthalmologic information processing apparatus according to any one of the first aspect to the seventh aspect,
- An ophthalmic device comprising:
- a ninth aspect of the embodiment performs an averaging process in the depth direction of the phase differences calculated for each depth position of the A line between two adjacent B frames of the complex OCT data of the eye to be examined.
- a tenth aspect of the embodiment is the ninth aspect, including a removing step of removing unreliable phase difference data from the phase difference profile, wherein the extracting step removes the unreliable phase difference data in the removing step. extract the phase drift with the local phase difference change removed from the phase difference profile with .
- the low-reliability phase difference data is data whose signal intensity is less than a predetermined threshold level, and phase difference at a predetermined depth position in the averaging process Include at least one of the data whose contribution exceeds a predetermined threshold.
- the extracting step subjects the phase difference profile to at least one of smoothing processing, polynomial fitting, and high frequency cut filter processing. to extract the phase drift.
- At least one parameter of the smoothing process, the polynomial fitting, and the high-frequency cut filter process is the frequency of phase change in a measurement system that acquires the complex OCT data, the It is set based on at least one of the speed of phase change and the time required for OCT scanning in the measurement system.
- the phase difference profile generated in the generating step for the adjacent first B frame and the second B frame based on the phase difference profile After correcting the phase of the complex OCT data of the two B-frames, for the second B-frame and a third B-frame adjacent to the second B-frame, based on the phase difference profile generated in the generating step. to correct the phase of the complex OCT data of the third B frame.
- a fifteenth aspect of the embodiment is, in any one of the ninth to fourteenth aspects, the complex OCT data of the eye to be examined in which the complex OCT data of at least one B frame is corrected in the phase correction step.
- An imaging step of forming an OCT image of the optometry is included.
- a sixteenth aspect of the embodiment is a program that causes a computer to execute each step of the ophthalmologic information processing method according to any one of the ninth to fifteenth aspects.
- FIG. 1 is a schematic diagram showing an example of the configuration of an ophthalmologic system according to an embodiment
- FIG. 1 is a schematic diagram showing an example of the configuration of an ophthalmologic system according to an embodiment
- FIG. 1 is a schematic diagram showing an example of the configuration of an ophthalmologic system according to an embodiment
- FIG. It is a schematic diagram showing an example of a configuration of an optical system of an ophthalmologic apparatus according to an embodiment.
- It is a schematic diagram showing an example of a configuration of an optical system of an ophthalmologic apparatus according to an embodiment
- 1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment;
- FIG. 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment
- FIG. 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment
- FIG. 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment
- 1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment
- FIG. 1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment
- FIG. FIG. 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment
- FIG. 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment
- FIG. 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment
- FIG. 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment
- 1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment
- FIG. 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment
- 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment
- 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment
- 3 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to an embodiment; 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment; 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment; 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment; 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment; 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment; 4 is a flowchart showing an operation example of the ophthalmologic apparatus according to the embodiment;
- the ophthalmologic information processing apparatus acquires OCT data (measurement data, complex OCT data) from an external ophthalmologic apparatus (OCT apparatus).
- OCT apparatus an ophthalmologic apparatus provided outside obtains complex OCT data by performing OCT on the subject's eye.
- the ophthalmologic information processing apparatus can apply phase stabilization processing to complex OCT data of an eye to be examined. Specifically, the ophthalmologic information processing apparatus generates a phase difference profile by averaging in the depth direction the phase differences obtained by calculating each depth position of the A line from the complex OCT data, and generating the generated Extract the phase drift from the phase difference profile.
- the ophthalmologic information processing apparatus corrects the phase of the complex OCT data based on the extracted phase drift.
- the ophthalmologic information processing apparatus can remove unreliable phase difference data from the phase difference profile and extract the phase drift from the phase difference profile from which the unreliable phase difference data has been removed.
- OCT data subjected to phase stabilization processing can be obtained without being affected by noise or structure-derived phase changes.
- the ophthalmologic information processing apparatus can correct the aberration caused by the subject's eye and the optical system for the OCT data whose phase has been corrected as described above. Specifically, the ophthalmologic information processing apparatus searches for an optimum CAO filter (CAO filter parameters) for correcting aberration, and uses the searched CAO filter to perform aberration correction processing on OCT data. . For example, when configured to be able to acquire refractive power information representing the refractive power of an eye to be examined from an externally provided ophthalmologic apparatus (refractive power measuring apparatus), the ophthalmologic information processing apparatus, based on the acquired refractive power information, It is possible to calculate the parameters (filter information) of the CAO filter. The ophthalmologic information processing apparatus can display aberration information (specifically, aberration information on the pupil plane of the subject's eye) corresponding to the searched CAO filter (parameter) on the display means.
- CAO filter parameters a CAO filter parameters
- the ophthalmologic apparatus has the function of the ophthalmologic information processing apparatus according to the embodiment in addition to at least one of the OCT measurement function and the refractive power measurement function.
- An ophthalmologic information processing method includes one or more steps for realizing processing executed by a processor (computer) in an ophthalmologic information processing apparatus according to an embodiment.
- a program according to an embodiment causes a processor to execute each step of an ophthalmologic information processing method according to an embodiment.
- a recording medium according to the embodiment is a computer-readable non-temporary recording medium (storage medium) in which the program according to the embodiment is recorded.
- processor is, for example, CPU (Central Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), programmable logic device (for example, SPLD (Simple Programmable Logic Device (CPLD) Programmable Logic Device), FPGA (Field Programmable Gate Array)) and other circuits.
- the processor implements the functions according to the embodiment by, for example, reading and executing a program stored in a storage circuit or storage device.
- images acquired by OCT may be collectively referred to as OCT images.
- the measurement operation for forming an OCT image is sometimes called OCT measurement.
- An ophthalmic device includes at least one of an ophthalmic imaging device, an ophthalmic measurement device, and an ophthalmic treatment device.
- the ophthalmic imaging device included in the ophthalmic device of some embodiments is, for example, any one or more of a fundus camera, a scanning laser ophthalmoscope, a slit lamp ophthalmoscope, a surgical microscope, or the like.
- ophthalmic measurement devices included in ophthalmic devices of some embodiments include, for example, any one or more of an eye refraction tester, a tonometer, a specular microscope, a wavefront analyzer, a perimeter, a microperimeter, and the like. is.
- the ophthalmic treatment device included in the ophthalmic device of some embodiments is, for example, any one or more of a laser treatment device, a surgical device, a surgical microscope, and the like.
- An ophthalmologic system includes the functions of the ophthalmic information processing apparatus according to the embodiment and the functions of the ophthalmologic apparatus according to the embodiment.
- FIG. 1 shows a block diagram of a first configuration example of an ophthalmologic system according to an embodiment.
- An ophthalmic system 1000 includes an OCT apparatus 1100 as an ophthalmic apparatus, a refractive power measurement apparatus 1110 as an ophthalmic apparatus, an ophthalmic information processing apparatus 1200, a display unit 1300, and an operation unit 1400. including.
- the ophthalmologic information processing apparatus 1200 may have at least one of the functions of the display unit 1300 and the operation unit 1400 .
- the ophthalmologic information processing apparatus 1200 and the OCT apparatus 1100 are communicably connected via a wired or wireless communication path.
- the ophthalmologic information processing apparatus 1200 and the refractive power measuring apparatus 1110 are communicably connected via a wired or wireless communication path.
- the OCT apparatus 1100 includes an OCT optical system 1101 that performs OCT (OCT measurement) on the subject's eye, and transmits complex OCT data obtained by performing OCT to the ophthalmologic information processing apparatus 1200 .
- OCT optical system 1101 may have a known configuration as disclosed in JP-A-2019-154985.
- the refractive power measuring apparatus 1110 includes a refractive power measuring optical system 1111 that measures the refractive power of the subject's eye, and transmits refractive power information representing the refractive power of the subject's eye obtained by refractive power measurement to the ophthalmologic information processing apparatus 1200 .
- the refractive power measuring optical system 1111 may have a known configuration as disclosed in JP-A-2019-154985.
- the ophthalmologic information processing apparatus 1200 averages the phase differences in the depth direction calculated for each depth position of the A line between two adjacent B frames of the complex OCT data of the eye to be examined from the OCT apparatus 1100. to generate a phase difference profile.
- the ophthalmologic information processing apparatus 1200 extracts the phase drift from the generated phase difference profile, and corrects the phase of the complex OCT data of either one of the two B frames based on the extracted phase drift.
- the ophthalmologic information processing apparatus 1200 searches for an optimum CAO filter (CAO filter parameters) for correcting aberration for the phase-corrected complex OCT data, and uses the searched CAO filter to perform complex OCT Execute aberration correction processing of the data.
- the ophthalmologic information processing apparatus 1200 calculates the parameters of the CAO filter using the refractive power information (measurement result of the refractive power) of the eye to be examined from the refractive power measuring apparatus 1110, thereby simplifying the CAO filter search process. Alternatively, it is possible to omit it.
- the ophthalmologic information processing apparatus 1200 generates an OCT image formed based on complex OCT data aberration-corrected using the searched CAO filter, and aberration information on the pupil plane of the subject's eye corresponding to the searched CAO filter. can be displayed on the display unit 1300 .
- the ophthalmologic information processing apparatus 1200 can control the display unit 1300 based on operation information corresponding to the user's operation content from the operation unit 1400, and can control processing executed inside the apparatus. For example, the ophthalmologic information processing apparatus 1200 changes the parameters of the CAO filter based on operation information from the operation unit 1400, and uses the CAO filter whose parameters have been changed to perform aberration correction processing on complex OCT data. The ophthalmologic information processing apparatus 1200 forms an OCT image based on the aberration-corrected complex OCT data.
- the ophthalmologic information processing apparatus 1200 changes the parameters of the CAO filter based on the operation information from the operation unit 1400, and displays aberration information on the pupil plane of the subject's eye corresponding to the CAO filter whose parameters have been changed on the display unit 1300. display.
- the ophthalmic system 1000 may be configured such that the ophthalmic information processing apparatus 1200 acquires OCT data and refractive power information from an ophthalmic apparatus having an OCT measurement function and a refractive power measurement function.
- the ophthalmic device includes the functionality of the ophthalmic information processing device according to the embodiment.
- FIG. 2 shows a block diagram of a second configuration example of the ophthalmic system according to the embodiment.
- the same parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
- An ophthalmologic system 1000a includes an ophthalmologic apparatus 1500a that independently implements the functions of the ophthalmic system 1000 according to the first configuration example.
- the ophthalmologic apparatus 1500a includes an ophthalmic information processing section 1200a, a display section 1300, an operation section 1400, and a measurement optical system 1600a.
- the measurement optical system 1600 a includes an OCT optical system 1101 and a refractive power measurement optical system 1111 .
- the ophthalmologic information processing unit 1200a has the functions of the ophthalmologic information processing apparatus 1200 in FIG. 1, and controls each unit of the ophthalmologic apparatus 1500a.
- the ophthalmologic apparatus having the OCT measurement function and the function of the ophthalmologic information processing apparatus may be configured to acquire refractive power information from an ophthalmologic apparatus having the refractive power measurement function.
- FIG. 3 shows a block diagram of a third configuration example of the ophthalmic system according to the embodiment.
- the same parts as in FIG. 1 or 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
- An ophthalmologic system 1000b includes an ophthalmic device 1500b and a refractive power measurement device 1700b.
- the ophthalmologic apparatus 1500b and the refractive power measuring apparatus 1700b are communicably connected via a wired or wireless communication path.
- the ophthalmologic apparatus 1500b includes an ophthalmic information processing section 1200b, a display section 1300, an operation section 1400, and a measurement optical system 1600b.
- Measurement optical system 1600 b includes OCT optical system 1101 .
- the ophthalmologic information processing unit 1200b controls each unit of the ophthalmologic apparatus 1500b.
- the refractive power measuring device 1700b includes a refractive power measuring optical system 1111, and transmits refractive power information representing the refractive power of the subject's eye obtained by refractive power measurement to the ophthalmic device 1500b.
- the ophthalmologic apparatus having the refractive power measurement function and the function of the ophthalmologic information processing apparatus may be configured to acquire OCT data from the ophthalmologic apparatus having the OCT measurement function.
- the ophthalmologic apparatus includes an OCT apparatus capable of OCT measurement and a fundus camera. However, it is also possible to incorporate the configuration according to the following embodiments into a single OCT apparatus.
- the range of OCT measurement and the measurement site are changed by moving a lens that changes the focal position of the measurement light.
- OCT measurement for the fundus OCT measurement for the anterior segment
- OCT measurement for the entire eye including the fundus and the anterior segment It has a configuration that enables measurement.
- a front lens is arranged between an objective lens and an eye to be inspected, so that measurement light beams made into parallel beams are made incident on the eye to be inspected, thereby measuring the anterior segment of the eye.
- FIG. 4 shows a configuration example of an optical system of an ophthalmologic apparatus 1500b according to the embodiment.
- the direction of the optical axis of the objective lens 22 (the traveling direction of the measurement light LS described later) is defined as the z direction
- the horizontal direction orthogonal to the z direction is defined as the x direction
- the vertical direction orthogonal to the z direction is defined as the y direction.
- the ophthalmologic apparatus 1500 b includes a fundus camera unit 2 , an OCT unit 100 and an arithmetic control unit 200 .
- the retinal camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye E to be examined.
- the OCT unit 100 is provided with a part of an optical system and a mechanism for performing OCT. Another part of the optical system and mechanism for performing OCT is provided in the fundus camera unit 2 .
- the arithmetic control unit 200 includes one or more processors that perform various arithmetic operations and controls.
- arbitrary elements such as a member for supporting the subject's face (chin rest, forehead rest, etc.) and a lens unit for switching the target part of OCT (for example, attachment for anterior segment OCT) and units may be provided in the ophthalmic apparatus 1500b.
- the lens unit is configured to be manually inserted/removed between the subject's eye E and an objective lens 22 described below.
- the lens unit is configured to be automatically inserted/removed between the subject's eye E and the objective lens 22, which will be described later, under the control of the arithmetic and control unit 200 (control section 210, which will be described later). be.
- the fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined.
- the acquired image of the fundus oculi Ef (referred to as a fundus image, fundus photograph, etc.) is a front image such as an observed image or a photographed image. Observation images are obtained by moving image shooting using near-infrared light. A photographed image is a still image using flash light.
- the fundus camera unit 2 can photograph the anterior segment Ea of the subject's eye E to acquire a front image (anterior segment image).
- the retinal camera unit 2 includes an illumination optical system 10 and an imaging optical system 30.
- the illumination optical system 10 irradiates the eye E to be inspected with illumination light.
- the imaging optical system 30 detects return light of the illumination light from the eye E to be examined.
- the measurement light from the OCT unit 100 is guided to the subject's eye E through the optical path in the retinal camera unit 2, and its return light is guided to the OCT unit 100 through the same optical path.
- observation illumination light output from an observation light source 11 of an illumination optical system 10 is reflected by a reflecting mirror 12 having a curved reflecting surface, passes through a condenser lens 13, and passes through a visible light cut filter 14. It becomes near-infrared light. Furthermore, the observation illumination light is once converged near the photographing light source 15 , reflected by the mirror 16 , and passed through the relay lenses 17 and 18 , the diaphragm 19 and the relay lens 20 . Then, the observation illumination light is reflected by the periphery of the perforated mirror 21 (area around the perforation), passes through the dichroic mirror 46, is refracted by the objective lens 22, Illuminate part Ea).
- the return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the apertured mirror 21, and passes through the dichroic mirror 55. .
- the return light transmitted through the dichroic mirror 55 passes through the imaging focusing lens 31 and is reflected by the mirror 32 . Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the condenser lens .
- the image sensor 35 detects returned light at a predetermined frame rate.
- the focus of the imaging optical system 30 is adjusted so as to match the fundus oculi Ef or the anterior segment Ea.
- the light (imaging illumination light) output from the imaging light source 15 irradiates the fundus oculi Ef through the same path as the observation illumination light.
- the return light of the imaging illumination light from the subject's eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33 , is reflected by the mirror 36 , is reflected by the condenser lens 37 .
- An image is formed on the light receiving surface of the image sensor 38 .
- An LCD (Liquid Crystal Display) 39 displays a fixation target and a visual acuity measurement target.
- a part of the light beam output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, and passes through the aperture of the apertured mirror 21.
- the luminous flux that has passed through the aperture of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus oculi Ef.
- fixation positions include the fixation position for acquiring an image centered on the macula, the fixation position for acquiring an image centered on the optic disc, and the center of the fundus between the macula and the optic disc. and a fixation position for acquiring an image of a site far away from the macula (eye fundus periphery).
- the ophthalmologic device 1500b includes a GUI (Graphical User Interface) or the like for designating at least one of such fixation positions.
- the ophthalmologic device 1500b includes a GUI or the like for manually moving the fixation position (display position of the fixation target).
- a movable fixation target can be generated by selectively lighting multiple light sources in a light source array (such as a light emitting diode (LED) array). Also, one or more movable light sources can generate a movable fixation target.
- a light source array such as a light emitting diode (LED) array.
- LED light emitting diode
- one or more movable light sources can generate a movable fixation target.
- the ophthalmologic device 1500b may be provided with one or more external fixation light sources.
- One of the one or more external fixation light sources can project a fixation light onto the fellow eye of the eye E to be examined.
- the projection position of the fixation light in the fellow eye can be changed.
- the fixation position by the external fixation light source may be the same as the fixation position of the subject's eye E using the LCD 39 .
- a movable fixation target can be generated by selectively lighting a plurality of external fixation light sources.
- one or more movable external fixation light sources can generate a movable fixation target.
- the alignment optical system 50 generates an alignment index used for alignment of the optical system with respect to the eye E to be examined.
- Alignment light output from the LED 51 passes through the apertures 52 and 53 and the relay lens 54 , is reflected by the dichroic mirror 55 , and passes through the aperture of the apertured mirror 21 .
- the light passing through the hole of the perforated mirror 21 is transmitted through the dichroic mirror 46 and projected onto the subject's eye E by the objective lens 22 .
- the corneal reflected light of the alignment light is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment or automatic alignment can be performed based on the received light image (alignment index image).
- the focus optical system 60 generates a split index used for focus adjustment of the eye E to be examined.
- the focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (illumination optical path) of the imaging optical system 30 .
- the reflecting bar 67 can be inserted into and removed from the illumination optical path. When performing focus adjustment, the reflecting surface of the reflecting bar 67 is arranged at an angle in the illumination optical path.
- Focus light output from the LED 61 passes through a relay lens 62, is split into two light beams by a split index plate 63, passes through a two-hole diaphragm 64, is reflected by a mirror 65, and is reflected by a condenser lens 66 onto a reflecting rod 67. is once imaged on the reflective surface of , and then reflected. Further, the focused light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef. The fundus reflected light of the focus light is guided to the image sensor 35 through the same path as the corneal reflected light of the alignment light. Manual focus and autofocus can be performed based on the received light image (split index image).
- the dichroic mirror 46 synthesizes the fundus imaging optical path and the OCT optical path.
- the dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus imaging.
- the optical path for OCT (the optical path of the measurement light) includes, in order from the OCT unit 100 side toward the dichroic mirror 46 side, a collimator lens unit 40, an optical path length changing section 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, and a relay lens 45 are provided.
- the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 4, and changes the length of the OCT optical path. This change in optical path length is used for optical path length correction according to the axial length of the eye, adjustment of the state of interference, and the like.
- the optical path length changing section 41 includes a corner cube and a mechanism for moving it.
- the optical scanner 42 is arranged at a position optically conjugate with the pupil of the eye E to be examined.
- the optical scanner 42 deflects the measurement light LS passing through the OCT optical path.
- the light scanner 42 can deflect the measurement light LS one-dimensionally or two-dimensionally.
- the optical scanner 42 includes a galvanometer scanner that deflects the measurement light LS in a predetermined deflection angle range in a predetermined deflection direction.
- the optical scanner 42 includes a first galvanometer scanner and a second galvanometer scanner.
- the first galvanometer scanner is arranged in a horizontal direction orthogonal to the optical axis of the OCT optical system 8, which is an optical system on the path from the interference optical system included in the OCT unit 100 described later to the objective lens 22. part) is deflected to scan the measuring beam LS.
- the second galvanometer scanner deflects the measurement light LS deflected by the first galvanometer scanner so as to scan the imaging region in the vertical direction perpendicular to the optical axis of the OCT optical system 8 .
- Scan modes of the measurement light LS by the light scanner 42 include, for example, horizontal scan, vertical scan, cross scan, radial scan, circular scan, concentric circle scan, and spiral scan.
- the OCT focusing lens 43 is moved along the optical path of the measurement light LS in order to adjust the focus of the OCT optical system.
- the OCT focusing lens 43 has a first lens position for placing the focal position of the measurement light LS at or near the fundus Ef of the eye to be examined E, and a first lens position for collimating the measurement light LS with which the eye to be examined E is irradiated. and the second lens position. Movement of the imaging focusing lens 31, movement of the focusing optical system 60, and movement of the OCT focusing lens 43 can be controlled in a coordinated manner.
- the OCT unit 100 is provided with an optical system for performing OCT measurement (or OCT imaging) on the eye E to be examined.
- This optical system divides light from a wavelength sweeping (wavelength scanning) light source into measurement light and reference light, and causes interference between the return light of the measurement light from the subject's eye E and the reference light that has passed through the reference light path.
- It is an interference optical system that generates an interference light by using an interference optical system and detects the interference light.
- a detection result (detection signal) of the interference light by the interference optical system is an interference signal indicating the spectrum of the interference light, and is sent to the arithmetic control unit 200 .
- the light source unit 101 includes a wavelength sweeping (wavelength scanning) light source capable of sweeping (scanning) the wavelength of emitted light, like a general swept source type ophthalmologic apparatus.
- a swept-wavelength light source includes a laser light source including a resonator.
- the light source unit 101 temporally changes the output wavelength in the near-infrared wavelength band invisible to the human eye.
- the light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102, and its polarization state is adjusted.
- the polarization controller 103 adjusts the polarization state of the light L0 guided through the optical fiber 102 by, for example, externally applying stress to the looped optical fiber 102 .
- the light L0 whose polarization state has been adjusted by the polarization controller 103 is guided by the optical fiber 104 to the fiber coupler 105 and split into the measurement light LS and the reference light LR.
- the reference light LR is guided to the collimator 111 by the optical fiber 110, converted into a parallel beam, and guided to the optical path length changing section 114 via the optical path length correcting member 112 and the dispersion compensating member 113.
- the optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS.
- the dispersion compensation member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS.
- the optical path length changing unit 114 is movable in the direction of the arrow shown in FIG. 5, and changes the optical path length of the reference light LR. This movement changes the length of the optical path of the reference light LR. This change in the optical path length is used for correction of the optical path length according to the axial length of the eye E to be examined, adjustment of the interference state, and the like.
- the optical path length changing unit 114 includes, for example, a corner cube and a moving mechanism for moving it. In this case, the corner cube of the optical path length changing unit 114 reverses the traveling direction of the reference light LR that has been collimated by the collimator 111 .
- the optical path of the reference light LR entering the corner cube and the optical path of the reference light LR emerging from the corner cube are parallel.
- the reference light LR that has passed through the optical path length changing unit 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112 , is converted from a parallel beam into a converged beam by the collimator 116 , and enters the optical fiber 117 .
- the reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 to adjust the polarization state, guided to the attenuator 120 by the optical fiber 119 to adjust the light amount, and is sent to the fiber coupler 122 by the optical fiber 121. be guided.
- Both optical path length changing sections 114 for changing the length of the arm are provided.
- only one of the optical path length changers 41 and 114 may be provided. It is also possible to change the difference between the reference optical path length and the measurement optical path length by using optical members other than these.
- the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and made into a parallel light beam by the collimator lens unit 40 .
- the collimated measurement light LS is guided to the dichroic mirror 46 via the optical path length changing unit 41 , the optical scanner 42 , the OCT focusing lens 43 , the mirror 44 and the relay lens 45 .
- the measurement light LS guided to the dichroic mirror 46 is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated to the eye E to be examined.
- the measurement light LS is scattered (including reflected) at various depth positions of the eye E to be examined.
- the return light of the measurement light LS including such backscattered light travels in the opposite direction along the same path as the forward path, is guided to the fiber coupler 105 , and reaches the fiber coupler 122 via the optical fiber 128 .
- the fiber coupler 122 combines (interferences) the measurement light LS that has entered via the optical fiber 128 and the reference light LR that has entered via the optical fiber 121 to generate interference light.
- the fiber coupler 122 splits the interference light between the measurement light LS and the reference light LR at a predetermined splitting ratio (for example, 1:1) to generate a pair of interference lights LC.
- a pair of interference lights LC emitted from the fiber coupler 122 are guided to a detector 125 by optical fibers 123 and 124, respectively.
- the detector 125 is, for example, a balanced photodiode that has a pair of photodetectors that respectively detect a pair of interference lights LC and that outputs the difference between the detection results of these. Detector 125 sends the detection result (interference signal) to DAQ (Data Acquisition System) 130 .
- a clock KC is supplied from the light source unit 101 to the DAQ 130 .
- the clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept (scanned) within a predetermined wavelength range by the wavelength swept light source.
- the light source unit 101 for example, optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then outputs the clock KC based on the result of detecting these combined lights.
- the DAQ 130 samples the detection result of the detector 125 based on the clock KC.
- the DAQ 130 sends the sampled detection results of the detector 125 to the arithmetic control unit 200 .
- the arithmetic and control unit 200 for example, for each series of wavelength scans (for each A line), performs Fourier transform or the like on the spectral distribution based on the detection results obtained by the detector 125, thereby obtaining a complex amplitude profile or forming a reflection intensity profile; Further, the arithmetic and control unit 200 forms image data by imaging the complex amplitude profile or reflection intensity profile of each A-line.
- a processing system (control system) of the ophthalmologic apparatus 1500b is configured around the arithmetic control unit 200.
- FIG. 1 A processing system (control system) of the ophthalmologic apparatus 1500b is configured around the arithmetic control unit 200.
- the arithmetic control unit 200 forms an OCT image of the fundus oculi Ef from the detection signal input from the DAQ 130 . Arithmetic processing therefor is similar to that of the conventional swept source type OCT apparatus.
- the arithmetic control unit 200 controls each part of the retinal camera unit 2, the display device 3, and the OCT unit 100.
- the functions of the display device 3 are assumed to be realized by a user interface having a display section and an operation section.
- FIG. 6 shows a functional block diagram of a configuration example of the processing system of the ophthalmologic apparatus 1500b. In FIG. 6, some of the components included in the ophthalmologic apparatus 1500b are omitted.
- the arithmetic control unit 200 includes a control section 210 , an image forming section 220 and a data processing section 230 .
- Functions of the arithmetic control unit 200 are implemented by one or more processors.
- the functions of the arithmetic control unit 200 are a control processor that implements the functions of the control unit 210, an image forming processor that implements the functions of the image forming unit 220, and a data processing unit 230. It is implemented by a data processor.
- Control unit 210 The control unit 210 executes various controls.
- Control unit 210 includes main control unit 211 and storage unit 212 .
- the main controller 211 includes a processor and controls each part of the ophthalmologic apparatus 1500b.
- the main control unit 211 controls the operation of the observation light source 11, the photographing light source 15, the CCD image sensors 35 and 38, and the LEDs 51 and 61, the operation control of the LCD 39, and the movement control of the photographing focusing lens 31. , movement control of the OCT focusing lens 43, movement control of the reflecting bar 67, alignment optical system 50, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the optical scanner 42, and the like. .
- the main control unit 211 controls the operation of the light source unit 101, the movement control of the optical path length changing unit 114, the operation control of the attenuator 120, the operation control of the polarization controllers 103 and 118, and the operation of the detector 125. control, operation control of the DAQ 130, and the like.
- the main control unit 211 displays an observed image of the eye to be examined E, a photographed image of the eye to be examined E, an OCT image of the eye to be examined E acquired using the OCT unit 100, measurement results, a GUI, and the like. It is displayed on the part 240A.
- the main control unit 211 also receives an operation signal corresponding to the operation content of the operation unit 240B by the user, and controls each unit of the ophthalmologic apparatus 1500b based on the received operation signal.
- the main control unit 211 can control the movement mechanism 150 that moves the entire optical system with respect to the eye E to be examined.
- the main control unit 211 displays the fixation target at a position on the screen of the LCD 39 corresponding to the fixation position set manually or automatically. Further, the main control unit 211 can change (continuously or stepwise) the display position of the fixation target displayed on the LCD 39 . Thereby, the fixation target can be moved (that is, the fixation position can be changed). The display position and movement mode of the fixation target are set manually or automatically. Manual setting is performed using, for example, a GUI. Automatic setting is performed by the data processing unit 230, for example.
- the focus drive unit 31A moves the photographic focusing lens 31 in the optical axis direction of the photographic optical system 30 and moves the focus optical system 60 in the optical axis direction of the illumination optical system 10. Thereby, the focus position of the photographing optical system 30 is changed.
- the focus driving section 31A may have a mechanism for moving the photographing focusing lens 31 and a mechanism for moving the focus optical system 60 separately.
- the focus drive unit 31A is controlled when performing focus adjustment.
- the focus drive unit 43A moves the OCT focus lens 43 in the optical axis direction of the measurement optical path. Thereby, the focus position of the measurement light LS is changed.
- the focusing position of the measurement light LS can be arranged at or near the fundus oculi Ef.
- the focusing position of the measurement light LS can be arranged at the far point position and the measurement light LS can be made into a parallel beam.
- the focus position of the measurement light LS corresponds to the depth position (z position) of the beam waist of the measurement light LS.
- the movement mechanism 150 for example, three-dimensionally moves at least the retinal camera unit 2 (optical system).
- the movement mechanism 150 includes at least a mechanism for moving the retinal camera unit 2 in the x direction (horizontal direction), a mechanism for moving it in the y direction (vertical direction), and a mechanism for moving it in the z direction (depth direction). , back and forth).
- the mechanism for moving in the x-direction includes, for example, an x-stage movable in the x-direction and an x-moving mechanism for moving the x-stage.
- the mechanism for moving in the y-direction includes, for example, a y-stage movable in the y-direction and a y-moving mechanism for moving the y-stage.
- the mechanism for moving in the z-direction includes, for example, a z-stage movable in the z-direction and a z-moving mechanism for moving the z-stage.
- Each moving mechanism includes an actuator such as a pulse motor, and operates under control from the main control unit 211 .
- the control over the moving mechanism 150 is used in alignment and tracking. Tracking is to move the apparatus optical system according to the eye movement of the eye E to be examined. Alignment and focus adjustment are performed in advance when tracking is performed. Tracking is a function of maintaining a suitable positional relationship in which alignment and focus are achieved by causing the position of the apparatus optical system to follow the movement of the eyeball. Some embodiments are configured to control movement mechanism 150 to change the optical path length of the reference beam (and thus the optical path length difference between the optical path of the measurement beam and the optical path of the reference beam).
- the main control unit 211 controls the moving mechanism 150 by outputting a control signal corresponding to the operation content of the user interface 240 to the moving mechanism 150 to move the optical system and the subject's eye E relative to each other.
- the main control unit 211 controls the movement mechanism 150 so that the displacement of the eye E to be examined with respect to the optical system is canceled, thereby relatively moving the optical system and the eye E to be examined.
- the main controller 211 outputs a control signal such that the optical axis of the optical system substantially coincides with the axis of the eye E to be examined and the distance of the optical system from the eye E to be examined is a predetermined working distance.
- the working distance is a default value also called a working distance of the objective lens 22, and corresponds to the distance between the subject's eye E and the optical system at the time of measurement (at the time of photographing) using the optical system.
- the main control unit 211 controls fundus imaging and anterior segment imaging by controlling the fundus camera unit 2 and the like.
- the main control unit 211 also controls OCT measurement by controlling the fundus camera unit 2, the OCT unit 100, and the like.
- the arithmetic control unit 200 includes, for example, a processor, RAM, ROM, hard disk drive, communication interface, etc., like a conventional computer.
- a storage device such as a hard disk drive stores a computer program for controlling the ophthalmologic apparatus 1500b.
- the arithmetic and control unit 200 may include various circuit boards, such as a circuit board for forming OCT images.
- the arithmetic control unit 200 may also include an operation device (input device) such as a keyboard and mouse, and a display device such as an LCD.
- the retinal camera unit 2, the user interface 240, the OCT unit 100, and the arithmetic and control unit 200 may be configured integrally (that is, in a single housing), or may be configured separately in two or more housings. may have been
- the storage unit 212 stores various data.
- the data stored in the storage unit 212 includes, for example, image data of an OCT image, image data of a fundus image, image data of an anterior segment image, eye information to be examined, and the like.
- the eye information to be examined includes information about the subject such as patient ID and name, and information about the eye to be examined such as left/right eye identification information.
- the storage unit 212 stores various programs and data for operating the ophthalmologic apparatus 1500b.
- the ophthalmologic apparatus 1500b is provided with a user interface 240 for receiving operations from the user and presenting information to the user.
- the control unit 210 can manage interface processing with the user by controlling the user interface 240 .
- the user interface 240 includes a display section 240A and an operation section 240B.
- the display section 240A includes the display device of the arithmetic control unit 200 and the display device 3 .
- the operation section 240B includes the operation device of the arithmetic control unit 200 described above.
- the operation unit 240B may include various buttons and keys provided on the housing or outside of the ophthalmologic apparatus 1500b.
- the operation section 240B may include a joystick, an operation panel, etc. provided in this housing.
- the display section 240A may include various display devices such as a touch panel provided in the housing of the retinal camera unit 2 .
- the display unit 240A and the operation unit 240B do not need to be configured as individual devices.
- a device such as a touch panel in which a display function and an operation function are integrated.
- the operation unit 240B is configured including this touch panel and a computer program.
- the content of the operation performed on the operation unit 240B is input to the control unit 210 as an electric signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.
- GUI graphical user interface
- the image forming unit 220 forms an OCT image (image data) of the subject's eye E based on sampling data obtained by sampling the detection signal from the detector 125 with the DAQ 130 .
- This processing includes processing such as noise removal (noise reduction), filter processing, dispersion compensation, and FFT (Fast Fourier Transform), like conventional swept source type OCT.
- the imaging unit 220 performs well-known processing depending on the type.
- the image forming unit 220 includes, for example, the aforementioned processor, RAM, ROM, hard disk drive, circuit board, and the like.
- a storage device such as a hard disk drive pre-stores a computer program that causes the processor to execute the functions described above.
- image data and “images” based thereon may be regarded as the same.
- the data processing unit 230 processes data obtained by photographing the eye E to be examined or by OCT measurement.
- the data processing unit 230 performs various image processing and analysis processing on the image formed by the image forming unit 220 .
- the data processing unit 230 executes various correction processes such as image luminance correction.
- the data processing unit 230 performs various image processing and analysis processing on the images (eye fundus image, anterior segment image, etc.) obtained by the retinal camera unit 2 .
- the data processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef.
- image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system.
- Image data of a three-dimensional image includes image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
- rendering processing volume rendering, MIP (Maximum Intensity Projection: maximum intensity projection), etc.
- Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on the user interface 240 (display unit 240A).
- stack data of a plurality of tomographic images is image data of a three-dimensional image.
- Stacked data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scan lines based on the positional relationship of the scan lines. That is, stack data is image data obtained by expressing a plurality of tomographic images, which were originally defined by individual two-dimensional coordinate systems, by one three-dimensional coordinate system (that is, embedding them in one three-dimensional space).
- the data processing unit 230 performs various renderings on the acquired three-dimensional data set (volume data, stack data, etc.) to obtain a B-mode image (longitudinal cross-sectional image, axial cross-sectional image) at an arbitrary cross section, C-mode images (cross-sectional images, horizontal cross-sectional images), projection images, shadowgrams, etc. can be formed.
- An arbitrary cross-sectional image such as a B-mode image or a C-mode image, is formed by selecting pixels (pixels, voxels) on a specified cross-section from a three-dimensional data set.
- a projection image is formed by projecting a three-dimensional data set in a predetermined direction (z direction, depth direction, axial direction).
- a shadowgram is formed by projecting a portion of the three-dimensional data set (for example, partial data corresponding to a specific layer) in a predetermined direction.
- An image such as a C-mode image, a projection image, or a shadowgram whose viewpoint is the front side of the subject's eye is called an en-face image.
- the data processing unit 230 generates a B-mode image or a frontal image (blood vessel-enhanced image, angiogram) in which retinal blood vessels and choroidal blood vessels are emphasized, based on data (for example, B-scan image data) collected in time series by OCT. can be constructed.
- data for example, B-scan image data
- time-series OCT data can be collected by repeatedly scanning substantially the same portion of the eye E to be examined.
- the data processing unit 230 compares time-series B-scan images obtained by B-scans of substantially the same site, and converts the pixel values of the portions where the signal intensity changes to the pixel values corresponding to the changes.
- An enhanced image in which the changed portion is emphasized is constructed by the conversion.
- the data processing unit 230 extracts information for a predetermined thickness in a desired region from the constructed multiple enhanced images and constructs an en-face image to form an OCTA image.
- Images generated by the data processing unit 230 are also included in OCT images.
- the data processing unit 230 performs predetermined analysis processing on the detection result of the interference light obtained by the OCT measurement or the OCT image formed based on the detection result.
- Predetermined analysis processing includes identification of a predetermined site (tissue, lesion) in the eye to be examined E; calculation of the distance (interlayer distance), area, angle, ratio, and density between the designated sites; designated calculation formula specification of the shape of a predetermined site; calculation of these statistical values; calculation of the distribution of the measured values and statistical values; and image processing based on these analysis processing results.
- Predetermined tissues include blood vessels, optic disc, fovea fovea, macula, and the like.
- Predetermined lesions include vitiligo, hemorrhage, and the like.
- the data processing unit 230 reduces the influence of phase drift caused by the movement of the eye and the phase instability of the OCT optical system 8, the OCT data of the eye to be examined E obtained by OCT measurement (for example, 3 It is possible to perform phase stabilization processing on dimensional complex OCT data, complex OCT volume data).
- the image forming unit 220 or the data processing unit 230 forms an OCT image based on the absolute value of complex OCT data that has undergone phase stabilization processing. Since imaging can be performed using the imaginary part in addition to the real part of the complex OCT data, an even higher definition OCT image can be acquired.
- the data processing unit 230 forms a phase image (phase information) or an OCTA image based on the absolute value of the complex OCT data subjected to phase stabilization processing. Since the component affected by the phase drift is removed from the imaginary part of the complex OCT data, it is possible to acquire a phase image and an OCTA image with even higher precision.
- the data processing unit 230 can perform aberration correction processing for correcting aberration caused by the eye E or the optical system on the OCT data that has been subjected to the phase stabilization processing.
- FIG. 7 shows an operation explanatory diagram of the aberration correction processing executed by the data processing unit 230.
- the data processing unit 230 searches for parameters of the CAO filter CF as filter information from the complex OCT data DT1 of the eye E to be examined obtained by OCT measurement.
- search for CAO filter parameters as filter information may be referred to as “search for CAO filter”.
- the data processing unit 230 performs aberration correction processing PC on the complex OCT data DT1 using the found CAO filter CF, and acquires aberration-corrected complex OCT data DT2.
- the aberration correction process PC is performed in the frequency domain. In some embodiments, the aberration correction process PC is performed in the spatial domain.
- the accuracy of OCT measurement results can be improved without being affected by aberrations caused by the eye E to be examined and the optical system.
- FIG. 8 shows an explanatory diagram of the CAO filter according to the embodiment.
- a CAO filter can be represented by a Zernike polynomial corresponding to the distribution of wavefront aberration on the pupil plane of the eye E to be examined. By adjusting the coefficients (parameters) of the terms of each order of the Zernike polynomial, it is possible to adjust the filter characteristics of the CAO filter.
- the filter characteristics of the CAO filter are determined by synthesizing one or more filters corresponding to a predetermined wavefront aberration distribution according to coefficients corresponding to each filter.
- the CAO filter CF includes a defocus term F de , an astigmatism term F asHV in the HV direction (0-90 degree direction), and a diagonal direction ( ⁇ 45 degree direction) is represented by a polynomial expression including the astigmatism term F asDG of .
- the CAO filter CF realizes desired filter characteristics by adjusting the coefficients C de , C as_HV and C as_DG of each term as parameters.
- the CAO filter CF may include higher-order terms such as a coma term and a spherical aberration term.
- FIG. 9 shows an explanatory diagram of an example of CAO filter search processing according to the embodiment.
- the data processing unit 230 sequentially applies two or more CAO filters having different filter characteristics to the complex OCT data DT1 of the eye E to be examined, and performs aberration correction on the two or more complex OCT data DT11, DT12, . , DT1M (M is an integer equal to or greater than 2).
- the data processing unit 230 evaluates the quality of each of the acquired two or more complex OCT data DT11 to DT1M, and specifies the CAO filter applied to the complex OCT data with the highest quality as the search result CAO filter.
- An example of a technique for evaluating the quality of complex OCT data is a technique for evaluating the image quality of an OCT image formed based on the complex OCT data.
- OCT images include tomographic images, front images (projection images, en-face images), and OCTA images.
- the data processing unit 230 can identify the complex OCT data with the highest quality based on the image quality evaluation value representing the degree of image quality of the formed OCT image.
- the data processing unit 230 can generate the CAO filter parameters (coefficients) from the refractive power information representing the refractive power of the eye E to be examined. This makes it possible to simplify or omit the CAO filter (filter information) search process.
- FIG. 10 shows a block diagram of a configuration example of the data processing unit 230 of FIG.
- the data processing unit 230 includes a phase stabilization unit 231 , a filter information generation unit 232 , a filter information search unit 300 , an aberration correction unit 234 and a projection image formation unit 235 .
- phase Stabilizer 231 The phase stabilization unit 231 adjusts the complex OCT data of the eye E to be examined so as to cancel the effects of phase drift caused by the movement of the eye E to be measured and phase instability in the system (OCT optical system 8). phase stabilization processing.
- FIG. 11 shows a block diagram of a configuration example of the phase stabilizing section 231 in FIG.
- the phase stabilization section 231 includes a phase difference profile generation section 231A, a phase drift extraction section 231B, a phase difference data removal section 231C, and a phase correction section 231D.
- phase difference profile generator 231A The phase difference profile generator 231A generates a phase difference profile in which phase data representing phase differences averaged for each A line from the three-dimensional complex OCT data are arranged in the B line direction. Specifically, the phase difference profile generator 231A calculates the phase difference for each depth position of the A line between two adjacent B frames of the complex OCT data, and converts the calculated phase difference in the depth direction (z direction), and the phase differences obtained by averaging are arranged in the B-line direction to generate a phase difference profile.
- FIG. 12A shows an explanatory diagram of the operation of the phase difference profile generator 231A.
- FIG. 12A schematically shows the complex OCT data ODT with the horizontal direction as the x direction and the vertical direction as the y direction.
- the phase difference profile generator 231A integrates the phase difference calculated for each depth position of the A line between two adjacent B frames B k and B k+1 in the z direction, as shown in Equation (1). Then, the accumulated phase differences are averaged to obtain the phase difference for each A line. The phase difference profile generator 231A similarly obtains the phase difference for each A line between the next two B frames B k+1 and B k+2 . This is sequentially repeated, and phase difference profiles between two B frames are sequentially obtained for the three-dimensional complex OCT data ODT.
- phase drift extractor 231B extracts phase drift from the phase difference profile generated by the phase difference profile generator 231A. Specifically, the phase drift extraction unit 231B extracts the phase drift by performing at least one of smoothing processing, polynomial fitting, and high frequency cut filter processing on the phase difference profile.
- FIG. 12B shows an explanatory diagram of the operation of the phase drift extractor 231B.
- the horizontal axis represents the A-line number corresponding to the position of the A-line (the incident position of the measurement light scanned in the B scanning direction), and the vertical axis represents the phase difference.
- phase drift extraction unit 231B extracts the phase drift DF0 by performing smoothing processing on the phase difference profile RD0 generated by the phase difference profile generation unit 231A.
- At least one parameter of the smoothing process, polynomial fitting, and high-frequency cut filter process performed by the phase drift extraction unit 231B is the frequency of phase change, the speed of phase change, and It is set based on at least one of the times required for OCT scanning in the OCT optical system 8 .
- phase difference data removing unit 231C removes phase difference data with low reliability from the phase difference profile generated by the phase difference profile generating unit 231A before extracting the phase drift.
- the phase drift extractor 231B extracts a phase drift from the phase difference profile from which the phase difference data with low reliability has been removed by the phase difference data remover 231C. Thereby, a phase drift with local phase difference changes removed is obtained.
- FIG. 13 shows an explanatory diagram of the operation of the phase difference data removal unit 231C.
- the horizontal axis represents the A-line number corresponding to the position of the A-line
- the vertical axis represents the phase difference.
- phase difference data removal unit 231C removes (thins) the low-reliability phase difference data N1 to N4 from the phase difference profile RD0 shown in FIG. 12B to generate the phase difference profile RD1 shown in FIG.
- the phase drift extractor 231B extracts the phase drift DF1 from the phase difference profile RD1 shown in FIG. This makes it possible to suppress the influence of local phase changes (local errors) compared to the phase drift DF0.
- phase difference data with low reliability phase difference data with weak signal intensity
- Phase difference data with weak signal strength may reduce the high reliability of phase difference data with strong signal strength.
- Phase difference data with a large degree of contribution to the phase difference calculation process of Equation (1) is highly likely to break the precondition that the expected value of the phase difference is zero.
- phase difference data removal unit 231C identifies phase difference data that satisfies Equation (2) as data whose signal intensity is less than a predetermined threshold level, and removes the identified data from the phase difference profile.
- the phase difference data removing unit 231C determines that the contribution of the phase difference at a predetermined depth position in the averaging process when calculating the phase difference of the equation (1) for the phase difference data that satisfies the equation (3) is a predetermined threshold value. and remove the identified data from the phase difference profile.
- the phase difference data removing unit 231C regards at least one of the data whose signal strength is less than a predetermined threshold level and the data whose contribution due to the phase difference at a predetermined depth position exceeds a predetermined threshold in the averaging process as reliability. It can be removed from the phase difference profile as low data.
- phase corrector 231D Based on the phase drift extracted by the phase drift extractor 231B, the phase corrector 231D corrects the phase of the complex OCT data of one of the two B frames for which the phase difference profile is generated.
- the phase correction unit 231D uses the phase difference ⁇ in the phase drift for each A line to calculate the complex value of B frame B k+1 in the frequency domain. Multiply the OCT data by exp(-i ⁇ ). In some embodiments, the phase corrector 231D performs a convolution operation using the phase difference ⁇ on the complex OCT data in the spatial domain.
- the phase stabilization unit 231 sequentially performs the above phase correction processing on B frames of the three-dimensional complex OCT data. That is, the phase stabilizing unit 231 performs complex OCT data of the second B frame based on the phase difference profile generated by the phase difference profile generating unit 231A for the adjacent first B frame and second B frame. After correcting the phase, for the second B frame and the third B frame adjacent to the second B frame, the complex phase of the third B frame is calculated based on the phase difference profile generated by the phase difference profile generator 231A. It is configured to correct the phase of OCT data.
- the filter information generation unit 232 shown in FIG. 10 generates parameters of a CAO filter to be applied to the complex OCT data of the eye E to be examined as filter information.
- the parameters of the CAO filter are the coefficients of each term of the Zernike polynomials.
- the filter information generation unit 232 generates the parameters of the CAO filter, which are the initial values of the search processing, as filter information. For example, the filter information generator 232 acquires the filter information by referring to the initial values of the CAO filter parameters stored in advance in the storage unit 212 .
- the filter information generation unit 232 generates the parameters of the CAO filter as filter information from the refractive power information of the eye E to be examined obtained by the refractive power measurement of the eye E to be examined performed in an external ophthalmologic apparatus. do. That is, the filter information generator 232 can generate the filter information as the reference filter information based on the refractive power information of the eye E to be examined. The parameters of the CAO filter are searched such that the quality of the complex OCT data is at a predetermined level based on the generated reference filter information.
- Equivalent spherical power SE, spherical power S, cylinder power C, and cylinder axis angle A can be calculated by formulas (4) to (7) using the coefficients of the terms of the Zernike polynomials.
- Equation (4) S move represents the spherical power for the fixation movement, r represents the pupil diameter, and c 2 0 represents the coefficient of the defocus term (corresponding to the coefficient C de in FIG. 8). Further, in equations (6) and (7), c 2 ⁇ 2 represents the coefficient of the astigmatism term in the DG direction (corresponding to the coefficient C as_DG in FIG. 8), and c 2 2 represents the astigmatism term in the HV direction. 8 represents the coefficient of the astigmatism term (corresponding to the coefficient C as_HV in FIG. 8).
- the equivalent spherical power SE, the spherical power S, the cylinder power C, and the cylinder axis angle A can be calculated by formulas (8) to (11).
- the filter information generation unit 232 calculates the coefficient of each term of the Zernike polynomial from the refractive power information of the eye E to be examined CAO filter by can be generated as filter information.
- the filter information searching unit 300 searches for filter information for correcting aberration of complex OCT data so that the quality of the complex OCT data of the subject's eye E is at a predetermined level. Specifically, filter information searching section 300 repeats evaluating the quality of complex OCT data corrected based on the filter information and updating the filter information so that the quality of the complex OCT data reaches a predetermined level. Furthermore, the filter information search unit 300 repeats quality evaluation and filter information update to perform a rough search for filter information, and repeats filter information update and quality evaluation within the searched search range. It is possible to search for information in detail.
- FIG. 14 shows a block diagram of a configuration example of the filter information search section 300 of FIG.
- the filter information search unit 300 includes a coarse search unit 310 and a fine search unit 320.
- the coarse search unit 310 coarsely searches for the filter information by repeating the evaluation of the quality of the complex OCT data and the update of the filter information.
- Such coarse search unit 310 includes a filter test unit 311 and a filter information update unit 312 .
- the filter test unit 311 applies a CAO filter to the complex OCT data and evaluates the quality of the aberration-corrected complex OCT data.
- a filter test section 311 includes a filter processing section 311A and an image quality evaluation section 311B.
- (Filter processing unit 311A) 311 A of filter processing parts perform a filter process with a well-known method with respect to complex OCT data using the CAO filter in coarse search processing. For example, the filtering unit 311A multiplies the complex OCT data in the frequency domain by exp(-i ⁇ ) corresponding to the parameters of the CAO filter. For example, the filtering unit 311A performs a convolution operation on complex OCT data in the spatial domain using filter coefficients corresponding to CAO filter parameters.
- the image quality evaluation unit 311B evaluates the image quality of an OCT image (fundus image) formed based on the complex OCT data whose aberration has been corrected by the filter processing unit 311A. For example, an OCT image is formed by the image forming section 220 .
- the image quality evaluation unit 311B can calculate the image quality evaluation value of the OCT image.
- the image quality evaluation value is a numerical value indicating the degree of image quality of the OCT image, and is used to evaluate whether the image quality is good.
- the image quality evaluation value may be any type of value that can be calculated by any method.
- a typical image quality evaluation value is represented by a signal-to-noise ratio (S/N ratio) for two types of image regions in an OCT image.
- S/N ratio signal-to-noise ratio
- a specific example of the image quality evaluation value is the S/N ratio of the signal in the image region representing the eye region and the noise in the image region representing the background other than the eye region.
- An image area representing the eye part is called a signal area
- an image area representing the background is called a background area.
- Any method can be used to calculate the image quality evaluation value expressed as the S/N ratio for the signal area and the background area. A specific example thereof will be described below.
- the image quality evaluation unit 311B identifies pixels with maximum luminance and pixels with minimum luminance for each of a plurality of A-scan images that constitute an OCT image.
- the image quality evaluation unit 311B creates a brightness value histogram based on the brightness values of a pixel group (for example, 40 pixels before and after) in a predetermined range including the specified maximum brightness pixel.
- the image quality evaluation unit 311B creates a luminance value histogram based on the luminance values of a pixel group within a predetermined range including the identified minimum luminance pixel.
- the image quality evaluation unit 311B searches for the maximum position (luminance value) where the frequency value exceeds 0 in the histogram corresponding to the pixel group including the minimum luminance pixel. Furthermore, in the histogram corresponding to the pixel group containing the pixel with the maximum luminance, the total number of pixels (N) included in the range below the luminance value searched above, and the 255th luminance value from above the searched luminance value and the total number of pixels (S) included in . Then, the image quality evaluation unit 311B evaluates what percentage of the entire image is the part that can be regarded as a signal (that is, the part that can be regarded as not noise) in the image using the following formula: 100 ⁇ S/(S+N).
- the image quality evaluation unit 311B obtains a plurality of numerical values corresponding to a plurality of A-scan images by applying such a series of calculations to each A-scan image. Then, the image quality evaluation section 311B obtains an average value of these numerical values and uses it as an image quality evaluation value.
- the filter information update unit 312 increases the parameters of the CAO filter searched by the coarse search unit 310 by a predetermined increase or decreases them by a predetermined decrease to update the parameters.
- the increment or decrement may differ depending on the type of parameter, or may be common to parameters of two or more types.
- filter information updater 312 updates only one of the CAO filter parameters. In some embodiments, filter information updater 312 simultaneously updates two or more of the CAO filter parameters.
- the filter test unit 311 acquires aberration-corrected complex OCT data by applying the CAO filter by the filter processing unit 311A, for example, in the frequency domain. After that, the filter test section 311 evaluates the image quality of the OCT image formed based on the complex OCT data by the image quality evaluation section 311B in the spatial domain.
- the rough search unit 310 repeats the CAO filter parameter update by the filter information update unit 312 and the image quality evaluation by the filter test unit 311 to roughly search for the CAO filter.
- Fine search section 320 finely searches for filter information by repeating update of filter information and quality evaluation within the search range searched by coarse search section 310 .
- the fine search unit 320 includes a filter test unit 321 , a filter information update unit 322 and a gradient calculation unit 323 .
- filter test unit 321 Similar to the filter test unit 311, the filter test unit 321 applies the CAO filter to the complex OCT data and evaluates the quality of the aberration-corrected complex OCT data.
- a filter test section 321 includes a filter processing section 321A and an image quality evaluation section 321B.
- the filtering unit 321A performs filtering on the complex OCT data by a known method using the CAO filter during fine search processing.
- the processing by the filter processor 321A is the same as that of the filter processor 311A.
- the image quality evaluation unit 321B evaluates the image quality of the OCT image (fundus image) formed based on the complex OCT data whose aberration has been corrected by the filter processing unit 321A. Like the image quality evaluation unit 311B, the image quality evaluation unit 321B can calculate the image quality evaluation value of the OCT image.
- the filter information update unit 322 increases or decreases the parameters of the CAO filter searched by the fine search unit 320 to update the parameters.
- the filter information updating unit 322 can update the CAO filter parameters according to the gradient calculated by the gradient calculating unit 323, which will be described later.
- filter information updater 322 updates only one of the CAO filter parameters.
- filter information updater 322 simultaneously updates two or more of the CAO filter parameters.
- Gradient calculation section 323 calculates the gradient of the image quality evaluation value calculated by image quality evaluation section 321B.
- the gradient calculation unit 323 calculates the gradient of the image quality evaluation value that changes due to updating of the filter information.
- the filter information updating section 322 updates the filter information based on the gradient of the image quality evaluation value calculated by the gradient calculating section 323 . Specifically, the filter information updating unit 322 updates the filter information such that the gentler the gradient of the calculated image quality evaluation value, the smaller the increase or decrease, and the steeper the gradient, the smaller the increase or decrease. Update the filter information so that is larger.
- the filter test unit 321 acquires aberration-corrected complex OCT data by applying the CAO filter by the filter processing unit 321A, for example, in the frequency domain. After that, the filter test section 321 evaluates the image quality of the OCT image formed based on the complex OCT data by the image quality evaluation section 321B in the spatial domain.
- the gradient calculation unit 323 calculates the gradient of the image quality evaluation value that changes due to the update of the filter information, and the filter information update unit 322 updates the filter information based on the calculated gradient of the image quality evaluation value. do.
- the fine search unit 320 finely searches for the CAO filter by repeating the update of the CAO filter parameters by the filter information update unit 322 according to the gradient of the image quality evaluation value and the image quality evaluation by the filter test unit 321 .
- the aberration corrector 234 shown in FIG. 10 corrects the aberration of the complex OCT data of the subject's eye E based on the CAO filter (parameter) searched by the filter information searcher 300 .
- the aberration corrector 234 uses a CAO filter to filter the complex OCT data by a known method. For example, the aberration corrector 234 multiplies the complex OCT data in the frequency domain by exp(-i ⁇ ') corresponding to the parameters of the CAO filter. For example, the aberration corrector 234 performs a convolution operation on complex OCT data in the spatial domain using filter coefficients corresponding to the parameters of the CAO filter.
- At least one of the functions of the filter processing unit 311A and the filter processing unit 321A may be realized by the aberration correction unit 234.
- the projection image forming unit 235 forms a projection image based on the complex OCT data of the eye E to be examined.
- the projection image forming section 235 forms a projection image based on the complex OCT data whose aberration has been corrected by the aberration correcting section 234 .
- the projection image forming unit 235 forms a projection image by projecting a three-dimensional image of the subject's eye E in the z direction.
- projection images are used to judge the quality of complex OCT data.
- the main control unit 211 functions as a display control unit to display aberration information on the pupil plane of the eye to be examined E corresponding to the parameters of the searched CAO filter on the display unit 240A. can be displayed on
- the aberration information includes at least one of information representing the refractive power of the subject's eye E, Zernike coefficients, and distribution information of the phase shift of light (wavefront aberration information).
- the information representing refractive power includes at least one of equivalent spherical power (SE), spherical power (S), cylinder power (C), and cylinder axis angle (A).
- the data processing unit 230 that functions as described above includes, for example, the aforementioned processor, RAM, ROM, hard disk drive, circuit board, and the like.
- a storage device such as a hard disk drive pre-stores a computer program that causes the processor to execute the functions described above.
- the ophthalmologic information processing apparatus 1200, the ophthalmologic information processing units 1200a and 1200b, and the data processing unit 230 are examples of the "ophthalmic information processing apparatus" according to the embodiment.
- generation parts are an example of the "generation part” which concerns on embodiment.
- the phase drift extractor 231B is an example of the “extractor” according to the embodiment.
- the phase difference data remover 231C is an example of the “removal unit” according to the embodiment.
- the image forming section 220 or the data processing section 230 is an example of the "image forming section” according to the embodiment.
- the OCT optical system 1101 or OCT optical system 8 is an example of the "measurement system” according to the embodiment.
- 15 to 23 show operation examples of the ophthalmologic apparatus 1500b according to the embodiment.
- 15 to 17 and 19 to 23 represent flow charts of an operation example of the ophthalmologic apparatus 1500b according to the embodiment.
- FIG. 16 shows a flow chart of an operation example of step S4 in FIG.
- FIG. 17 shows a flow chart of an operation example of step S11 in FIG.
- FIG. 19 shows a flowchart of an operation example of step S13 of FIG.
- FIG. 20 shows a flow chart of an operation example of each of steps S22 to S24 in FIG.
- FIG. 21 shows a flow chart of an operation example of step S31 in FIG.
- FIG. 22 shows a flow chart of an operation example of step S25 in FIG.
- FIG. 23 shows a flow chart of an operation example of step S54 in FIG.
- the storage unit 212 stores computer programs for realizing the processes shown in FIGS.
- the main control unit 211 executes the processes shown in FIGS. 15 to 17 and 19 to 23 by operating according to this computer program.
- FIG. 18 represents an operation explanatory diagram of steps S12 to S15 in FIG.
- the user can specify the scan mode and scan range by operating the operation unit 240B.
- the main control unit 211 analyzes the operation information from the operation unit 240B and identifies the designated scan mode and scan range.
- the main control unit 211 sets at least one of the scan mode and scan range corresponding to the operation mode specified by the user.
- the main controller 211 controls the alignment optical system 50 to project the alignment index onto the eye E to be examined.
- the fixation target by the LCD 39 is also projected onto the eye E to be examined.
- the main control unit 211 controls the moving mechanism 150 based on, for example, the amount of movement of the optical system specified based on the received light image acquired by the image sensor 35, and moves the optical system to the subject's eye E by the amount of movement. Move relatively.
- the main control unit 211 causes this process to be repeatedly executed.
- the optical system is arranged such that the optical axis of the optical system substantially coincides with the axis of the eye E to be examined, and the distance of the optical system from the eye E to be examined is a predetermined working distance.
- the main controller 211 controls the OCT unit 100 to perform OCT scanning under the scanning conditions set in step S1.
- the main control unit 211 controls the light scanner 42 to deflect the measuring light LS generated based on the light L0 emitted from the light source unit 101, and the deflected measuring light LS A predetermined site (for example, the fundus) of the eye E to be examined is scanned.
- the interference light detection result obtained by scanning the measurement light LS is sampled in synchronization with the clock KC.
- Three-dimensional complex OCT data of the subject's eye E is acquired from the detection result of the interference light.
- step S4 aberration correction
- the main control unit 211 controls the data processing unit 230 to perform aberration correction processing on the complex OCT data acquired in step S3.
- step S4 as will be described later, a CAO filter (parameter) is searched, and the CAO filter obtained by the search is applied to the complex OCT data. Details of step S4 will be described later.
- the main control unit 211 determines whether or not to display the aberration information corresponding to the CAO filter found in step S4 on the display unit 240A. For example, the main control unit 211 determines whether or not to display the aberration information on the display unit 240A based on the details of the user's operation on the operation unit 240B. For example, the main control unit 211 determines whether or not to display the aberration information on the display unit 240A according to the operation mode specified in advance.
- step S5 When it is determined in step S5 that the aberration information is to be displayed on the display unit 240A (step S5: Y), the operation of the ophthalmologic apparatus 1500b proceeds to step S6. When it is determined in step S5 that the aberration information should not be displayed on the display unit 240A (step S5: N), the operation of the ophthalmologic apparatus 1500b proceeds to step S7.
- step S6 display aberration information
- the main control unit 211 performs The aberration information is displayed on the display section 240A.
- the aberration information includes a distribution map (phase distribution map) of light phase shifts on the pupil plane of the eye E to be examined.
- the main control unit 211 may display the Zernike coefficients and the tomogram and projection image formed based on the complex OCT data to which the searched CAO filter is applied on the same screen as the distribution map.
- step S7 Form OCT image
- the main control unit 211 controls the image forming unit 220 or the data processing unit 230 to , forming an OCT image formed based on the CAO-filtered complex OCT data searched in step S4.
- OCT images include tomographic images, projection images, en-face images, OCTA images, and the like.
- step S7 is started based on the details of the user's operation on the operation unit 240B.
- step S4 in FIG. 15 is executed as shown in FIG.
- step S11 Phase stabilization
- the main control unit 211 controls the phase stabilization unit 231 to perform phase stabilization processing on the acquired complex OCT data.
- the phase stabilizing unit 231 performs phase stabilizing processing on the three-dimensional complex OCT data of the eye E to be examined as described above. Details of step S11 will be described later.
- step S12 Fourier transform
- the main control unit 211 controls the data processing unit 230 (filter information searching unit 300) to perform aberration evaluation for searching for CAO filters.
- the filter information searching unit 300 updates the parameters of the CAO filter and evaluates the image quality of the OCT image formed based on the complex OCT data to which the CAO filter is applied, thereby identifying the optimum CAO filter parameters. . Details of step S13 will be described later.
- the main control unit 211 controls the aberration correction unit 234 to apply the CAO filter searched in step S13 to the three-dimensional complex OCT data of the subject's eye E acquired in step S3 of FIG. , to correct aberrations in the 3D complex OCT data.
- step S14 the main control unit 211 performs known inverse Fourier transform processing on the aberration-corrected three-dimensional complex OCT data to transform it into spatial domain OCT data.
- Step S11 in FIG. 16 is executed as shown in FIG.
- phase stabilization unit 231 sets predetermined B frame data formed based on the three-dimensional complex OCT data as reference data. For example, data B1 of the top B frame in the three-dimensional complex OCT data is extracted as reference data (see FIG. 12A).
- phase stabilization unit 231 converts the data B2 of a B frame adjacent in the y direction to the reference data B1 extracted from the data of a predetermined B frame formed based on the three -dimensional complex OCT data as the target data. set as
- phase difference profile generator 231A calculates a phase difference for each depth position of the A line between the data B 1 and B 2 of the two adjacent B frames.
- the phase difference profile generator 231A generates a phase difference profile in which the phase differences for each A line obtained by averaging the calculated phase differences in the z direction are arranged in the B line direction.
- phase difference data removal unit 231C removes phase difference data with low reliability from the phase difference profile generated in step S11-3.
- phase difference data removal unit 231C removes phase difference data satisfying formula (2) or formula (3) from the phase difference profile generated in step S11-3.
- phase drift extraction unit 231B performs at least one of smoothing processing, polynomial fitting, and high frequency cut filter processing on the phase difference profile from which the low-reliability phase difference data has been removed in step S11-4. to extract the phase drift.
- phase corrector 231D corrects the phase of the target data as described above based on the phase drift extracted in step S11-5.
- phase stabilization section 231 determines whether or not to end the phase stabilization process. For example, the phase stabilizing unit 231 determines whether or not the phase stabilizing process has been executed for all B frame data in the three-dimensional complex OCT data, thereby determining whether or not the phase stabilizing process is terminated. judge.
- step S11-7 When it is determined in step S11-7 that the phase stabilization process is finished (step S11-7: Y), the operation of step S11 is finished (end). When it is determined in step S11-7 that the phase stabilization process is not finished (step S11-7: N), the operation of step S11 proceeds to step S11-8.
- step S11-8 Set target data as reference data
- step S11-7 N
- the phase stabilization unit 231 sets the target data as the reference data. After that, the operation of the phase stabilizing section 231 proceeds to step S11-2.
- the phase stabilization unit 231 sets data B2 of the B frame as reference data.
- the data B3 of the B frame adjacent to the data B2 of the B frame in the y direction is set as the target data , and phase correction is performed between the data B2 and B3 of the B frames. is done.
- the phase correction processing described above is sequentially performed on all B frame data in the three-dimensional complex OCT data.
- FIG. 18 shows an operation explanatory diagram of steps S12 to S15 in FIG.
- step S12 the complex OCT data OD1 subjected to the phase stabilization process in step S11 is transformed into complex OCT data FD1 in the frequency domain.
- steps S13 and S14 the CAO filter CF searched in the frequency domain is applied to the complex OCT data FD1 to correct the aberration of the complex OCT data.
- step S15 the aberration-corrected complex OCT data is transformed into spatial domain complex OCT data OD2.
- step S13 in FIG. 16 is executed as shown in FIG.
- the main control unit 211 controls the filter information generation unit 232 to generate CAO filter parameters.
- the filter information generation unit 232 acquires predetermined initial values and generates them as CAO filter parameters.
- the filter information generation unit 232 When the refractive power information of the subject's eye E is acquired from an external ophthalmologic apparatus, the filter information generation unit 232 generates CAO filter parameters from the refractive power information.
- the filter information generating unit 232 reads the past CAO filter parameters stored in the storage unit 212 to generate CAO filter parameters.
- the main control unit 211 controls the coarse search unit 310 to execute the coarse search processing of steps S22 to S24, and then controls the fine search unit 320 to execute the fine search processing of step S25.
- step S22 Search for coefficient of defocus term
- the main control unit 211 controls the coarse search unit 310 to search for the coefficient Cde of the defocus term of the CAO filter in FIG. Details of step S22 will be described later.
- step S23 Search for coefficient of astigmatism term in HV direction
- the main control unit 211 controls the coarse search unit 310 to search for the coefficient Cas_HV of the astigmatism term in the HV direction of the CAO filter in FIG.
- the process of step S23 is performed similarly to step S22.
- step S24 Search for the coefficient of the astigmatism term in the diagonal direction
- the main control unit 211 controls the coarse search unit 310 to search for the coefficient Cas_DG of the astigmatism term in the diagonal direction of the CAO filter in FIG.
- the process of step S24 is executed in the same manner as step S22.
- step S25 fine search
- steps S22 to S24 in FIG. 19 are executed as shown in FIG. That is, the search processing for the coefficient C de of the defocus term in step S22 is executed as shown in FIG. is executed.
- the search process for the coefficient Cas_DG of the astigmatism term in the diagonal direction in step S24 is also executed as shown in FIG.
- step S31 filter test
- the coarse search unit 310 applies the CAO filter whose coefficient is currently set in the filter test unit 311 to the complex OCT data, and determines the image quality of the OCT image formed based on the complex OCT data to which the CAO filter is applied. Run a filter test that evaluates In the filter test, an image quality evaluation value of the formed OCT image is calculated. The details of step S31 will be described later.
- the rough search unit 310 determines whether or not to end the filter test that is executed while sequentially updating the coefficients. For example, coarse search section 310 determines to continue the filter test when the coefficient is within a predetermined search range, and determines to end the filter test when the coefficient exceeds the search range. For example, the rough search unit 310 determines to continue the filter test when the number of updates of a predetermined coefficient is equal to or less than a threshold, and determines to end the filter test when the number of updates exceeds the threshold.
- step S32 When it is determined in step S32 that the filter test is finished (step S32: Y), the operation of the rough search unit 310 proceeds to step S34. When it is determined not to end the filter test in step S32 (step S32: N), the operation of coarse search section 310 proceeds to step S33.
- step S33 update coefficient
- the filter information updating unit 312 increases the coefficient by a predetermined increase or decreases it by a predetermined decrease. After that, the operation of coarse search unit 310 proceeds to step S31.
- step S34 Specify coefficient
- the coarse search unit 310 identifies the coefficients of the CAO filter applied to the OCT image with the best image quality based on multiple image quality evaluation values obtained by repeatedly executing the filter test in step S31. For example, the coarse search unit 310 identifies the coefficient of the CAO filter applied to the OCT image with the maximum or minimum image quality evaluation value.
- step S31 in FIG. 20 is executed as shown in FIG.
- Filter test section 311 applies a CAO filter to the complex OCT data in filter processing section 311A.
- the filter test unit 311 (data processing unit 230) performs an inverse Fourier transform on the complex OCT data filtered in step S41 to generate spatial domain complex OCT data.
- the projection image forming unit 235 forms a projection image based on the complex OCT data in the spatial domain generated in step S43.
- the image quality evaluation unit 311B calculates the image quality evaluation value of the projection image formed in step S43.
- step S31 in FIG. 20 is completed (end).
- step S25 in FIG. 19 is executed as shown in FIG.
- Step S51 Fine search section 320 applies a CAO filter to the complex OCT data in filter test section 321 .
- the filter test unit 321 performs a filter test for evaluating the image quality of the OCT image formed based on the complex OCT data to which the CAO filter is applied.
- Step S51 is executed in the same manner as step S31 (steps S41 to S44) (see FIG. 21). That is, the image quality evaluation value is calculated also in step S51.
- the fine search section 320 stores the image quality evaluation value calculated in step S51 in a storage section such as the storage section 212 or the like.
- the fine search section 320 determines whether or not to end the filter test that is executed while sequentially updating the coefficients. For example, when the degree of image quality improvement is equal to or less than a predetermined threshold value based on the image quality evaluation value stored in step S52, fine search section 320 determines that further image quality improvement is difficult. When the degree of image quality improvement exceeds the threshold value, it is determined that the image quality can be further improved and the filter test is continued. The degree of image quality improvement corresponds to the gradient of the image quality evaluation value. Further, for example, the fine search unit 320 determines to continue the filter test when the number of updates of a predetermined coefficient is equal to or less than a threshold, and determines to end the filter test when the number of updates exceeds the threshold.
- step S53 When it is determined in step S53 to end the filter test (step S53: Y), the operation of the fine search unit 320 proceeds to step S56. When it is determined in step S53 not to end the filter test (step S53: N), the operation of fine search section 320 proceeds to step S54.
- step S53 Analyze gradient
- step S53: N the fine search section 320 calculates the gradient when each coefficient of the CAO filter is slightly changed in the gradient calculation section 323 . Details of step S54 will be described later.
- step S55 update coefficient
- the filter information updating unit 322 updates the coefficients of the CAO filter by the change corresponding to the gradient calculated in step S54. Thereafter, the operation of fine search section 320 proceeds to step S51.
- step S53 Specify coefficient
- step S53: Y the fine search unit 320 identifies the coefficients of the CAO filter.
- the fine search unit 320 selects the OCT image having the image quality evaluation value stored in step S52. Identify the coefficients of the applied CAO filter.
- the fine search unit 320 repeats the filter test in step S51.
- the coefficients of the CAO filter applied to the OCT image with the best image quality are identified based on the image quality evaluation values of .
- the fine search unit 320 identifies the coefficient of the CAO filter applied to the OCT image with the maximum or minimum image quality evaluation value.
- step S25 in FIG. 19 is completed (end).
- FIG. 23 shows an example of processing for searching for a CAO filter defocus term, HV direction astigmatism term, diagonal direction astigmatism term, and spherical aberration term.
- FIG. 23 represents a processing example of sequentially searching for a plurality of coefficients of the CAO filter shown in FIG. good too.
- the fine search unit 320 determines whether or not the coefficient to be searched is the coefficient Cde of the defocus term.
- step S61: Y When it is determined that the coefficient to be searched is the coefficient C de of the defocus term (step S61: Y), the fine search section 320 executes the processes of steps S61-1 to S61-5. When it is determined that the coefficient to be searched is not the coefficient Cde of the defocus term (step S61: N), the operation of the fine search section 320 proceeds to step S62.
- step S61-1 Update coefficient to (C de + ⁇ )
- step S61: Y the filter information updating unit 322 updates the coefficient C de to “C de + ⁇ ”.
- step S61-2 filter test
- the filter test unit 321 applies the CAO filter whose coefficients are updated in step S61-1 to the complex OCT data, and evaluates the image quality of the OCT image formed based on the complex OCT data to which the CAO filter is applied. run a filter test that Step S61-1 is executed in the same manner as step S31 (steps S41 to S44) (see FIG. 21). In step S61-2, an image quality evaluation value is calculated.
- step S61-4 filter test
- the filter test unit 321 applies the CAO filter whose coefficients are updated in step S61-3 to the complex OCT data, and evaluates the image quality of the OCT image formed based on the complex OCT data to which the CAO filter is applied. run a filter test that Step S61-3 is executed in the same manner as step S31 (steps S41 to S44) (see FIG. 21). In step S61-3, an image quality evaluation value is calculated.
- step S61-5 Calculate gradient
- the gradient calculator 323 calculates the gradient of the image quality evaluation value based on the image quality evaluation value calculated in step S61-2 and the image quality evaluation value calculated in step S61-4. Thereafter, the operation of fine search section 320 proceeds to step S61.
- step S61 determines that the search target coefficient is the astigmatism term coefficient C in the HV direction. It is determined whether or not it is as_HV .
- step S62 When it is determined in step S62 that the coefficient to be searched is the coefficient Cas_HV of the astigmatism term in the HV direction (step S62: Y), the fine search unit 320 performs the processes of steps S62-1 to S62-5. to run. When it is determined that the coefficient to be searched is not the coefficient Cas_HV of the astigmatism term (step S62: N), the operation of the fine search section 320 proceeds to step S63.
- step S62-1 update coefficient to (C as_HV + ⁇ )
- the filter information updating unit 322 updates the coefficient C Update as_HV to 'C as_HV + ⁇ '.
- " ⁇ " in step S62-1 may be different from “ ⁇ ” in step S61-1.
- step S61-1 the filter test unit 321 applies the CAO filter whose coefficients are updated in step S62-1 to the complex OCT data, and forms the result based on the complex OCT data to which the CAO filter is applied.
- a filter test is performed to assess the image quality of the processed OCT image (see FIG. 21).
- step S61-4 filter test
- the filter test unit 321 applies the CAO filter whose coefficients are updated in step S62-3 to the complex OCT data, and forms a result based on the complex OCT data to which the CAO filter is applied.
- a filter test is performed to assess the image quality of the processed OCT image (see FIG. 21).
- step S62-5 Calculate gradient
- the gradient calculation unit 323 calculates the gradient of the image quality evaluation value based on the image quality evaluation value calculated in step S62-2 and the image quality evaluation value calculated in step S62-4. calculate. Thereafter, the operation of fine search section 320 proceeds to step S61.
- step S62 When it is determined in step S62 that the coefficient to be searched is not the coefficient Cas_HV of the astigmatism term in the HV direction (step S62: N), fine search section 320 determines that the coefficient to be searched is astigmatic in the diagonal direction. It is determined whether it is the coefficient C as_DG of the aberration term.
- step S63 When it is determined in step S63 that the coefficient to be searched is the coefficient Cas_DG of the diagonal astigmatism term (step S63: Y), the fine search unit 320 performs steps S63-1 to S63-5. Execute the process. When it is determined that the coefficient to be searched is not the coefficient Cas_DG of the diagonal astigmatism term (step S63: N), the operation of the fine search section 320 proceeds to step S64.
- step S63 update coefficient to (C as_DG + ⁇ ))
- step S63-2 filter test
- step S63-3 Update coefficient to (C as_DG - ⁇ )
- step S63-4 filter test
- step S63-5 Calculate gradient
- the fine search unit 320 performs steps S61-1 to S61-5 and Similarly, the gradient of the image quality evaluation value is calculated for the coefficient C as_DG of the astigmatism term in the diagonal direction (steps S63-1 to S63-5). Thereafter, the operation of fine search section 320 proceeds to step S61. Since steps S63-1 to S63-5 are the same as steps S61-1 to S61-5, detailed description thereof will be omitted.
- step S63 When it is determined in step S63 that the coefficient to be searched is not the coefficient Cas_DG of the diagonal astigmatism term (step S63: N), the fine search unit 320 determines that the coefficient to be searched is the coefficient of the spherical aberration term. Determine whether it is C sph .
- step S64 When it is determined in step S64 that the coefficient to be searched is the coefficient C sph of the spherical aberration term (step S64: Y), the fine search section 320 executes the processing of steps S64-1 to S64-5.
- step S64-1 update coefficient to (C sph + ⁇ ))
- step S64-2 filter test
- step S64-3 Update coefficient to (C sph - ⁇ )
- step S64-4 filter test
- step S64-5 Calculate gradient
- the fine search unit 320 performs spherical aberration
- the gradient of the image quality evaluation value is calculated for the term coefficient C sph (steps S64-1 to S64-5).
- the operation of fine search section 320 proceeds to step S61. Since steps S64-1 to S64-5 are the same as steps S61-1 to S61-5, detailed description thereof will be omitted.
- step S64 When it is determined in step S64 that the coefficient to be searched is not the coefficient C sph of the spherical aberration term (step S64: N), the operation of the fine search unit 320 performs similar processing for the coefficients of the next term. . Note that when the coefficients of all terms are completed, the process of step S54 in FIG. 22 is completed.
- the above embodiment may be configured to search for parameters (filter information) of the CAO filter according to the embodiment for each OCT measurement region (for each angle of view) in the eye E to be examined.
- the display unit 240A may display aberration information on the pupil plane of the eye to be inspected E corresponding to the parameters of the CAO filter searched for each OCT measurement region of the eye to be inspected.
- a program for causing a computer to execute the ophthalmologic information processing method described above.
- a program can be stored in any non-transitory computer-readable recording medium.
- the recording medium include semiconductor memory, optical disk, magneto-optical disk (CD-ROM/DVD-RAM/DVD-ROM/MO, etc.), magnetic storage medium (hard disk/floppy (registered trademark) disk/ZIP, etc.). can be used. It is also possible to transmit and receive this program through a network such as the Internet or LAN.
- the ophthalmic information processing apparatus (ophthalmic information processing apparatus 1200, ophthalmic information processing units 1200a and 1200b, data processing unit 230) according to the embodiment includes a generation unit (phase difference profile generation unit 231A) and an extraction unit (phase drift extraction unit 231B). ) and a phase corrector (231D).
- the generation unit averages the phase difference in the depth direction calculated for each depth position of the A line between two adjacent B frames of the complex OCT data of the eye to be inspected (E). Generate a phase difference profile.
- the extractor extracts phase drift from the phase difference profile generated by the generator.
- the phase corrector corrects the phase of the first complex OCT data of one of the two B frames based on the phase drift extracted by the extractor.
- Some embodiments include a remover (phase difference data remover 231C) that removes unreliable phase difference data from the phase difference profile.
- the extraction unit extracts a phase drift from which local phase difference changes have been removed from the phase difference profile from which the phase difference data with low reliability has been removed by the removal unit.
- unreliable phase difference data is data whose signal strength is below a predetermined threshold level and data whose phase difference contribution at a given depth location exceeds a given threshold in the averaging process. including at least one of
- the extraction unit extracts the phase drift by performing at least one of smoothing processing, polynomial fitting, and high-frequency cut filter processing on the phase difference profile.
- At least one parameter of the smoothing process, the polynomial fitting, and the high-frequency cut filter process is the frequency of phase change, the speed of phase change, and the OCT scan in the measurement system for acquiring complex OCT data. is set based on at least one of the time required for
- the phase of the complex OCT data of the second B frame is corrected based on the phase difference profile generated by the generator.
- an image forming unit (image forming unit 220, data processing unit 230).
- An ophthalmologic apparatus (1500a, 1500b) includes a measurement system (OCT optical system 1101, OCT optical system 8) that acquires complex OCT data by executing optical coherence tomography on an eye to be examined, and the above and an ophthalmologic information processing apparatus according to any one of the above.
- OCT optical system 1101, OCT optical system 8 that acquires complex OCT data by executing optical coherence tomography on an eye to be examined, and the above and an ophthalmologic information processing apparatus according to any one of the above.
- an ophthalmologic apparatus capable of acquiring OCT data through simple processing that is not affected by phase changes caused by the movement of the subject's eye and phase instability in the OCT measurement system. can.
- An ophthalmologic information processing method includes a generation step, an extraction step, and a phase correction step.
- the generating step the phase difference calculated for each depth position of the A line between two adjacent B frames of the complex OCT data of the eye to be inspected (E) is averaged in the depth direction.
- the extracting step extracts phase drift from the phase difference profile generated in the generating step.
- the phase correcting step corrects the phase of the first complex OCT data of either one of the two B frames based on the phase drift extracted in the extracting step.
- Some embodiments include a removal step of removing unreliable phase difference data from the phase difference profile.
- the extracting step extracts the phase drift with the local phase difference change removed from the phase difference profile from which the low-reliability phase difference data has been removed in the removing step.
- unreliable phase difference data is data whose signal strength is below a predetermined threshold level and data whose phase difference contribution at a given depth location exceeds a given threshold in the averaging process. including at least one of
- the extraction step extracts the phase drift by subjecting the phase difference profile to at least one of smoothing processing, polynomial fitting, and high frequency cut filter processing.
- At least one parameter of the smoothing process, the polynomial fitting, and the high-frequency cut filter process is the frequency of phase change, the speed of phase change, and the OCT scan in the measurement system for acquiring complex OCT data. is set based on at least one of the time required for
- Some embodiments include an image forming step of forming an OCT image of the subject's eye based on complex OCT data of the subject's eye in which the complex OCT data of at least one B frame is corrected in the phase correction step.
- a program according to an embodiment causes a computer to execute each step of the ophthalmologic information processing method described above.
- the light source unit 101 uses a low coherence light source (e.g., SLD light source) instead of the swept-wavelength light source, and the interference optical system uses a spectrometer and an imaging device (e.g., CCD) instead of the detector 125. be done.
- a low coherence light source e.g., SLD light source
- the interference optical system uses a spectrometer and an imaging device (e.g., CCD) instead of the detector 125. be done.
- OCT optical system 100 OCT unit 210 control unit 211 main control unit 212 storage unit 220 image forming unit 230 data processing unit 231 phase stabilization unit 231A phase difference profile generation unit 231B phase drift extraction unit 231C phase difference data removal unit 231D Phase correction unit 234 Aberration correction unit 300
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Ophthalmology & Optometry (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Eye Examination Apparatus (AREA)
Abstract
眼科情報処理装置は、生成部と、抽出部と、位相補正部とを含む。生成部は、被検眼の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化処理を行うことにより位相差プロファイルを生成する。抽出部は、生成部により生成された位相差プロファイルから位相ドリフトを抽出する。位相補正部は、抽出部により抽出された位相ドリフトに基づいて、上記の2つのBフレームのいずれか一方の第1複素OCTデータの位相を補正する。
Description
この発明は、眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムに関する。
CAO(Computational Adaptive Optics)は、被測定物や光学系に起因した収差を演算処理で補正する技術である。CAOは、波面センサ等の公知のハードウェアを用いて取得された収差情報に基づいて測定データを補正することで測定精度を向上させることが可能になる。
例えば、非特許文献1、及び非特許文献2には、このようなCAOを光コヒーレンストモグラフィ(Optical Coherece:Tomography:OCT)システムに適用した手法が開示されている。
Nathan D. Shemonski et al., "Three-dimensional motion correction using speckle and phase for in vivo computed optical interferometric tomography", BIOMEDICAL OPTICS EXPRESS, 4 NOV 2014, Vol. 5, No. 12, pp.4131-4143
Kensuke Oikawa et al., "Bulk phase error correction for holographic signal processing of optical coherence tomography", Proc.SPIE11521, Biomedical Imaging and Sensing Conference 2020, 115210P(15 June 2020);doi:10.1117/12.2573231
OCTにより取得された測定データに含まれる位相情報は、OCTアンギオグラフィ(OCT Angiography:OCTA)や、OCTにCAOが適用されたCAO-OCT等のアプリケーションにおいて有用である。この位相情報は、観察対象の動きや測定系内の位相不安定性に起因した位相ドリフトの影響を受ける。そのため、位相ドリフトの影響を受けないように位相を安定化させることにより、OCTAやCAO-OCTの精度を向上させることができる。
例えば、隣接する位置の測定データ間で位相差を算出し、算出された位相差を相殺することで、位相を安定化させることが可能である。これは、被検眼の網膜のような無数の散乱体からなる被測定物に対して位相差の期待値が零になると仮定できることを前提としている。しかしながら、現実的にはこの想定からの逸脱/誤差が存在し、上記の方法で位相補正を繰り返すにつれて位相誤差が積算され、積算された誤差の影響が無視できなくなる場合がある。
本発明は、このような事情を鑑みてなされたものであり、その目的の1つは、OCTにより取得された測定データに含まれる位相を安定化させる新たな技術を提供することにある。
実施形態の第1態様は、被検眼の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化処理を行うことにより位相差プロファイルを生成する生成部と、前記生成部により生成された前記位相差プロファイルから位相ドリフトを抽出する抽出部と、前記抽出部により抽出された前記位相ドリフトに基づいて、前記2つのBフレームのいずれか一方の第1複素OCTデータの位相を補正する位相補正部と、を含む、眼科情報処理装置である。
実施形態の第2態様は、第1態様において、前記位相差プロファイルから信頼性の低い位相差データを除去する除去部を含み、前記抽出部は、前記除去部により前記信頼性の低い位相差データが除去された前記位相差プロファイルから局所的な位相差変化が除去された前記位相ドリフトを抽出する。
実施形態の第3態様では、第2態様において、前記信頼性の低い位相差データは、信号強度が所定の閾値レベル未満であるデータ、及び前記平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータの少なくとも1つを含む。
実施形態の第4態様では、第1態様~第3態様のいずれかにおいて、前記抽出部は、前記位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより前記位相ドリフトを抽出する。
実施形態の第5態様では、第4態様において、前記スムージング処理、前記多項式フィッティング、及び前記高周波カットフィルタ処理の少なくとも1つのパラメータは、前記複素OCTデータを取得する測定系の位相変化の周波数、前記位相変化の速度、及び前記測定系におけるOCTスキャンに要する時間の少なくとも1つに基づいて設定される。
実施形態の第6態様では、第1態様~第5態様のいずれかにおいて、隣接する第1のBフレーム及び第2のBフレームについて、前記生成部により生成された位相差プロファイルに基づいて前記第2のBフレームの複素OCTデータの位相を補正した後、前記第2のBフレーム及び前記第2のBフレームに隣接する第3のBフレームについて、前記生成部により生成された位相差プロファイルに基づいて前記第3のBフレームの複素OCTデータの位相を補正する。
実施形態の第7態様は、第1態様~第6態様のいずれかにおいて、前記位相補正部により少なくとも1つのBフレームの複素OCTデータが補正された前記被検眼の複素OCTデータに基づいて前記被検眼のOCT画像を形成する画像形成部を含む。
実施形態の第8態様は、前記被検眼に対して光コヒーレンストモグラフィを実行することにより複素OCTデータを取得する測定系と、第1態様~第7態様のいずれかの眼科情報処理装置と、を含む、眼科装置である。
実施形態の第9態様は、被検眼の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化処理を行うことにより位相差プロファイルを生成する生成ステップと、前記生成ステップにおいて生成された前記位相差プロファイルから位相ドリフトを抽出する抽出ステップと、前記抽出ステップにおいて抽出された前記位相ドリフトに基づいて、前記2つのBフレームのいずれか一方の第1複素OCTデータの位相を補正する位相補正ステップと、を含む、眼科情報処理方法である。
実施形態の第10態様は、第9態様において、前記位相差プロファイルから信頼性の低い位相差データを除去する除去ステップを含み、前記抽出ステップは、前記除去ステップにおいて前記信頼性の低い位相差データが除去された前記位相差プロファイルから局所的な位相差変化が除去された前記位相ドリフトを抽出する。
実施形態の第11態様では、第10態様において、前記信頼性の低い位相差データは、信号強度が所定の閾値レベル未満であるデータ、及び前記平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータの少なくとも1つを含む。
実施形態の第12態様では、第9態様~第11態様のいずれかにおいて、前記抽出ステップは、前記位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより前記位相ドリフトを抽出する。
実施形態の第13態様では、第12態様において、前記スムージング処理、前記多項式フィッティング、及び前記高周波カットフィルタ処理の少なくとも1つのパラメータは、前記複素OCTデータを取得する測定系の位相変化の周波数、前記位相変化の速度、及び前記測定系におけるOCTスキャンに要する時間の少なくとも1つに基づいて設定される。
実施形態の第14態様では、第9態様~第13態様のいずれかにおいて、隣接する第1のBフレーム及び第2のBフレームについて、前記生成ステップにおいて生成された位相差プロファイルに基づいて前記第2のBフレームの複素OCTデータの位相を補正した後、前記第2のBフレーム及び前記第2のBフレームに隣接する第3のBフレームについて、前記生成ステップにおいて生成された位相差プロファイルに基づいて前記第3のBフレームの複素OCTデータの位相を補正する。
実施形態の第15態様は、第9態様~第14態様のいずれかにおいて、前記位相補正ステップにおいて少なくとも1つのBフレームの複素OCTデータが補正された前記被検眼の複素OCTデータに基づいて前記被検眼のOCT画像を形成する画像形成ステップを含む。
実施形態の第16態様は、コンピュータに、第9態様~第15態様のいずれかの眼科情報処理方法の各ステップを実行させるプログラムである。
なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。
本発明によれば、OCTにより取得された測定データに含まれる位相を安定化させる新たな技術を提供することができる。
この発明に係る眼科情報処理装置、眼科装置、眼科情報処理方法、プログラム、及び記録媒体の実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。
実施形態に係る眼科情報処理装置は、外部に設けられた眼科装置(OCT装置)からOCTデータ(測定データ、複素OCTデータ)を取得する。外部に設けられた眼科装置は、被検眼に対してOCTを実行することにより複素OCTデータを取得する。眼科情報処理装置は、被検眼の複素OCTデータに対して位相安定化処理を施すことが可能である。具体的には、眼科情報処理装置は、複素OCTデータからAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化された位相差プロファイルを生成し、生成された位相差プロファイルから位相ドリフトを抽出する。眼科情報処理装置は、抽出された位相ドリフトに基づいて複素OCTデータの位相を補正する。このとき、眼科情報処理装置は、位相差プロファイルから信頼性の低い位相差データを除去し、信頼性の低い位相差データが除去された位相差プロファイルから位相ドリフトを抽出することが可能である。これにより、ノイズや構造由来の位相変化の影響を受けることなく、位相安定化処理が施されたOCTデータが得られる。その結果、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化や位相ノイズにロバストなOCTデータが得られる。
例えば、眼科情報処理装置は、上記のように位相が補正されたOCTデータに対して被検眼や光学系に起因した収差を補正することが可能である。具体的には、眼科情報処理装置は、収差を補正するための最適なCAOフィルタ(CAOフィルタのパラメータ)を探索し、探索されたCAOフィルタを用いてOCTデータに対して収差補正処理を実行する。例えば、外部に設けられた眼科装置(屈折力測定装置)から被検眼の屈折力を表す屈折力情報を取得可能に構成される場合、眼科情報処理装置は、取得された屈折力情報に基づいてCAOフィルタのパラメータ(フィルタ情報)を算出することが可能である。眼科情報処理装置は、探索されたCAOフィルタ(パラメータ)に対応した収差情報(具体的には、被検眼の瞳面における収差情報)を表示手段に表示させることが可能である。
実施形態に係る眼科装置は、OCT計測機能及び屈折力測定機能の少なくとも一方の機能に加えて、実施形態に係る眼科情報処理装置の機能を備える。
実施形態に係る眼科情報処理方法は、実施形態に係る眼科情報処理装置においてプロセッサ(コンピュータ)により実行される処理を実現するための1以上のステップを含む。実施形態に係るプログラムは、プロセッサに、実施形態に係る眼科情報処理方法の各ステップを実行させる。実施形態に係る記録媒体は、実施形態に係るプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体(記憶媒体)である。
本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。
以下、実施形態では、OCTを用いた計測(又は撮影)においてスウェプトソースタイプのOCTの手法を用いる場合について特に詳しく説明する。しかしながら、他のタイプ(例えば、スペクトラルドメインタイプ)のOCTを用いた計測を行う眼科装置に対して、実施形態に係る構成を適用することも可能である。
この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。
いくつかの実施形態に係る眼科装置は、眼科撮影装置と、眼科測定装置と、眼科治療装置とのうちのいずれか1つ以上を含む。いくつかの実施形態の眼科装置に含まれる眼科撮影装置は、例えば、眼底カメラ、走査型レーザー検眼鏡、スリットランプ検眼鏡、手術用顕微鏡等のうちのいずれか1つ以上である。また、いくつかの実施形態の眼科装置に含まれる眼科測定装置は、例えば、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータ等のうちのいずれか1つ以上である。また、いくつかの実施形態の眼科装置に含まれる眼科治療装置は、例えば、レーザー治療装置、手術装置、手術用顕微鏡等のうちのいずれか1つ以上である。
<眼科システム>
実施形態に係る眼科システムは、実施形態に係る眼科情報処理装置の機能と、実施形態に係る眼科装置の機能とを備える。
実施形態に係る眼科システムは、実施形態に係る眼科情報処理装置の機能と、実施形態に係る眼科装置の機能とを備える。
図1に、実施形態に係る眼科システムの第1構成例のブロック図を示す。
実施形態の第1構成例に係る眼科システム1000は、眼科装置としてのOCT装置1100と、眼科装置としての屈折力測定装置1110と、眼科情報処理装置1200と、表示部1300と、操作部1400とを含む。眼科情報処理装置1200は、表示部1300及び操作部1400の少なくとも一方の機能を備えていてもよい。
眼科情報処理装置1200とOCT装置1100とは、有線又は無線の通信路を介して通信可能に接続されている。また、眼科情報処理装置1200と屈折力測定装置1110とは、有線又は無線の通信路を介して通信可能に接続されている。
OCT装置1100は、被検眼に対してOCT(OCT計測)を実行するOCT光学系1101を含み、OCTを実行することにより得られた複素OCTデータを眼科情報処理装置1200に送信する。例えば、OCT光学系1101は、特開2019-154985号公報に開示されているような公知の構成を有していてよい。
屈折力測定装置1110は、被検眼の屈折力を測定する屈折力測定光学系1111を含み、屈折力測定により得られた被検眼の屈折力を表す屈折力情報を眼科情報処理装置1200に送信する。例えば、屈折力測定光学系1111は、特開2019-154985号公報に開示されているような公知の構成を有していてよい。
眼科情報処理装置1200は、OCT装置1100からの被検眼の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化された位相差プロファイルを生成する。眼科情報処理装置1200は、生成された位相差プロファイルから位相ドリフトを抽出し、抽出された位相ドリフトに基づいて、上記の2つのBフレームのいずれか一方の複素OCTデータの位相を補正する。
更に、眼科情報処理装置1200は、位相が補正された複素OCTデータに対して収差を補正するための最適なCAOフィルタ(CAOフィルタのパラメータ)を探索し、探索されたCAOフィルタを用いて複素OCTデータの収差補正処理を実行する。眼科情報処理装置1200は、屈折力測定装置1110からの被検眼の屈折力情報(屈折力の測定結果)を用いてCAOフィルタのパラメータを算出することで、上記のCAOフィルタの探索処理の簡略化又は省略化を図ることが可能である。
眼科情報処理装置1200は、探索されたCAOフィルタを用いて収差補正が行われた複素OCTデータに基づいて形成されたOCT画像や、探索されたCAOフィルタに対応した被検眼の瞳面における収差情報を表示部1300に表示させることが可能である。
眼科情報処理装置1200は、操作部1400からのユーザの操作内容に対応する操作情報に基づいて表示部1300を制御したり、装置内部で実行される処理を制御したりすることが可能である。例えば、眼科情報処理装置1200は、操作部1400からの操作情報に基づいてCAOフィルタのパラメータを変更し、パラメータが変更されたCAOフィルタを用いて複素OCTデータに対して収差補正処理を実行する。眼科情報処理装置1200は、収差が補正された複素OCTデータに基づいてOCT画像を形成する。例えば、眼科情報処理装置1200は、操作部1400からの操作情報に基づいてCAOフィルタのパラメータを変更し、パラメータが変更されたCAOフィルタに対応した被検眼の瞳面における収差情報を表示部1300に表示させる。
図1において、眼科システム1000は、眼科情報処理装置1200がOCT計測機能と屈折力測定機能とを有する眼科装置からOCTデータと屈折力情報とを取得するように構成されていてもよい。
いくつかの実施形態では、眼科装置は、実施形態に係る眼科情報処理装置の機能を含む。
図2に、実施形態に係る眼科システムの第2構成例のブロック図を示す。なお、図2において、図1と同様の部分には同一符号を付し、適宜説明を省略する。
実施形態の第2構成例に係る眼科システム1000aは、第1構成例に係る眼科システム1000の機能を単体で実現する眼科装置1500aを含む。眼科装置1500aは、眼科情報処理部1200aと、表示部1300と、操作部1400と、測定光学系1600aとを含む。測定光学系1600aは、OCT光学系1101と、屈折力測定光学系1111とを含む。眼科情報処理部1200aは、図1の眼科情報処理装置1200の機能を有し、眼科装置1500aの各部を制御する。
図2において、OCT計測機能と実施形態に係る眼科情報処理装置の機能とを有する眼科装置が、屈折力測定機能を有する眼科装置から屈折力情報を取得するように構成されていてもよい。
図3に、実施形態に係る眼科システムの第3構成例のブロック図を示す。なお、図3において、図1又は図2と同様の部分には同一符号を付し、適宜説明を省略する。
実施形態の第3構成例に係る眼科システム1000bは、眼科装置1500bと、屈折力測定装置1700bとを含む。眼科装置1500bと屈折力測定装置1700bとは、有線又は無線の通信路を介して通信可能に接続されている。
眼科装置1500bは、眼科情報処理部1200bと、表示部1300と、操作部1400と、測定光学系1600bとを含む。測定光学系1600bは、OCT光学系1101を含む。眼科情報処理部1200bは、眼科装置1500bの各部を制御する。
屈折力測定装置1700bは、屈折力測定光学系1111を含み、屈折力測定により得られた被検眼の屈折力を表す屈折力情報を眼科装置1500bに送信する。
図3において、屈折力測定機能と実施形態に係る眼科情報処理装置の機能とを有する眼科装置が、OCT計測機能を有する眼科装置からOCTデータを取得するように構成されていてもよい。
以下、第3構成例に係る眼科装置を例に、実施形態の構成及び動作を説明する。
以下の実施形態に係る眼科装置は、OCT計測が可能なOCT装置と眼底カメラとを含む。しかしながら、以下の実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。
また、以下では、主に被検眼の眼底に対するOCT計測が可能な眼科装置を例に説明するが、実施形態に係る眼科装置は、被検眼の前眼部に対してOCT計測が可能であってよい。いくつかの実施形態では、測定光の焦点位置を変更するレンズを移動することで、OCT計測の範囲や計測部位を変更する。いくつかの実施形態では、1以上のアタッチメント(対物レンズ、前置レンズ等)を加えることで、眼底に対するOCT計測と、前眼部に対するOCT計測と、眼底及び前眼部を含む全眼球に対するOCT計測とが可能な構成を有する。いくつかの実施形態では、眼底計測用の眼科装置において、対物レンズと被検眼との間に前置レンズを配置することで平行光束にされた測定光を被検眼に入射させることで前眼部に対するOCT計測を行う。
<眼科装置>
[構成]
(光学系)
図4に、実施形態に係る眼科装置1500bの光学系の構成例を示す。以下、対物レンズ22の光軸の方向(後述の測定光LSの進行方向)をz方向とし、z方向に直交する水平方向をx方向とし、z方向に直交する垂直方向をy方向とする。
[構成]
(光学系)
図4に、実施形態に係る眼科装置1500bの光学系の構成例を示す。以下、対物レンズ22の光軸の方向(後述の測定光LSの進行方向)をz方向とし、z方向に直交する水平方向をx方向とし、z方向に直交する垂直方向をy方向とする。
眼科装置1500bは、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1500bに設けられてもよい。いくつかの実施形態では、レンズユニットが手動で被検眼Eと後述の対物レンズ22との間に挿脱されるように構成される。いくつかの実施形態では、演算制御ユニット200(後述の制御部210)からの制御を受け、レンズユニットが被検眼Eと後述の対物レンズ22との間に自動で挿脱されるように構成される。
(眼底カメラユニット2)
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部像)を取得することができる。
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部像)を取得することができる。
眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部Ea)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過する。ダイクロイックミラー55を透過した戻り光は、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部Eaに合致するように調整される。
撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりイメージセンサ38の受光面に結像される。
LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。
LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。いくつかの実施形態に係る眼科装置1500bは、このような固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を含む。いくつかの実施形態に係る眼科装置1500bは、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を含む。
移動可能な固視標を被検眼Eに呈示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。
また、眼科装置1500bには、1以上の外部固視光源が設けられてもよい。1以上の外部固視光源の1つは、被検眼Eの僚眼に固視光を投射することが可能である。僚眼における固視光の投射位置は、変更可能である。僚眼に対する固視光の投射位置を変更することにより、被検眼Eの固視位置を変更することができる。外部固視光源による固視位置は、LCD39を用いた被検眼Eの固視位置と同様であってよい。例えば、複数の外部固視光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の外部固視光源により、移動可能な固視標を生成することができる。
アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。LED51から出力されたアライメント光は、絞り52及び53並びにリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投射される。アライメント光の角膜反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。
フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、アライメント光の角膜反射光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。
ダイクロイックミラー46は、眼底撮影用光路とOCT用光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、OCTユニット100側からダイクロイックミラー46側に向かって順に、コリメータレンズユニット40、光路長変更部41、光スキャナー42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。
光路長変更部41は、図4に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。
光スキャナー42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナー42は、OCT用光路を通過する測定光LSを偏向する。光スキャナー42は、測定光LSを1次元的又は2次元的に偏向することが可能である。
1次元的に偏向する場合、光スキャナー42は、所定の偏向方向に所定の偏向角度範囲で測定光LSを偏向するガルバノスキャナーを含む。2次元的に偏向する場合、光スキャナー42は、第1ガルバノスキャナーと、第2ガルバノスキャナーとを含む。第1ガルバノスキャナーは、後述のOCTユニット100に含まれる干渉光学系から対物レンズ22に至る経路における光学系であるOCT光学系8の光軸に直交する水平方向に撮影部位(眼底Ef又は前眼部)をスキャンするように測定光LSを偏向する。第2ガルバノスキャナーは、OCT光学系8の光軸に直交する垂直方向に撮影部位をスキャンするように、第1ガルバノスキャナーにより偏向された測定光LSを偏向する。光スキャナー42による測定光LSのスキャンモードとしては、例えば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋スキャンなどがある。
OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。OCT合焦レンズ43は、被検眼Eの眼底Ef又はその近傍に測定光LSの焦点位置を配置するための第1レンズ位置と、被検眼Eに照射される測定光LSを平行光束にするための第2レンズ位置とを含む移動範囲で移動可能である。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。
(OCTユニット100)
OCTユニット100の構成の一例を図5に示す。OCTユニット100には、被検眼Eに対してOCT計測(又はOCT撮影)を行うための光学系が設けられている。この光学系は、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系による干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号であり、演算制御ユニット200に送られる。
OCTユニット100の構成の一例を図5に示す。OCTユニット100には、被検眼Eに対してOCT計測(又はOCT撮影)を行うための光学系が設けられている。この光学系は、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系による干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号であり、演算制御ユニット200に送られる。
光源ユニット101は、一般的なスウェプトソースタイプの眼科装置と同様に、出射光の波長を掃引(走査)可能な波長掃引型(波長走査型)光源を含んで構成される。波長掃引型光源は、共振器を含むレーザー光源を含んで構成される。光源ユニット101は、人眼では視認できない近赤外の波長帯において、出力波長を時間的に変化させる。
光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏波状態が調整される。偏波コントローラ103は、例えばループ状にされた光ファイバ102に対して外部から応力を与えることで、光ファイバ102内を導かれる光L0の偏波状態を調整する。
偏波コントローラ103により偏波状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。
参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、光路長変更部114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。
光路長変更部114は、図5に示す矢印の方向に移動可能とされ、参照光LRの光路長を変更する。この移動により参照光LRの光路の長さが変更される。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部114は、例えばコーナーキューブと、これを移動する移動機構とを含んで構成される。この場合、光路長変更部114のコーナーキューブは、コリメータ111により平行光束とされた参照光LRの進行方向を逆方向に折り返す。コーナーキューブに入射する参照光LRの光路と、コーナーキューブから出射する参照光LRの光路とは平行である。
光路長変更部114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏波状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。
なお、図4及び図5に示す構成においては、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するための光路長変更部114の双方が設けられている。しかしながら、光路長変更部41及び114の一方だけが設けられていてもよい。また、これら以外の光学部材を用いて、参照光路長と測定光路長との差を変更することも可能である。
一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127によりに導かれ、コリメータレンズユニット40により平行光束とされる。平行光束にされた測定光LSは、光路長変更部41、光スキャナー42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由してダイクロイックミラー46に導かれる。ダイクロイックミラー46に導かれてきた測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに照射される。測定光LSは、被検眼Eの様々な深さ位置において散乱(反射を含む)される。このような後方散乱光を含む測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。
ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で、測定光LSと参照光LRとの干渉光を分岐することにより、一対の干渉光LCを生成する。ファイバカプラ122から出射した一対の干渉光LCは、それぞれ光ファイバ123、124により検出器125に導かれる。
検出器125は、例えば一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力するバランスドフォトダイオード(Balanced Photo Diode)である。検出器125は、その検出結果(干渉信号)をDAQ(Data Acquisition System)130に送る。DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長掃引型光源により所定の波長範囲内で掃引(走査)される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、クロックKCに基づき、検出器125の検出結果をサンプリングする。DAQ130は、サンプリングされた検出器125の検出結果を演算制御ユニット200に送る。演算制御ユニット200は、例えば一連の波長走査ごとに(Aラインごとに)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等を施すことにより、各Aラインにおける複素振幅プロファイル又は反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの複素振幅プロファイル又は反射強度プロファイルを画像化することにより画像データを形成する。
(処理系)
眼科装置1500bの処理系(制御系)は、演算制御ユニット200を中心に構成される。
眼科装置1500bの処理系(制御系)は、演算制御ユニット200を中心に構成される。
(演算制御ユニット200)
演算制御ユニット200は、DAQ130から入力される検出信号から眼底EfのOCT画像を形成する。そのための演算処理は、従来のスウェプトソースタイプのOCT装置と同様である。
演算制御ユニット200は、DAQ130から入力される検出信号から眼底EfのOCT画像を形成する。そのための演算処理は、従来のスウェプトソースタイプのOCT装置と同様である。
演算制御ユニット200は、眼底カメラユニット2、表示装置3、及びOCTユニット100の各部を制御する。以下、表示装置3の機能は、表示部及び操作部を備えたユーザインターフェイスにより実現されるものとする。
図6に、眼科装置1500bの処理系の構成例の機能ブロック図を示す。図6において、眼科装置1500bに含まれる構成要素の一部が省略されている。
演算制御ユニット200は、制御部210と、画像形成部220と、データ処理部230とを含む。演算制御ユニット200の機能は、1以上のプロセッサにより実現される。いくつかの実施形態では、演算制御ユニット200の機能は、制御部210の機能を実現する制御プロセッサと、画像形成部220の機能を実現する画像形成プロセッサと、データ処理部230の機能を実現するデータ処理プロセッサとにより実現される。
(制御部210)
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
(主制御部211)
主制御部211は、プロセッサを含み、眼科装置1500bの各部を制御する。
主制御部211は、プロセッサを含み、眼科装置1500bの各部を制御する。
眼底カメラユニット2の制御として、主制御部211は、観察光源11、撮影光源15、CCDイメージセンサ35、38、及びLED51、61の動作制御、LCD39の動作制御、撮影合焦レンズ31の移動制御、OCT合焦レンズ43の移動制御、反射棒67の移動制御、アライメント光学系50の制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、光スキャナー42の動作制御などを行う。
OCTユニット100の制御として、主制御部211は、光源ユニット101の動作制御、光路長変更部114の移動制御、アッテネータ120の動作制御、偏波コントローラ103、118の動作制御、検出器125の動作制御、DAQ130の動作制御などを行う。
ユーザインターフェイス240の制御として、主制御部211は、被検眼Eの観察画像、被検眼Eの撮影画像、OCTユニット100を用いて取得された被検眼EのOCT画像、測定結果、GUI等を表示部240Aに表示させる。また、主制御部211は、ユーザによる操作部240Bに対する操作内容に対応した操作信号を受信し、受信された操作信号に基づいて眼科装置1500bの各部を制御する。
また、主制御部211は、被検眼Eに対して光学系全体を移動する移動機構150を制御することが可能である。
例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部230により行われる。
合焦駆動部31Aは、撮影光学系30の光軸方向に撮影合焦レンズ31を移動させるとともに、照明光学系10の光軸方向にフォーカス光学系60を移動させる。それにより、撮影光学系30の合焦位置が変更される。合焦駆動部31Aは、撮影合焦レンズ31を移動させる機構と、フォーカス光学系60を移動させる機構とを個別に有していてよい。合焦駆動部31Aは、フォーカス調整を行うときなどに制御される。
合焦駆動部43Aは、測定光路の光軸方向にOCT合焦レンズ43を移動させる。それにより、測定光LSの合焦位置が変更される。例えば、OCT合焦レンズ43を第1レンズ位置に移動させることにより、測定光LSの合焦位置を眼底Ef又はその近傍に配置することができる。例えば、OCT合焦レンズ43を第2レンズ位置に移動させることにより、測定光LSの合焦位置を遠点位置に配置して測定光LSを平行光束にすることができる。測定光LSの合焦位置は、測定光LSのビームウェストの深さ位置(z位置)に相当する。
移動機構150は、例えば、少なくとも眼底カメラユニット2(光学系)を3次元的に移動する。典型的な例において、移動機構150は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、パルスモータ等のアクチュエータを含み、主制御部211からの制御を受けて動作する。
移動機構150に対する制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。いくつかの実施形態では、参照光の光路長(よって、測定光の光路と参照光の光路との間の光路長差)を変更するために移動機構150の制御を行うように構成される。
マニュアルアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるようにユーザが後述のユーザインターフェイス240に対して操作することにより光学系と被検眼Eとを相対移動させる。例えば、主制御部211は、ユーザインターフェイス240に対する操作内容に対応した制御信号を移動機構150に出力することにより移動機構150を制御して光学系と被検眼Eとを相対移動させる。
オートアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように主制御部211が移動機構150を制御することにより光学系と被検眼Eとを相対移動させる。いくつかの実施形態では、主制御部211は、光学系の光軸が被検眼Eの軸に略一致し、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように制御信号を移動機構150に出力することにより移動機構150を制御して光学系と被検眼Eとを相対移動させる。ここで、作動距離とは、対物レンズ22のワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた測定時(撮影時)における被検眼Eと光学系との間の距離に相当する。
主制御部211は、眼底カメラユニット2等を制御することにより眼底撮影及び前眼部撮影を制御する。また、主制御部211は、眼底カメラユニット2及びOCTユニット100等を制御することによりOCT計測を制御する。
演算制御ユニット200は、例えば、従来のコンピュータと同様に、プロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1500bを制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、例えばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
眼底カメラユニット2、ユーザインターフェイス240、OCTユニット100、及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
(記憶部212)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、前眼部像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、前眼部像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。
また、記憶部212には、眼科装置1500bを動作させるための各種プログラムやデータが記憶されている。
眼科装置1500bには、ユーザからの操作を受け付けたり、ユーザに情報を提示したりするためのユーザインターフェイス240が設けられている。制御部210は、ユーザインターフェイス240を制御することによりユーザとのインターフェイス処理を司ることができる。
(ユーザインターフェイス240)
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科装置1500bの筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。例えば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科装置1500bの筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。例えば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。例えばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
(画像形成部220)
画像形成部220は、検出器125からの検出信号をDAQ130でサンプリングすることにより得られたサンプリングデータに基づいて、被検眼EのOCT画像(画像データ)を形成する。この処理には、従来のスウェプトソースタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、分散補償、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
画像形成部220は、検出器125からの検出信号をDAQ130でサンプリングすることにより得られたサンプリングデータに基づいて、被検眼EのOCT画像(画像データ)を形成する。この処理には、従来のスウェプトソースタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、分散補償、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
画像形成部220は、例えば、前述のプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
(データ処理部230)
データ処理部230は、被検眼Eの撮影やOCT計測により取得されたデータを処理する。
データ処理部230は、被検眼Eの撮影やOCT計測により取得されたデータを処理する。
データ処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。例えば、データ処理部230は、画像の輝度補正等の各種補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
例えば、データ処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。ユーザインターフェイス240(表示部240A)には、この擬似的な3次元画像が表示される。
また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数のスキャンラインに沿って得られた複数の断層像を、スキャンラインの位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。
データ処理部230は、取得された3次元データセット(ボリュームデータ、スタックデータ等)に各種のレンダリングを施すことで、任意断面におけるBモード画像(縦断面像、軸方向断面像)、任意断面におけるCモード画像(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。Bモード画像やCモード画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。Cモード画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。
データ処理部230は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBモード画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。
いくつかの実施形態では、データ処理部230は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部230は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTA像を形成する。
データ処理部230により生成された画像(例えば、3次元画像、Bモード画像、Cモード画像、プロジェクション画像、シャドウグラム、OCTA像)もまたOCT画像に含まれる。
更に、データ処理部230は、OCT計測により得られた干渉光の検出結果、又は当該検出結果に基づいて形成されたOCT画像に対して所定の解析処理を行う。所定の解析処理には、被検眼Eにおける所定の部位(組織、病変部)の特定;指定された部位間の距離(層間距離)、面積、角度、比率、密度の算出;指定された計算式による演算;所定の部位の形状の特定;これらの統計値の算出;計測値、統計値の分布の算出;これら解析処理結果に基づく画像処理などがある。所定の組織には、血管、視神経乳頭、中心窩、黄斑などがある。所定の病変部には、白斑、出血などがある。
また、データ処理部230は、被検眼の動きやOCT光学系8の位相不安定性に起因した位相ドリフトの影響を低減するように、OCT計測により得られた被検眼EのOCTデータ(例えば、3次元複素OCTデータ、複素OCTボリュームデータ)に対して位相安定化処理を実行することが可能である。
例えば、画像形成部220又はデータ処理部230は、位相安定化処理が施された複素OCTデータの絶対値に基づいてOCT画像を形成する。複素OCTデータの実数部に加えて虚数部を用いて画像化することができるので、より一層高精細なOCT画像を取得することができる。
例えば、データ処理部230は、位相安定化処理が施された複素OCTデータの絶対値に基づいて位相画像(位相情報)やOCTA画像を形成する。複素OCTデータの虚数部から位相ドリフトの影響を受けた成分が除去されているため、より一層高精度な位相画像やOCTA画像を取得することができる。
更に、データ処理部230は、位相安定化処理が施されたOCTデータに対して、被検眼Eや光学系に起因した収差を補正する収差補正処理を実行することが可能である。
図7に、データ処理部230により実行される収差補正処理の動作説明図を示す。
まず、データ処理部230は、OCT計測により得られた被検眼Eの複素OCTデータDT1からフィルタ情報としてのCAOフィルタCFのパラメータを探索する。以下、フィルタ情報としての「CAOフィルタのパラメータの探索」を「CAOフィルタの探索」と表記する場合がある。
次に、データ処理部230は、探索されたCAOフィルタCFを用いて複素OCTデータDT1に対して収差補正処理PCを実行し、収差補正が行われた複素OCTデータDT2を取得する。いくつかの実施形態では、収差補正処理PCは、周波数領域において実行される。いくつかの実施形態では、収差補正処理PCは、空間領域において実行される。
それにより、被検眼Eや光学系に起因した収差に影響を受けることなくOCT計測結果の精度を向上させることができる。これは、収差補正が行われた複素OCTデータの実数部と虚数部の精度の向上を意味し、OCT画像(OCTA画像を含む)の高画質化や画像間の位相の精度向上が可能になる。
図8に、実施形態に係るCAOフィルタの説明図を示す。
CAOフィルタは、被検眼Eの瞳面における波面収差の分布に対応したゼルニケ多項式(Zernike polynomial)により表すことができる。ゼルニケ多項式の各次数の項の係数(パラメータ)を調整することにより、CAOフィルタのフィルタ特性を調整することが可能である。
CAOフィルタのフィルタ特性は、あらかじめ決められた波面収差の分布に対応した1以上のフィルタを、各フィルタに対応した係数に応じて合成することにより決定される。実施形態では、図8に示すように、CAOフィルタCFは、デフォーカス項Fdeと、HV方向(0-90度方向)の非点収差項FasHVと、対角方向(±45度方向)の非点収差項FasDGとを含む多項式で表現される。CAOフィルタCFは、各項の係数Cde、Cas_HV、Cas_DGをパラメータとして調整することで所望のフィルタ特性を実現する。なお、CAOフィルタCFは、コマ収差項、球面収差項などのより高次の項を含んでよい。
図9に、実施形態に係るCAOフィルタの探索処理の一例の説明図を示す。
データ処理部230は、互いにフィルタ特性が異なる2以上のCAOフィルタを被検眼Eの複素OCTデータDT1に順次に適用して、収差補正が行われた2以上の複素OCTデータDT11、DT12、・・・、DT1M(Mは2以上の整数)を取得する。データ処理部230は、取得された2以上の複素OCTデータDT11~DT1Mのそれぞれの品質を評価し、最も品質が高い複素OCTデータに適用されたCAOフィルタを探索結果のCAOフィルタとして特定する。
複素OCTデータの品質を評価する手法の例として、当該複素OCTデータに基づいて形成されたOCT画像の画質を評価する手法がある。OCT画像の例として、断層像、正面画像(プロジェクション画像、en-face画像)、OCTA画像などがある。例えば、データ処理部230は、形成されたOCT画像の画質の程度を表す画質評価値に基づいて、最も品質が高い複素OCTデータを特定することが可能である。
いくつかの実施形態では、データ処理部230は、被検眼Eの屈折力を表す屈折力情報から上記のCAOフィルタのパラメータ(係数)を生成することが可能である。これにより、CAOフィルタ(フィルタ情報)の探索処理を簡略化、又は省略化を図ることができるようになる。
以下、このような機能を実現するデータ処理部230の各部について説明する。
図10に、図6のデータ処理部230の構成例のブロック図を示す。
データ処理部230は、位相安定化部231と、フィルタ情報生成部232と、フィルタ情報探索部300と、収差補正部234と、プロジェクション画像形成部235とを含む。
(位相安定化部231)
位相安定化部231は、計測対象である被検眼Eの動きやシステム(OCT光学系8)内の位相不安定性に起因した位相ドリフトの影響をキャンセルするように被検眼Eの複素OCTデータに対して位相安定化処理を行う。
位相安定化部231は、計測対象である被検眼Eの動きやシステム(OCT光学系8)内の位相不安定性に起因した位相ドリフトの影響をキャンセルするように被検眼Eの複素OCTデータに対して位相安定化処理を行う。
図11に、図10の位相安定化部231の構成例のブロック図を示す。
位相安定化部231は、位相差プロファイル生成部231Aと、位相ドリフト抽出部231Bと、位相差データ除去部231Cと、位相補正部231Dとを含む。
(位相差プロファイル生成部231A)
位相差プロファイル生成部231Aは、3次元複素OCTデータからAラインごとに平均化された位相差を表す位相データがBライン方向に配列された位相差プロファイルを生成する。具体的には、位相差プロファイル生成部231Aは、複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに位相差を算出し、算出された位相差を深さ方向(z方向)に平均化し、平均化して得られた位相差をBライン方向に配列して位相差プロファイルを生成する。
位相差プロファイル生成部231Aは、3次元複素OCTデータからAラインごとに平均化された位相差を表す位相データがBライン方向に配列された位相差プロファイルを生成する。具体的には、位相差プロファイル生成部231Aは、複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに位相差を算出し、算出された位相差を深さ方向(z方向)に平均化し、平均化して得られた位相差をBライン方向に配列して位相差プロファイルを生成する。
図12Aに、位相差プロファイル生成部231Aの動作説明図を示す。図12Aは、横方向をx方向とし、縦方向をy方向として、複素OCTデータODTを模式的に表したものである。
例えば、位相差プロファイル生成部231Aは、式(1)に示すように、隣接する2つのBフレームBk、Bk+1間のAラインの深さ位置ごとに算出された位相差をz方向に積算し、積算された位相差を平均化して、Aラインごとに位相差を求める。位相差プロファイル生成部231Aは、次の2つのBフレームBk+1、Bk+2間で同様に、Aラインごとに位相差を求める。これを順次に繰り返し、3次元複素OCTデータODTについて2つのBフレーム間の位相差プロファイルが順次に求められる。
(位相ドリフト抽出部231B)
位相ドリフト抽出部231Bは、位相差プロファイル生成部231Aにより生成された位相差プロファイルから位相ドリフトを抽出する。具体的には、位相ドリフト抽出部231Bは、位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより位相ドリフトを抽出する。
位相ドリフト抽出部231Bは、位相差プロファイル生成部231Aにより生成された位相差プロファイルから位相ドリフトを抽出する。具体的には、位相ドリフト抽出部231Bは、位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより位相ドリフトを抽出する。
図12Bに、位相ドリフト抽出部231Bの動作説明図を示す。図12Bにおいて、横軸はAラインの位置(Bスキャン方向に走査される測定光の入射位置)に相当するAライン番号を表し、縦軸は位相差を表す。
例えば、位相ドリフト抽出部231Bは、位相差プロファイル生成部231Aにより生成された位相差プロファイルRD0に対してスムージング処理を行うことで、位相ドリフトDF0を抽出する。
位相ドリフト抽出部231Bにより実行されるスムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つのパラメータは、複素OCTデータODTを取得するOCT光学系8の位相変化の周波数、位相変化の速度、及びOCT光学系8におけるOCTスキャンに要する時間の少なくとも1つに基づいて設定される。
(位相差データ除去部231C)
位相差データ除去部231Cは、上記の位相ドリフトの抽出の前に、位相差プロファイル生成部231Aにより生成された位相差プロファイルから信頼性の低い位相差データを除去する。位相ドリフト抽出部231Bは、位相差データ除去部231Cにより信頼性の低い位相差データが除去された位相差プロファイルから位相ドリフトを抽出する。それにより、局所的な位相差変化が除去された位相ドリフトが得られる。
位相差データ除去部231Cは、上記の位相ドリフトの抽出の前に、位相差プロファイル生成部231Aにより生成された位相差プロファイルから信頼性の低い位相差データを除去する。位相ドリフト抽出部231Bは、位相差データ除去部231Cにより信頼性の低い位相差データが除去された位相差プロファイルから位相ドリフトを抽出する。それにより、局所的な位相差変化が除去された位相ドリフトが得られる。
図13に、位相差データ除去部231Cの動作説明図を示す。図13において、図12Bと同様に、横軸はAラインの位置に相当するAライン番号を表し、縦軸は位相差を表す。
例えば、位相差データ除去部231Cは、図12Bに示す位相差プロファイルRD0から信頼性の低い位相差データN1~N4を除去して(間引いて)、図13に示す位相差プロファイルRD1を生成する。位相ドリフト抽出部231Bは、図13に示す位相差プロファイルRD1から位相ドリフトDF1を抽出する。これにより、位相ドリフトDF0と比較して、局所的な位相変化(ローカルエラー)による影響を抑えることができる。
信頼性の低い位相差データとして、信号強度が弱い位相差データ、式(1)の位相差の算出処理(平均化処理)において特定の深さ位置における位相差データの寄与度が大きい位相差データなどがある。信号強度が弱い位相差データは、信号強度が強い位相差データが有する高信頼性を低下させる可能性がある。式(1)の位相差の算出処理において寄与度が大きい位相差データは、位相差の期待値が零になるという前提条件を崩す可能性が高くなる。
例えば、位相差データ除去部231Cは、式(2)を満たす位相差データを信号強度が所定の閾値レベル未満であるデータとして特定し、特定されたデータを位相差プロファイルから除去する。
例えば、位相差データ除去部231Cは、式(3)を満たす位相差データを式(1)の位相差を算出するときの平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータとして特定し、特定されたデータを位相差プロファイルから除去する。
位相差データ除去部231Cは、信号強度が所定の閾値レベル未満であるデータ、及び平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータの少なくとも1つを信頼性の低いデータとして位相差プロファイルから除去することが可能である。
(位相補正部231D)
位相補正部231Dは、位相ドリフト抽出部231Bにより抽出された位相ドリフトに基づいて、位相差プロファイルが生成された上記の2つのBフレームのいずれか一方の複素OCTデータの位相を補正する。
位相補正部231Dは、位相ドリフト抽出部231Bにより抽出された位相ドリフトに基づいて、位相差プロファイルが生成された上記の2つのBフレームのいずれか一方の複素OCTデータの位相を補正する。
例えば、図12Aに示すBフレームBk、Bk+1間で位相補正を行う場合、位相補正部231Dは、Aラインごとに位相ドリフトにおける位相差φを用いて、周波数領域におけるBフレームBk+1の複素OCTデータに対してexp(-iφ)を乗算する。いくつかの実施形態では、位相補正部231Dは、空間領域における複素OCTデータに対して、位相差φを用いた畳み込み演算を行う。
例えば、位相安定化部231は、3次元複素OCTデータのBフレームに対して上記の位相補正処理を順次に実行する。すなわち、位相安定化部231は、隣接する第1のBフレーム及び第2のBフレームについて、位相差プロファイル生成部231Aにより生成された位相差プロファイルに基づいて第2のBフレームの複素OCTデータの位相を補正した後、第2のBフレーム及び第2のBフレームに隣接する第3のBフレームについて、位相差プロファイル生成部231Aにより生成された位相差プロファイルに基づいて第3のBフレームの複素OCTデータの位相を補正するように構成される。
(フィルタ情報生成部232)
図10に示すフィルタ情報生成部232は、フィルタ情報として、被検眼Eの複素OCTデータに適用するCAOフィルタのパラメータを生成する。図8に示す例では、CAOフィルタのパラメータは、ゼルニケ多項式の各項の係数である。
図10に示すフィルタ情報生成部232は、フィルタ情報として、被検眼Eの複素OCTデータに適用するCAOフィルタのパラメータを生成する。図8に示す例では、CAOフィルタのパラメータは、ゼルニケ多項式の各項の係数である。
フィルタ情報生成部232は、探索処理の初期値となるCAOフィルタのパラメータをフィルタ情報として生成する。例えば、フィルタ情報生成部232は、記憶部212にあらかじめ記憶されたCAOフィルタのパラメータの初期値を参照してフィルタ情報を取得する。
いくつかの実施形態では、フィルタ情報生成部232は、外部の眼科装置において実行された被検眼Eの屈折力測定により得られた被検眼Eの屈折力情報からCAOフィルタのパラメータをフィルタ情報として生成する。すなわち、フィルタ情報生成部232は、被検眼Eの屈折力情報に基づいてフィルタ情報を基準フィルタ情報として生成することができる。CAOフィルタのパラメータは、生成された基準フィルタ情報に基づいて複素OCTデータの品質が所定のレベルになるように探索される。
等価球面度数SE、球面度数S、乱視度数C、及び乱視軸角度Aは、ゼルニケ多項式の各項の係数を用いて式(4)~式(7)により算出可能である。
式(4)において、Smoveは、固視移動分の球面度数を表し、rは瞳径を表し、c2
0は、デフォーカス項の係数(図8の係数Cdeに相当)を表す。また、式(6)、式(7)において、c2
-2は、DG方向の非点収差項の係数(図8の係数Cas_DGに相当)を表し、c2
2は、HV方向の非点収差項の係数(図8の係数Cas_HVに相当)を表す。
係数がRMS(Root Mean Square)値の場合、等価球面度数SE、球面度数S、乱視度数C、及び乱視軸角度Aは、式(8)~式(11)により算出可能である。
式(4)~式(7)又は式(8)~式(11)に従って、フィルタ情報生成部232は、被検眼Eの屈折力情報からゼルニケ多項式の各項の係数を算出することでCAOフィルタのパラメータをフィルタ情報として生成することができる。
(フィルタ情報探索部300)
フィルタ情報探索部300は、被検眼Eの複素OCTデータの品質が所定レベルになるように、複素OCTデータの収差を補正するためのフィルタ情報を探索する。具体的には、フィルタ情報探索部300は、複素OCTデータの品質が所定レベルになるように、フィルタ情報に基づいて補正された複素OCTデータの品質の評価と、フィルタ情報の更新とを繰り返す。更に、フィルタ情報探索部300は、品質の評価とフィルタ情報の更新とを繰り返すことによりフィルタ情報を粗く探索し、探索された探索範囲内でフィルタ情報の更新と品質の評価とを繰り返すことによりフィルタ情報を細密に探索することが可能である。
フィルタ情報探索部300は、被検眼Eの複素OCTデータの品質が所定レベルになるように、複素OCTデータの収差を補正するためのフィルタ情報を探索する。具体的には、フィルタ情報探索部300は、複素OCTデータの品質が所定レベルになるように、フィルタ情報に基づいて補正された複素OCTデータの品質の評価と、フィルタ情報の更新とを繰り返す。更に、フィルタ情報探索部300は、品質の評価とフィルタ情報の更新とを繰り返すことによりフィルタ情報を粗く探索し、探索された探索範囲内でフィルタ情報の更新と品質の評価とを繰り返すことによりフィルタ情報を細密に探索することが可能である。
図14に、図10のフィルタ情報探索部300の構成例のブロック図を示す。
フィルタ情報探索部300は、粗探索部310と、細密探索部320とを含む。
(粗探索部310)
粗探索部310は、複素OCTデータの品質の評価とフィルタ情報の更新とを繰り返すことによりフィルタ情報を粗く探索する。このような粗探索部310は、フィルタテスト部311と、フィルタ情報更新部312とを含む。
粗探索部310は、複素OCTデータの品質の評価とフィルタ情報の更新とを繰り返すことによりフィルタ情報を粗く探索する。このような粗探索部310は、フィルタテスト部311と、フィルタ情報更新部312とを含む。
(フィルタテスト部311)
フィルタテスト部311は、複素OCTデータに対してCAOフィルタを適用し、収差が補正された複素OCTデータの品質を評価する。このようなフィルタテスト部311は、フィルタ処理部311Aと、画質評価部311Bとを含む。
フィルタテスト部311は、複素OCTデータに対してCAOフィルタを適用し、収差が補正された複素OCTデータの品質を評価する。このようなフィルタテスト部311は、フィルタ処理部311Aと、画質評価部311Bとを含む。
(フィルタ処理部311A)
フィルタ処理部311Aは、粗探索処理中のCAOフィルタを用いて、複素OCTデータに対して公知の手法でフィルタ処理を実行する。例えば、フィルタ処理部311Aは、周波数領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したexp(-iφ)を乗算する。例えば、フィルタ処理部311Aは、空間領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したフィルタ係数を用いた畳み込み演算を行う。
フィルタ処理部311Aは、粗探索処理中のCAOフィルタを用いて、複素OCTデータに対して公知の手法でフィルタ処理を実行する。例えば、フィルタ処理部311Aは、周波数領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したexp(-iφ)を乗算する。例えば、フィルタ処理部311Aは、空間領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したフィルタ係数を用いた畳み込み演算を行う。
(画質評価部311B)
画質評価部311Bは、フィルタ処理部311Aにより収差が補正された複素OCTデータに基づいて形成されるOCT画像(眼底像)の画質を評価する。例えば、OCT画像は、画像形成部220により形成される。
画質評価部311Bは、フィルタ処理部311Aにより収差が補正された複素OCTデータに基づいて形成されるOCT画像(眼底像)の画質を評価する。例えば、OCT画像は、画像形成部220により形成される。
画質評価部311Bは、OCT画像の画質評価値を算出することが可能である。画質評価値は、OCT画像の画質の程度を示す数値であり、画質が良好か否かの評価に用いられる。
画質評価値は、任意の手法で算出可能な任意の種類の値であってよい。典型的な画質評価値は、OCT画像中の2種類の画像領域に関する信号対ノイズ比(S/N比)で表される。画質評価値の具体例は、眼の部位を表す画像領域の信号と、眼の部位ではない背景を表す画像領域のノイズとに関するS/N比である。眼の部位を表す画像領域を信号領域と呼び、背景を表す画像領域を背景領域と呼ぶ。
信号領域及び背景領域に関するS/N比として表現される画質評価値の算出方法は任意である。その具体例を以下に説明する。
まず、画質評価部311Bは、OCT画像を構成する複数のAスキャン画像のそれぞれについて、最大輝度の画素と最小輝度の画素とを特定する。次に、画質評価部311Bは、特定された最大輝度の画素を含む所定範囲の画素群(例えば、前後40画素分)の輝度値に基づいて、輝度値のヒストグラムを作成する。同様に、画質評価部311Bは、特定された最小輝度の画素を含む所定範囲の画素群の輝度値に基づいて、輝度値のヒストグラムを作成する。
続いて、画質評価部311Bは、最小輝度の画素を含む画素群に対応するヒストグラムにおいて、頻度値が0を超える最大の位置(輝度値)を探索する。更に、最大輝度の画素を含む画素群に対応するヒストグラムにおいて、上記で探索された輝度値以下の範囲に含まれる合計画素数(N)と、探索された輝度値より上から255番目の輝度値に含まれている合計画素数(S)とを求める。そして、画質評価部311Bは、当該画像において信号とみなせる部分(つまりノイズではないとみなせる部分)が全体の何%になるのかを、次の演算式で評価する:100×S÷(S+N)。画質評価部311Bは、このような一連の演算を各Aスキャン画像に対して適用することで、複数のAスキャン画像に対応する複数の数値を得る。そして、画質評価部311Bは、これら数値の平均値を求め、これを画質評価値とする。
(フィルタ情報更新部312)
フィルタ情報更新部312は、粗探索部310により探索されるCAOフィルタのパラメータを所定の増加分だけ増加させたり所定の減少分だけ減少させたりして、当該パラメータを更新する。増加分又は減少分は、パラメータの種別に応じて異なってもよいし、2以上の種別のパラメータで共通であってよい。いくつかの実施形態では、フィルタ情報更新部312は、CAOフィルタのパラメータの1つだけを更新する。いくつかの実施形態では、フィルタ情報更新部312は、CAOフィルタのパラメータのうち2以上のパラメータを同時に更新する。
フィルタ情報更新部312は、粗探索部310により探索されるCAOフィルタのパラメータを所定の増加分だけ増加させたり所定の減少分だけ減少させたりして、当該パラメータを更新する。増加分又は減少分は、パラメータの種別に応じて異なってもよいし、2以上の種別のパラメータで共通であってよい。いくつかの実施形態では、フィルタ情報更新部312は、CAOフィルタのパラメータの1つだけを更新する。いくつかの実施形態では、フィルタ情報更新部312は、CAOフィルタのパラメータのうち2以上のパラメータを同時に更新する。
以上のように、粗探索部310では、フィルタテスト部311は、例えば、周波数領域において、フィルタ処理部311AによりCAOフィルタを適用して収差が補正された複素OCTデータを取得する。その後、フィルタテスト部311は、空間領域において、画質評価部311Bにより複素OCTデータに基づいて形成されたOCT画像の画質を評価する。粗探索部310は、フィルタ情報更新部312によるCAOフィルタのパラメータの更新と、フィルタテスト部311による画質の評価とを繰り返すことで、CAOフィルタを粗く探索する。
(細密探索部320)
細密探索部320は、粗探索部310により探索された探索範囲内でフィルタ情報の更新と品質の評価とを繰り返すことによりフィルタ情報を細密に探索する。このような細密探索部320は、フィルタテスト部321と、フィルタ情報更新部322と、勾配算出部323とを含む。
細密探索部320は、粗探索部310により探索された探索範囲内でフィルタ情報の更新と品質の評価とを繰り返すことによりフィルタ情報を細密に探索する。このような細密探索部320は、フィルタテスト部321と、フィルタ情報更新部322と、勾配算出部323とを含む。
(フィルタテスト部321)
フィルタテスト部321は、フィルタテスト部311と同様に、複素OCTデータに対してCAOフィルタを適用し、収差が補正された複素OCTデータの品質を評価する。このようなフィルタテスト部321は、フィルタ処理部321Aと、画質評価部321Bとを含む。
フィルタテスト部321は、フィルタテスト部311と同様に、複素OCTデータに対してCAOフィルタを適用し、収差が補正された複素OCTデータの品質を評価する。このようなフィルタテスト部321は、フィルタ処理部321Aと、画質評価部321Bとを含む。
(フィルタ処理部321A)
フィルタ処理部321Aは、細密探索処理中のCAOフィルタを用いて、複素OCTデータに対して公知の手法でフィルタ処理を実行する。フィルタ処理部321Aによる処理は、フィルタ処理部311Aと同様である。
フィルタ処理部321Aは、細密探索処理中のCAOフィルタを用いて、複素OCTデータに対して公知の手法でフィルタ処理を実行する。フィルタ処理部321Aによる処理は、フィルタ処理部311Aと同様である。
(画質評価部321B)
画質評価部321Bは、フィルタ処理部321Aにより収差が補正された複素OCTデータに基づいて形成されるOCT画像(眼底像)の画質を評価する。画質評価部321Bは、画質評価部311Bと同様に、OCT画像の画質評価値を算出することが可能である。
画質評価部321Bは、フィルタ処理部321Aにより収差が補正された複素OCTデータに基づいて形成されるOCT画像(眼底像)の画質を評価する。画質評価部321Bは、画質評価部311Bと同様に、OCT画像の画質評価値を算出することが可能である。
(フィルタ情報更新部322)
フィルタ情報更新部322は、細密探索部320により探索されるCAOフィルタのパラメータを増加又は減少させて、当該パラメータを更新する。フィルタ情報更新部322は、後述する勾配算出部323により算出された勾配に応じてCAOフィルタのパラメータを更新することが可能である。いくつかの実施形態では、フィルタ情報更新部322は、CAOフィルタのパラメータの1つだけを更新する。いくつかの実施形態では、フィルタ情報更新部322は、CAOフィルタのパラメータのうち2以上のパラメータを同時に更新する。
フィルタ情報更新部322は、細密探索部320により探索されるCAOフィルタのパラメータを増加又は減少させて、当該パラメータを更新する。フィルタ情報更新部322は、後述する勾配算出部323により算出された勾配に応じてCAOフィルタのパラメータを更新することが可能である。いくつかの実施形態では、フィルタ情報更新部322は、CAOフィルタのパラメータの1つだけを更新する。いくつかの実施形態では、フィルタ情報更新部322は、CAOフィルタのパラメータのうち2以上のパラメータを同時に更新する。
(勾配算出部323)
勾配算出部323は、画質評価部321Bにより算出された画質評価値の勾配を算出する。
勾配算出部323は、画質評価部321Bにより算出された画質評価値の勾配を算出する。
例えば、勾配算出部323は、フィルタ情報の更新によって変化する画質評価値の勾配を算出する。フィルタ情報更新部322は、勾配算出部323により算出された画質評価値の勾配に基づいてフィルタ情報を更新する。具体的には、フィルタ情報更新部322は、算出された画質評価値の勾配が緩やかなほど増加分又は減少分が小さくなるようにフィルタ情報を更新し、勾配が急峻なほど増加分又は減少分が大きくなるようにフィルタ情報を更新する。
以上のように、細密探索部320では、フィルタテスト部321は、例えば、周波数領域において、フィルタ処理部321AによりCAOフィルタを適用して収差が補正された複素OCTデータを取得する。その後、フィルタテスト部321は、空間領域において、画質評価部321Bにより複素OCTデータに基づいて形成されたOCT画像の画質を評価する。細密探索部320では、勾配算出部323は、フィルタ情報の更新によって変化する画質評価値の勾配を算出し、フィルタ情報更新部322は、算出された画質評価値の勾配に基づいてフィルタ情報を更新する。細密探索部320は、画質評価値の勾配に応じたフィルタ情報更新部322によるCAOフィルタのパラメータの更新と、フィルタテスト部321による画質の評価とを繰り返すことで、CAOフィルタを細密に探索する。
(収差補正部234)
図10に示す収差補正部234は、フィルタ情報探索部300により探索されたCAOフィルタ(パラメータ)に基づいて、被検眼Eの複素OCTデータの収差を補正する。収差補正部234は、CAOフィルタを用いて複素OCTデータに対して公知の手法でフィルタ処理を実行する。例えば、収差補正部234は、周波数領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したexp(-iφ´)を乗算する。例えば、収差補正部234は、空間領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したフィルタ係数を用いた畳み込み演算を行う。
図10に示す収差補正部234は、フィルタ情報探索部300により探索されたCAOフィルタ(パラメータ)に基づいて、被検眼Eの複素OCTデータの収差を補正する。収差補正部234は、CAOフィルタを用いて複素OCTデータに対して公知の手法でフィルタ処理を実行する。例えば、収差補正部234は、周波数領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したexp(-iφ´)を乗算する。例えば、収差補正部234は、空間領域における複素OCTデータに対して、CAOフィルタのパラメータに対応したフィルタ係数を用いた畳み込み演算を行う。
フィルタ処理部311A及びフィルタ処理部321Aの少なくとも一方の機能は、収差補正部234により実現されてよい。
(プロジェクション画像形成部235)
プロジェクション画像形成部235は、被検眼Eの複素OCTデータに基づいてプロジェクション画像を形成する。例えば、プロジェクション画像形成部235は、収差補正部234により収差が補正された複素OCTデータに基づいてプロジェクション画像を形成する。
プロジェクション画像形成部235は、被検眼Eの複素OCTデータに基づいてプロジェクション画像を形成する。例えば、プロジェクション画像形成部235は、収差補正部234により収差が補正された複素OCTデータに基づいてプロジェクション画像を形成する。
プロジェクション画像形成部235は、被検眼Eの3次元画像をz方向に投影することによりプロジェクション画像を形成する。例えば、プロジェクション画像は、複素OCTデータの品質の良否を判断するために用いられる。
以上のような構成を有する眼科装置1500bにおいて、実施形態に係る主制御部211は、表示制御部として、探索されたCAOフィルタのパラメータに対応した被検眼Eの瞳面における収差情報を表示部240Aに表示させることが可能である。収差情報は、被検眼Eの屈折力を表す情報、ゼルニケ係数、及び光の位相ずれの分布情報(波面収差情報)の少なくとも1つを含む。屈折力を表す情報は、等価球面度数(SE)、球面度数(S)、乱視度数(C)、及び乱視軸角度(A)の少なくとも1つを含む。
以上のように機能するデータ処理部230は、例えば、前述のプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
眼科情報処理装置1200、眼科情報処理部1200a、1200b、データ処理部230は、実施形態に係る「眼科情報処理装置」の一例である。位相差プロファイル生成部231Aは、実施形態に係る「生成部」の一例である。位相ドリフト抽出部231Bは、実施形態に係る「抽出部」の一例である。位相差データ除去部231Cは、実施形態に係る「除去部」の一例である。画像形成部220又はデータ処理部230は、実施形態に係る「画像形成部」の一例である。OCT光学系1101又はOCT光学系8は、実施形態に係る「測定系」の一例である。
[動作]
実施形態に係る眼科装置1500bの動作について説明する。
実施形態に係る眼科装置1500bの動作について説明する。
図15~図23に、実施形態に係る眼科装置1500bの動作例を示す。図15~図17、図19~図23は、実施形態に係る眼科装置1500bの動作例のフローチャートを表す。図16は、図15のステップS4の動作例のフローチャートを表す。図17は、図16のステップS11の動作例のフローチャートを表す。図19は、図16のステップS13の動作例のフローチャートを表す。図20は、図19のステップS22~ステップS24のそれぞれの動作例のフローチャートを表す。図21は、図20のステップS31の動作例のフローチャートを表す。図22は、図19のステップS25の動作例のフローチャートを表す。図23は、図22のステップS54の動作例のフローチャートを表す。記憶部212には、図15~図17、図19~図23に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図15~図17、図19~図23に示す処理を実行する。図18は、図16のステップS12~ステップS15の動作説明図を表す。
(S1:スキャン条件を設定)
まず、主制御部211は、ユーザによるスキャン条件の指定を受け付ける。
まず、主制御部211は、ユーザによるスキャン条件の指定を受け付ける。
ユーザは、操作部240Bに対する操作によりスキャンモード及びスキャン範囲を指定することが可能である。操作部240Bに対する操作によりユーザによってスキャンモード及びスキャン範囲が指定されたとき、主制御部211は、操作部240Bからの操作情報を解析して、指定されたスキャンモード及びスキャン範囲を特定する。
いくつかの実施形態では、主制御部211は、ユーザにより指定された動作モードに基づいて、動作モードに対応したスキャンモード及びスキャン範囲の少なくとも1つを設定する。
(S2:アライメント)
次に、主制御部211は、アライメントを実行する。
次に、主制御部211は、アライメントを実行する。
例えば、主制御部211は、アライメント光学系50を制御して、被検眼Eにアライメント指標を投影させる。このとき、被検眼Eには、LCD39による固視標も投影される。主制御部211は、例えばイメージセンサ35により取得された受光像に基づいて特定された光学系の移動量に基づいて移動機構150を制御し、被検眼Eに対して光学系を当該移動量だけ相対的に移動させる。主制御部211は、この処理を繰り返し実行させる。これにより、光学系の光軸が被検眼Eの軸に略一致し、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように光学系が配置される。
(S3:OCTスキャン)
続いて、主制御部211は、OCTユニット100を制御して、ステップS1において設定されたスキャン条件でOCTスキャンを実行させる。
続いて、主制御部211は、OCTユニット100を制御して、ステップS1において設定されたスキャン条件でOCTスキャンを実行させる。
具体的には、主制御部211は、光スキャナー42を制御することにより、光源ユニット101から出射された光L0に基づいて生成された測定光LSを偏向し、偏向された測定光LSで被検眼Eの所定部位(例えば眼底)をスキャンさせる。測定光LSのスキャンにより得られた干渉光の検出結果は、クロックKCに同期してサンプリングされる。干渉光の検出結果から、被検眼Eの3次元複素OCTデータが取得される。
(S4:収差補正)
次に、主制御部211は、データ処理部230を制御して、ステップS3において取得された複素OCTデータに対して収差補正処理を実行させる。ステップS4では、後述するように、CAOフィルタ(パラメータ)を探索し、探索により得られたCAOフィルタが複素OCTデータに適用される。ステップS4の詳細は、後述する。
次に、主制御部211は、データ処理部230を制御して、ステップS3において取得された複素OCTデータに対して収差補正処理を実行させる。ステップS4では、後述するように、CAOフィルタ(パラメータ)を探索し、探索により得られたCAOフィルタが複素OCTデータに適用される。ステップS4の詳細は、後述する。
(S5:表示?)
次に、主制御部211は、ステップS4において探索されたCAOフィルタに対応した収差情報を表示部240Aに表示させるか否かを判定する。例えば、主制御部211は、ユーザによる操作部240Bに対する操作内容に基づいて、収差情報を表示部240Aに表示させるか否かを判定する。例えば、主制御部211は、あらかじめ指定された動作モードに応じて、収差情報を表示部240Aに表示させるか否かを判定する。
次に、主制御部211は、ステップS4において探索されたCAOフィルタに対応した収差情報を表示部240Aに表示させるか否かを判定する。例えば、主制御部211は、ユーザによる操作部240Bに対する操作内容に基づいて、収差情報を表示部240Aに表示させるか否かを判定する。例えば、主制御部211は、あらかじめ指定された動作モードに応じて、収差情報を表示部240Aに表示させるか否かを判定する。
ステップS5において収差情報を表示部240Aに表示させると判定されたとき(ステップS5:Y)、眼科装置1500bの動作はステップS6に移行する。ステップS5において収差情報を表示部240Aに表示させないと判定されたとき(ステップS5:N)、眼科装置1500bの動作はステップS7に移行する。
(S6:収差情報を表示)
ステップS5において収差情報を表示部240Aに表示させると判定されたとき(ステップS5:Y)、主制御部211は、ステップS4において探索されたCAOフィルタのパラメータに対応した被検眼Eの瞳面における収差情報を表示部240Aに表示させる。収差情報は、被検眼Eの瞳面における光の位相ずれの分布マップ(位相分布マップ)を含む。このとき、主制御部211は、ゼルニケ係数や、探索されたCAOフィルタが適用された複素OCTデータに基づいて形成された断層像及びプロジェクション画像を分布マップと同一画面に表示させてもよい。
ステップS5において収差情報を表示部240Aに表示させると判定されたとき(ステップS5:Y)、主制御部211は、ステップS4において探索されたCAOフィルタのパラメータに対応した被検眼Eの瞳面における収差情報を表示部240Aに表示させる。収差情報は、被検眼Eの瞳面における光の位相ずれの分布マップ(位相分布マップ)を含む。このとき、主制御部211は、ゼルニケ係数や、探索されたCAOフィルタが適用された複素OCTデータに基づいて形成された断層像及びプロジェクション画像を分布マップと同一画面に表示させてもよい。
(S7:OCT画像を形成)
ステップS6に続いて、又はステップS5において収差情報を表示部240Aに表示させないと判定されたとき(ステップS5:N)、主制御部211は、画像形成部220又はデータ処理部230を制御して、ステップS4において探索されたCAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像を形成させる。OCT画像には、断層像、プロジェクション画像、en-face画像、OCTA画像などがある。
ステップS6に続いて、又はステップS5において収差情報を表示部240Aに表示させないと判定されたとき(ステップS5:N)、主制御部211は、画像形成部220又はデータ処理部230を制御して、ステップS4において探索されたCAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像を形成させる。OCT画像には、断層像、プロジェクション画像、en-face画像、OCTA画像などがある。
いくつかの実施形態では、ユーザによる操作部240Bに対する操作内容に基づいて、ステップS7の処理が開始される。
以上で、眼科装置1500bの動作は終了である(エンド)。
図15のステップS4の処理は、図16に示すように実行される。
(S11:位相安定化)
ステップS4において被検眼Eの複素OCTデータが取得されると、主制御部211は、位相安定化部231を制御して、取得された複素OCTデータに対して位相安定化処理を実行させる。
ステップS4において被検眼Eの複素OCTデータが取得されると、主制御部211は、位相安定化部231を制御して、取得された複素OCTデータに対して位相安定化処理を実行させる。
位相安定化部231は、上記のように、被検眼Eの3次元複素OCTデータに対して位相安定化処理を実行する。ステップS11の詳細は、後述する。
(S12:フーリエ変換)
続いて、主制御部211は、ステップS11において位相安定化処理が行われた3次元複素OCTデータに対して公知のフーリエ変換処理を施し、周波数領域のOCTデータに変換する。
続いて、主制御部211は、ステップS11において位相安定化処理が行われた3次元複素OCTデータに対して公知のフーリエ変換処理を施し、周波数領域のOCTデータに変換する。
(S13:収差評価)
次に、主制御部211は、データ処理部230(フィルタ情報探索部300)を制御して、CAOフィルタを探索するための収差評価を実行させる。
次に、主制御部211は、データ処理部230(フィルタ情報探索部300)を制御して、CAOフィルタを探索するための収差評価を実行させる。
フィルタ情報探索部300は、CAOフィルタのパラメータを更新しつつ、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価することで、最適なCAOフィルタのパラメータを特定する。ステップS13の詳細は、後述する。
(S14:収差補正)
次に、主制御部211は、収差補正部234を制御して、ステップS13において探索されたCAOフィルタを図15のステップS3において取得された被検眼Eの3次元複素OCTデータに適用することで、3次元複素OCTデータの収差を補正する。
次に、主制御部211は、収差補正部234を制御して、ステップS13において探索されたCAOフィルタを図15のステップS3において取得された被検眼Eの3次元複素OCTデータに適用することで、3次元複素OCTデータの収差を補正する。
(S15:逆フーリエ変換)
続いて、主制御部211は、ステップS14において収差が補正された3次元複素OCTデータに対して公知の逆フーリエ変換処理を施し、空間領域のOCTデータに変換する。
続いて、主制御部211は、ステップS14において収差が補正された3次元複素OCTデータに対して公知の逆フーリエ変換処理を施し、空間領域のOCTデータに変換する。
以上で、図15のステップS4の処理は終了である(エンド)。
図16のステップS11は、図17に示すように実行される。
(S11-1:参照データをセット)
まず、位相安定化部231は、3次元複素OCTデータに基づいて形成される所定のBフレームのデータを参照データとしてセットする。例えば、参照データとして、3次元複素OCTデータにおける上端のBフレームのデータB1が抽出される(図12A参照)。
まず、位相安定化部231は、3次元複素OCTデータに基づいて形成される所定のBフレームのデータを参照データとしてセットする。例えば、参照データとして、3次元複素OCTデータにおける上端のBフレームのデータB1が抽出される(図12A参照)。
(S11-2:ターゲットデータをセット)
次に、位相安定化部231は、3次元複素OCTデータに基づいて形成される所定のBフレームのデータから抽出された参照データB1にy方向に隣接するBフレームのデータB2をターゲットデータとしてセットする。
次に、位相安定化部231は、3次元複素OCTデータに基づいて形成される所定のBフレームのデータから抽出された参照データB1にy方向に隣接するBフレームのデータB2をターゲットデータとしてセットする。
(S11-3:位相差プロファイルを生成)
続いて、位相差プロファイル生成部231Aは、隣接する2つのBフレームのデータB1、B2間のAラインの深さ位置ごとに位相差を算出する。位相差プロファイル生成部231Aは、算出された位相差をz方向に平均化処理を行うことにより得られたAラインごとの位相差をBライン方向に配列した位相差プロファイルを生成する。
続いて、位相差プロファイル生成部231Aは、隣接する2つのBフレームのデータB1、B2間のAラインの深さ位置ごとに位相差を算出する。位相差プロファイル生成部231Aは、算出された位相差をz方向に平均化処理を行うことにより得られたAラインごとの位相差をBライン方向に配列した位相差プロファイルを生成する。
(S11-4:位相差データを除去)
続いて、位相差データ除去部231Cは、ステップS11-3において生成された位相差プロファイルから信頼性の低い位相差データを除去する。
続いて、位相差データ除去部231Cは、ステップS11-3において生成された位相差プロファイルから信頼性の低い位相差データを除去する。
例えば、位相差データ除去部231Cは、ステップS11-3において生成された位相差プロファイルから式(2)又は式(3)を満たす位相差データを除去する。
(S11-5:位相ドリフトを抽出)
続いて、位相ドリフト抽出部231Bは、ステップS11-4において信頼性の低い位相差データが除去された位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを実行して位相ドリフト抽出する。
続いて、位相ドリフト抽出部231Bは、ステップS11-4において信頼性の低い位相差データが除去された位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを実行して位相ドリフト抽出する。
(S11-6:位相補正)
続いて、位相補正部231Dは、ステップS11-5において抽出された位相ドリフトに基づいて、上記のように、ターゲットデータの位相を補正する。
続いて、位相補正部231Dは、ステップS11-5において抽出された位相ドリフトに基づいて、上記のように、ターゲットデータの位相を補正する。
(S11-7:終了?)
次に、位相安定化部231(又は主制御部211)は、位相安定化処理を終了するか否かを判定する。例えば、位相安定化部231は、3次元複素OCTデータにおけるすべてのBフレームのデータに対して位相安定化処理を実行したか否かを判定することにより、位相安定化処理を終了するか否かを判定する。
次に、位相安定化部231(又は主制御部211)は、位相安定化処理を終了するか否かを判定する。例えば、位相安定化部231は、3次元複素OCTデータにおけるすべてのBフレームのデータに対して位相安定化処理を実行したか否かを判定することにより、位相安定化処理を終了するか否かを判定する。
ステップS11-7において位相安定化処理を終了すると判定されたとき(ステップS11-7:Y)、ステップS11の動作は終了である(エンド)。ステップS11-7において位相安定化処理を終了しないと判定されたとき(ステップS11-7:N)、ステップS11の動作はステップS11-8に移行する。
(S11-8:ターゲットデータを参照データにセット)
ステップS11-7において位相安定化処理を終了しないと判定されたとき(ステップS11-7:N)、位相安定化部231は、ターゲットデータを参照データにセットする。その後、位相安定化部231の動作は、ステップS11-2に移行する。
ステップS11-7において位相安定化処理を終了しないと判定されたとき(ステップS11-7:N)、位相安定化部231は、ターゲットデータを参照データにセットする。その後、位相安定化部231の動作は、ステップS11-2に移行する。
例えば、位相安定化部231は、BフレームのデータB2を参照データにセットする。これにより、次のステップS11-2では、BフレームのデータB2にy方向に隣接するBフレームのデータB3がターゲットデータにセットされ、BフレームのデータB2、B3の間で位相補正が行われる。上記の位相補正処理が、3次元複素OCTデータにおけるすべてのBフレームのデータに対して順次に実行される。
図18に、図16のステップS12~ステップS15の動作説明図を示す。
ステップS12では、ステップS11において位相安定化処理が行われた複素OCTデータOD1は、周波数領域の複素OCTデータFD1に変換される。ステップS13及びステップS14では、周波数領域において探索されたCAOフィルタCFが複素OCTデータFD1に適用され、複素OCTデータの収差が補正される。ステップS15では、収差が補正された複素OCTデータが空間領域の複素OCTデータOD2に変換される。
図16のステップS13の処理は、図19に示すように実行される。
(S21:フィルタ情報を生成)
主制御部211は、フィルタ情報生成部232を制御して、CAOフィルタのパラメータを生成させる。
主制御部211は、フィルタ情報生成部232を制御して、CAOフィルタのパラメータを生成させる。
フィルタ情報生成部232は、あらかじめ決められた初期値を取得してCAOフィルタのパラメータとして生成する。外部の眼科装置から被検眼Eの屈折力情報が取得される場合、フィルタ情報生成部232は、屈折力情報からCAOフィルタのパラメータを生成する。過去のCAOフィルタを流用する場合、フィルタ情報生成部232は、記憶部212に記憶された過去のCAOフィルタのパラメータを読み出すことで、CAOフィルタのパラメータを生成する。
続いて、主制御部211は、粗探索部310を制御してステップS22~ステップS24の粗探索処理を実行させた後、細密探索部320を制御してステップS25の細密探索処理を実行させる。
(S22:デフォーカス項の係数を探索)
まず、主制御部211は、粗探索部310を制御して、図8のCAOフィルタのデフォーカス項の係数Cdeを探索させる。ステップS22の詳細は、後述する。
まず、主制御部211は、粗探索部310を制御して、図8のCAOフィルタのデフォーカス項の係数Cdeを探索させる。ステップS22の詳細は、後述する。
(S23:HV方向の非点収差項の係数を探索)
続いて、主制御部211は、粗探索部310を制御して、図8のCAOフィルタのHV方向の非点収差項の係数Cas_HVを探索させる。ステップS23の処理は、ステップS22と同様に実行される。
続いて、主制御部211は、粗探索部310を制御して、図8のCAOフィルタのHV方向の非点収差項の係数Cas_HVを探索させる。ステップS23の処理は、ステップS22と同様に実行される。
(S24:対角方向の非点収差項の係数を探索)
続いて、主制御部211は、粗探索部310を制御して、図8のCAOフィルタの対角方向の非点収差項の係数Cas_DGを探索させる。ステップS24の処理は、ステップS22と同様に実行される。
続いて、主制御部211は、粗探索部310を制御して、図8のCAOフィルタの対角方向の非点収差項の係数Cas_DGを探索させる。ステップS24の処理は、ステップS22と同様に実行される。
(S25:細密探索)
次に、主制御部211は、細密探索部320を制御して、図8のCAOフィルタの上記の係数の細密探索処理を実行させる。ステップS25の詳細は、後述する。
次に、主制御部211は、細密探索部320を制御して、図8のCAOフィルタの上記の係数の細密探索処理を実行させる。ステップS25の詳細は、後述する。
以上で、図16のステップS13の処理は終了である(エンド)。
図19のステップS22~ステップS24のそれぞれは、図20に示すように実行される。すなわち、ステップS22におけるデフォーカス項の係数Cdeの探索処理は、図20に示すように実行され、ステップS23におけるHV方向の非点収差項の係数Cas_HVの探索処理は、図20に示すように実行される。また、ステップS24における対角方向の非点収差項の係数Cas_DGの探索処理もまた、図20に示すように実行される。
(S31:フィルタテスト)
粗探索部310は、フィルタテスト部311において、現段階で係数が設定されているCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。フィルタテストでは、形成されたOCT画像の画質評価値が算出される。ステップS31の詳細は、後述する。
粗探索部310は、フィルタテスト部311において、現段階で係数が設定されているCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。フィルタテストでは、形成されたOCT画像の画質評価値が算出される。ステップS31の詳細は、後述する。
(S32:終了?)
続いて、粗探索部310(又は主制御部211)は、順次に係数を更新しつつ実行されるフィルタテストを終了するか否かを判定する。例えば、粗探索部310は、あらかじめ決められた係数の探索範囲内であるときフィルタテストを継続すると判定し、当該探索範囲を超えたときフィルタテストを終了すると判定する。例えば、粗探索部310は、あらかじめ決められた係数の更新回数が閾値以下であるときフィルタテストを継続すると判定し、当該更新回数が閾値を超えたときフィルタテストを終了すると判定する。
続いて、粗探索部310(又は主制御部211)は、順次に係数を更新しつつ実行されるフィルタテストを終了するか否かを判定する。例えば、粗探索部310は、あらかじめ決められた係数の探索範囲内であるときフィルタテストを継続すると判定し、当該探索範囲を超えたときフィルタテストを終了すると判定する。例えば、粗探索部310は、あらかじめ決められた係数の更新回数が閾値以下であるときフィルタテストを継続すると判定し、当該更新回数が閾値を超えたときフィルタテストを終了すると判定する。
ステップS32においてフィルタテストを終了すると判定されたとき(ステップS32:Y)、粗探索部310の動作はステップS34に移行する。ステップS32においてフィルタテストを終了しないと判定されたとき(ステップS32:N)、粗探索部310の動作はステップS33に移行する。
(S33:係数を更新)
ステップS32においてフィルタテストを終了しないと判定されたとき(ステップS32:N)、フィルタ情報更新部312は、係数を所定の増加分だけ増加、又は所定の減少分だけ減少させる。その後、粗探索部310の動作はステップS31に移行する。
ステップS32においてフィルタテストを終了しないと判定されたとき(ステップS32:N)、フィルタ情報更新部312は、係数を所定の増加分だけ増加、又は所定の減少分だけ減少させる。その後、粗探索部310の動作はステップS31に移行する。
(S34:係数を特定)
ステップS32においてフィルタテストを終了すると判定されたとき(ステップS32:Y)、粗探索部310は、CAOフィルタの係数を特定する。
ステップS32においてフィルタテストを終了すると判定されたとき(ステップS32:Y)、粗探索部310は、CAOフィルタの係数を特定する。
粗探索部310は、ステップS31におけるフィルタテストを繰り返し実行するにより得られた複数の画質評価値に基づいて、最も画質がよいOCT画像に適用されたCAOフィルタの係数を特定する。例えば、粗探索部310は、画質評価値が最大又は最小であるOCT画像に適用されたCAOフィルタの係数を特定する。
以上で、図19のステップS22~ステップS24のそれぞれは終了である(エンド)。
図20のステップS31の処理は、図21に示すように実行される。
(S41:フィルタ処理)
フィルタテスト部311は、フィルタ処理部311Aにおいて、CAOフィルタを複素OCTデータに適用する。
フィルタテスト部311は、フィルタ処理部311Aにおいて、CAOフィルタを複素OCTデータに適用する。
(S42:逆フーリエ変換)
続いて、フィルタテスト部311(データ処理部230)は、ステップS41においてフィルタ処理が施された複素OCTデータに対して逆フーリエ変換を施し、空間領域の複素OCTデータを生成する。
続いて、フィルタテスト部311(データ処理部230)は、ステップS41においてフィルタ処理が施された複素OCTデータに対して逆フーリエ変換を施し、空間領域の複素OCTデータを生成する。
(S43:プロジェクション画像を形成)
次に、プロジェクション画像形成部235は、ステップS43において生成された空間領域の複素OCTデータに基づいてプロジェクション画像を形成する。
次に、プロジェクション画像形成部235は、ステップS43において生成された空間領域の複素OCTデータに基づいてプロジェクション画像を形成する。
(S44:画質評価値を算出)
続いて、画質評価部311Bは、ステップS43において形成されたプロジェクション画像の画質評価値を算出する。
続いて、画質評価部311Bは、ステップS43において形成されたプロジェクション画像の画質評価値を算出する。
以上で、図20のステップS31の処理は、終了である(エンド)。
図19のステップS25の処理は、図22に示すように実行される。
(S51:フィルタテスト)
細密探索部320は、フィルタテスト部321において、CAOフィルタを複素OCTデータに適用する。その後、フィルタテスト部321は、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。ステップS51は、ステップS31(ステップS41~ステップS44)と同様に実行される(図21参照)。すなわち、ステップS51においても、画質評価値が算出される。
細密探索部320は、フィルタテスト部321において、CAOフィルタを複素OCTデータに適用する。その後、フィルタテスト部321は、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。ステップS51は、ステップS31(ステップS41~ステップS44)と同様に実行される(図21参照)。すなわち、ステップS51においても、画質評価値が算出される。
(S52:画質評価値を保存)
続いて、細密探索部320は、ステップS51において算出された画質評価値を記憶部212等の記憶部に保存する。
続いて、細密探索部320は、ステップS51において算出された画質評価値を記憶部212等の記憶部に保存する。
(S53:終了?)
次に、細密探索部320(又は主制御部211)は、順次に係数を更新しつつ実行されるフィルタテストを終了するか否かを判定する。例えば、細密探索部320は、ステップS52において保存された画質評価値に基づいて画質の改善の程度があらかじめ決められた閾値以下のとき、これ以上の画質の改善を図ることが困難であると判断してフィルタテストを終了すると判定し、画質の改善の程度が閾値を超えるとき、より一層の画質の改善を図ることが可能であると判断してフィルタテストを継続すると判定する。画質の改善の程度は、画質評価値の勾配に対応する。また、例えば、細密探索部320は、あらかじめ決められた係数の更新回数が閾値以下であるときフィルタテストを継続すると判定し、当該更新回数が閾値を超えたときフィルタテストを終了すると判定する。
次に、細密探索部320(又は主制御部211)は、順次に係数を更新しつつ実行されるフィルタテストを終了するか否かを判定する。例えば、細密探索部320は、ステップS52において保存された画質評価値に基づいて画質の改善の程度があらかじめ決められた閾値以下のとき、これ以上の画質の改善を図ることが困難であると判断してフィルタテストを終了すると判定し、画質の改善の程度が閾値を超えるとき、より一層の画質の改善を図ることが可能であると判断してフィルタテストを継続すると判定する。画質の改善の程度は、画質評価値の勾配に対応する。また、例えば、細密探索部320は、あらかじめ決められた係数の更新回数が閾値以下であるときフィルタテストを継続すると判定し、当該更新回数が閾値を超えたときフィルタテストを終了すると判定する。
ステップS53においてフィルタテストを終了すると判定されたとき(ステップS53:Y)、細密探索部320の動作はステップS56に移行する。ステップS53においてフィルタテストを終了しないと判定されたとき(ステップS53:N)、細密探索部320の動作はステップS54に移行する。
(S54:勾配を解析)
ステップS53においてフィルタテストを終了しないと判定されたとき(ステップS53:N)、細密探索部320は、勾配算出部323において、CAOフィルタの各係数を微小変化させたときの勾配を算出する。ステップS54の詳細は、後述する。
ステップS53においてフィルタテストを終了しないと判定されたとき(ステップS53:N)、細密探索部320は、勾配算出部323において、CAOフィルタの各係数を微小変化させたときの勾配を算出する。ステップS54の詳細は、後述する。
(S55:係数を更新)
続いて、フィルタ情報更新部322は、ステップS54において算出された勾配に応じた変化分だけCAOフィルタの係数を更新する。その後、細密探索部320の動作はステップS51に移行する。
続いて、フィルタ情報更新部322は、ステップS54において算出された勾配に応じた変化分だけCAOフィルタの係数を更新する。その後、細密探索部320の動作はステップS51に移行する。
(S56:係数を特定)
ステップS53においてフィルタテストを終了すると判定されたとき(ステップS53:Y)、細密探索部320は、CAOフィルタの係数を特定する。
ステップS53においてフィルタテストを終了すると判定されたとき(ステップS53:Y)、細密探索部320は、CAOフィルタの係数を特定する。
例えば、ステップS53において、画質の改善の程度があらかじめ決められた閾値以下のときフィルタテストを終了すると判定された場合、細密探索部320は、ステップS52において保存された画質評価値を有するOCT画像に適用されたCAOフィルタの係数を特定する。
例えば、ステップS53において、あらかじめ決められた係数の更新回数が閾値を超えたときフィルタテストを終了すると判定された場合、細密探索部320は、ステップS51におけるフィルタテストを繰り返し実行するにより得られた複数の画質評価値に基づいて、最も画質がよいOCT画像に適用されたCAOフィルタの係数を特定する。例えば、細密探索部320は、画質評価値が最大又は最小であるOCT画像に適用されたCAOフィルタの係数を特定する。
以上で、図19のステップS25の処理は、終了である(エンド)。
図22のステップS54の処理は、図23に示すように実行される。図23は、CAOフィルタのデフォーカス項、HV方向の非点収差項、対角方向の非点収差項、及び球面収差項を探索する処理例を表す。なお、図23は、図8に示すCAOフィルタの複数の係数を順次に探索する処理例を表すが、図8に示すCAOフィルタの複数の係数を並列に探索するように処理が実行されていてもよい。
(S61:Cde?)
細密探索部320は、探索対象の係数がデフォーカス項の係数Cdeであるか否かを判定する。
細密探索部320は、探索対象の係数がデフォーカス項の係数Cdeであるか否かを判定する。
探索対象の係数がデフォーカス項の係数Cdeであると判定されたとき(ステップS61:Y)、細密探索部320は、ステップS61-1~ステップS61-5の処理を実行する。探索対象の係数がデフォーカス項の係数Cdeではないと判定されたとき(ステップS61:N)、細密探索部320の動作は、ステップS62に移行する。
(S61-1:係数を(Cde+δ)に更新)
ステップS61において探索対象の係数がデフォーカス項の係数Cdeであると判定されたとき(ステップS61:Y)、フィルタ情報更新部322は、係数Cdeを「Cde+δ」に更新する。
ステップS61において探索対象の係数がデフォーカス項の係数Cdeであると判定されたとき(ステップS61:Y)、フィルタ情報更新部322は、係数Cdeを「Cde+δ」に更新する。
(S61-2:フィルタテスト)
続いて、フィルタテスト部321は、ステップS61-1において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。ステップS61-1は、ステップS31(ステップS41~ステップS44)と同様に実行される(図21参照)。ステップS61-2において、画質評価値が算出される。
続いて、フィルタテスト部321は、ステップS61-1において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。ステップS61-1は、ステップS31(ステップS41~ステップS44)と同様に実行される(図21参照)。ステップS61-2において、画質評価値が算出される。
(S61-3:係数を(Cde-δ)に更新)
続いて、フィルタ情報更新部322は、係数Cdeを「Cde-δ」に更新する。
続いて、フィルタ情報更新部322は、係数Cdeを「Cde-δ」に更新する。
(S61-4:フィルタテスト)
続いて、フィルタテスト部321は、ステップS61-3において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。ステップS61-3は、ステップS31(ステップS41~ステップS44)と同様に実行される(図21参照)。ステップS61-3において、画質評価値が算出される。
続いて、フィルタテスト部321は、ステップS61-3において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する。ステップS61-3は、ステップS31(ステップS41~ステップS44)と同様に実行される(図21参照)。ステップS61-3において、画質評価値が算出される。
(S61-5:勾配を算出)
続いて、勾配算出部323は、ステップS61-2において算出された画質評価値とステップS61-4において算出された画質評価値とに基づいて画質評価値の勾配を算出する。その後、細密探索部320の動作は、ステップS61に移行する。
続いて、勾配算出部323は、ステップS61-2において算出された画質評価値とステップS61-4において算出された画質評価値とに基づいて画質評価値の勾配を算出する。その後、細密探索部320の動作は、ステップS61に移行する。
(S62:Cas_HV?)
ステップS61において探索対象の係数がデフォーカス項の係数Cdeではないと判定されたとき(ステップS61:N)、細密探索部320は、探索対象の係数がHV方向の非点収差項の係数Cas_HVであるか否かを判定する。
ステップS61において探索対象の係数がデフォーカス項の係数Cdeではないと判定されたとき(ステップS61:N)、細密探索部320は、探索対象の係数がHV方向の非点収差項の係数Cas_HVであるか否かを判定する。
ステップS62において探索対象の係数がHV方向の非点収差項の係数Cas_HVであると判定されたとき(ステップS62:Y)、細密探索部320は、ステップS62-1~ステップS62-5の処理を実行する。探索対象の係数が非点収差項の係数Cas_HVではないと判定されたとき(ステップS62:N)、細密探索部320の動作は、ステップS63に移行する。
(S62-1:係数を(Cas_HV+δ)に更新)
ステップS62において探索対象の係数がHV方向の非点収差項の係数Cas_HVであると判定されたとき(ステップS62:Y)、フィルタ情報更新部322は、ステップS61-1と同様に、係数Cas_HVを「Cas_HV+δ」に更新する。ステップS62-1における「δ」は、ステップS61-1における「δ」と異なってもよい。
ステップS62において探索対象の係数がHV方向の非点収差項の係数Cas_HVであると判定されたとき(ステップS62:Y)、フィルタ情報更新部322は、ステップS61-1と同様に、係数Cas_HVを「Cas_HV+δ」に更新する。ステップS62-1における「δ」は、ステップS61-1における「δ」と異なってもよい。
(S62-2:フィルタテスト)
続いて、フィルタテスト部321は、ステップS61-1と同様に、ステップS62-1において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する(図21参照)。
続いて、フィルタテスト部321は、ステップS61-1と同様に、ステップS62-1において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する(図21参照)。
(S62-3:係数を(Cas_HV-δ)に更新)
続いて、フィルタ情報更新部322は、ステップS61-3と同様に、係数Cas_HVを「Cas_HV-δ」に更新する。
続いて、フィルタ情報更新部322は、ステップS61-3と同様に、係数Cas_HVを「Cas_HV-δ」に更新する。
(S62-4:フィルタテスト)
続いて、フィルタテスト部321は、ステップS61-4と同様に、ステップS62-3において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する(図21参照)。
続いて、フィルタテスト部321は、ステップS61-4と同様に、ステップS62-3において係数が更新されたCAOフィルタを複素OCTデータに適用し、CAOフィルタが適用された複素OCTデータに基づいて形成されたOCT画像の画質を評価するフィルタテストを実行する(図21参照)。
(S62-5:勾配を算出)
続いて、勾配算出部323は、ステップS61-5と同様に、ステップS62-2において算出された画質評価値とステップS62-4において算出された画質評価値とに基づいて画質評価値の勾配を算出する。その後、細密探索部320の動作は、ステップS61に移行する。
続いて、勾配算出部323は、ステップS61-5と同様に、ステップS62-2において算出された画質評価値とステップS62-4において算出された画質評価値とに基づいて画質評価値の勾配を算出する。その後、細密探索部320の動作は、ステップS61に移行する。
(S63:Cas_DG?)
ステップS62において探索対象の係数がHV方向の非点収差項の係数Cas_HVではないと判定されたとき(ステップS62:N)、細密探索部320は、探索対象の係数が対角方向の非点収差項の係数Cas_DGであるか否かを判定する。
ステップS62において探索対象の係数がHV方向の非点収差項の係数Cas_HVではないと判定されたとき(ステップS62:N)、細密探索部320は、探索対象の係数が対角方向の非点収差項の係数Cas_DGであるか否かを判定する。
ステップS63において探索対象の係数が対角方向の非点収差項の係数Cas_DGであると判定されたとき(ステップS63:Y)、細密探索部320は、ステップS63-1~ステップS63-5の処理を実行する。探索対象の係数が対角方向の非点収差項の係数Cas_DGではないと判定されたとき(ステップS63:N)、細密探索部320の動作は、ステップS64に移行する。
(S63-1:係数を(Cas_DG+δ)に更新)
(S63-2:フィルタテスト)
(S63-3:係数を(Cas_DG-δ)に更新)
(S63-4:フィルタテスト)
(S63-5:勾配を算出)
ステップS63において探索対象の係数が対角方向の非点収差項の係数Cas_DGであると判定されたとき(ステップS63:Y)、細密探索部320は、ステップS61-1~ステップS61-5と同様に、対角方向の非点収差項の係数Cas_DGについて画質評価値の勾配を算出する(ステップS63-1~ステップS63-5)。その後、細密探索部320の動作は、ステップS61に移行する。ステップS63-1~ステップS63-5は、ステップS61-1~ステップS61-5と同様であるため、詳細な説明を省略する。
(S63-2:フィルタテスト)
(S63-3:係数を(Cas_DG-δ)に更新)
(S63-4:フィルタテスト)
(S63-5:勾配を算出)
ステップS63において探索対象の係数が対角方向の非点収差項の係数Cas_DGであると判定されたとき(ステップS63:Y)、細密探索部320は、ステップS61-1~ステップS61-5と同様に、対角方向の非点収差項の係数Cas_DGについて画質評価値の勾配を算出する(ステップS63-1~ステップS63-5)。その後、細密探索部320の動作は、ステップS61に移行する。ステップS63-1~ステップS63-5は、ステップS61-1~ステップS61-5と同様であるため、詳細な説明を省略する。
(S64:Csph?)
ステップS63において探索対象の係数が対角方向の非点収差項の係数Cas_DGではないと判定されたとき(ステップS63:N)、細密探索部320は、探索対象の係数が球面収差項の係数Csphであるか否かを判定する。
ステップS63において探索対象の係数が対角方向の非点収差項の係数Cas_DGではないと判定されたとき(ステップS63:N)、細密探索部320は、探索対象の係数が球面収差項の係数Csphであるか否かを判定する。
ステップS64において探索対象の係数が球面収差項の係数Csphであると判定されたとき(ステップS64:Y)、細密探索部320は、ステップS64-1~ステップS64-5の処理を実行する。
(S64-1:係数を(Csph+δ)に更新)
(S64-2:フィルタテスト)
(S64-3:係数を(Csph-δ)に更新)
(S64-4:フィルタテスト)
(S64-5:勾配を算出)
ステップS64において探索対象の係数が球面収差項の係数Csphであると判定されたとき(ステップS64:Y)、細密探索部320は、ステップS61-1~ステップS61-5と同様に、球面収差項の係数Csphについて画質評価値の勾配を算出する(ステップS64-1~ステップS64-5)。その後、細密探索部320の動作は、ステップS61に移行する。ステップS64-1~ステップS64-5は、ステップS61-1~ステップS61-5と同様であるため、詳細な説明を省略する。
(S64-2:フィルタテスト)
(S64-3:係数を(Csph-δ)に更新)
(S64-4:フィルタテスト)
(S64-5:勾配を算出)
ステップS64において探索対象の係数が球面収差項の係数Csphであると判定されたとき(ステップS64:Y)、細密探索部320は、ステップS61-1~ステップS61-5と同様に、球面収差項の係数Csphについて画質評価値の勾配を算出する(ステップS64-1~ステップS64-5)。その後、細密探索部320の動作は、ステップS61に移行する。ステップS64-1~ステップS64-5は、ステップS61-1~ステップS61-5と同様であるため、詳細な説明を省略する。
ステップS64において、探索対象の係数が球面収差項の係数Csphではないと判定されたとき(ステップS64:N)、細密探索部320の動作は、次の項の係数について同様の処理を実行する。なお、すべての項の係数が終了したとき、図22のステップS54の処理は、終了である。
[変形例]
上記の実施形態において、被検眼EにおけるOCT計測領域ごと(画角ごと)に、実施形態に係るCAOフィルタのパラメータ(フィルタ情報)を探索するように構成されていてもよい。この場合、被検眼EにおけるOCT計測領域ごとに探索されたCAOフィルタのパラメータに対応した被検眼Eの瞳面における収差情報を表示部240Aに表示させてもよい。
上記の実施形態において、被検眼EにおけるOCT計測領域ごと(画角ごと)に、実施形態に係るCAOフィルタのパラメータ(フィルタ情報)を探索するように構成されていてもよい。この場合、被検眼EにおけるOCT計測領域ごとに探索されたCAOフィルタのパラメータに対応した被検眼Eの瞳面における収差情報を表示部240Aに表示させてもよい。
いくつかの実施形態では、上記の眼科情報処理方法をコンピュータに実行させるためのプログラムが提供される。このようなプログラムを、コンピュータによって読み取り可能な任意の非一時的な記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。
[作用]
実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムについて説明する。
実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムについて説明する。
実施形態に係る眼科情報処理装置(眼科情報処理装置1200、眼科情報処理部1200a、1200b、データ処理部230)は、生成部(位相差プロファイル生成部231A)と、抽出部(位相ドリフト抽出部231B)と、位相補正部(231D)とを含む。生成部は、被検眼(E)の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化処理を行うことにより位相差プロファイルを生成する。抽出部は、生成部により生成された位相差プロファイルから位相ドリフトを抽出する。位相補正部は、抽出部により抽出された位相ドリフトに基づいて、上記の2つのBフレームのいずれか一方の第1複素OCTデータの位相を補正する。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化の影響を受けないOCTデータを簡素な処理で取得することができる。それにより、OCTデータから得られる位相情報の精度を向上させることが可能になる。
いくつかの実施形態は、位相差プロファイルから信頼性の低い位相差データを除去する除去部(位相差データ除去部231C)を含む。抽出部は、除去部により信頼性の低い位相差データが除去された位相差プロファイルから局所的な位相差変化が除去された位相ドリフトを抽出する。
このような態様によれば、局所的な位相ノイズにロバストなOCTデータを取得することが可能になる。
いくつかの実施形態では、信頼性の低い位相差データは、信号強度が所定の閾値レベル未満であるデータ、及び平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータの少なくとも1つを含む。
このような態様によれば、局所的な位相ノイズにロバストなOCTデータを、簡素な処理で取得することが可能になる。
いくつかの実施形態では、抽出部は、位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより位相ドリフトを抽出する。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化の影響を受けないOCTデータを、より一層簡素な処理で取得することができる。
いくつかの実施形態では、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つのパラメータは、複素OCTデータを取得する測定系の位相変化の周波数、位相変化の速度、及び測定系におけるOCTスキャンに要する時間の少なくとも1つに基づいて設定される。
このような態様によれば、複素OCTデータの取得環境に対応した最適な条件で位相ドリフトを抽出することが可能になる。
いくつかの実施形態では、隣接する第1のBフレーム及び第2のBフレームについて、生成部により生成された位相差プロファイルに基づいて第2のBフレームの複素OCTデータの位相を補正した後、第2のBフレーム及び第2のBフレームに隣接する第3のBフレームについて、生成部により生成された位相差プロファイルに基づいて第3のBフレームの複素OCTデータの位相を補正する。
このような態様によれば、簡素な処理で、3次元複素OCTデータの位相を安定化させることが可能になる。
いくつかの実施形態は、位相補正部により少なくとも1つのBフレームの複素OCTデータが補正された被検眼の複素OCTデータに基づいて被検眼のOCT画像を形成する画像形成部(画像形成部220、データ処理部230)を含む。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化にロバストなOCT画像を形成することが可能になる。
実施形態に係る眼科装置(1500a、1500b)は、被検眼に対して光コヒーレンストモグラフィを実行することにより複素OCTデータを取得する測定系(OCT光学系1101、OCT光学系8)と、上記のいずれかに記載の眼科情報処理装置と、を含む。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化の影響を受けないOCTデータを簡素な処理で取得することができる眼科装置を提供することができる。
実施形態に係る眼科情報処理方法は、生成ステップと、抽出ステップと、位相補正ステップとを含む。生成ステップは、被検眼(E)の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化処理を行うことにより位相差プロファイルを生成する。抽出ステップは、生成ステップにおいて生成された位相差プロファイルから位相ドリフトを抽出する。位相補正ステップは、抽出ステップにおいて抽出された位相ドリフトに基づいて、上記の2つのBフレームのいずれか一方の第1複素OCTデータの位相を補正する。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化の影響を受けないOCTデータを簡素な処理で取得することができる。それにより、OCTデータから得られる位相情報の精度を向上させることが可能になる。
いくつかの実施形態は、位相差プロファイルから信頼性の低い位相差データを除去する除去ステップを含む。抽出ステップは、除去ステップにおいて信頼性の低い位相差データが除去された位相差プロファイルから局所的な位相差変化が除去された位相ドリフトを抽出する。
このような態様によれば、局所的な位相ノイズにロバストなOCTデータを取得することが可能になる。
いくつかの実施形態では、信頼性の低い位相差データは、信号強度が所定の閾値レベル未満であるデータ、及び平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータの少なくとも1つを含む。
このような態様によれば、局所的な位相ノイズにロバストなOCTデータを、簡素な処理で取得することが可能になる。
いくつかの実施形態では、抽出ステップは、位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより位相ドリフトを抽出する。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化の影響を受けないOCTデータを、より一層簡素な処理で取得することができる。
いくつかの実施形態では、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つのパラメータは、複素OCTデータを取得する測定系の位相変化の周波数、位相変化の速度、及び測定系におけるOCTスキャンに要する時間の少なくとも1つに基づいて設定される。
このような態様によれば、複素OCTデータの取得環境に対応した最適な条件で位相ドリフトを抽出することが可能になる。
いくつかの実施形態では、隣接する第1のBフレーム及び第2のBフレームについて、生成ステップにおいて生成された位相差プロファイルに基づいて第2のBフレームの複素OCTデータの位相を補正した後、第2のBフレーム及び第2のBフレームに隣接する第3のBフレームについて、生成ステップにおいて生成された位相差プロファイルに基づいて第3のBフレームの複素OCTデータの位相を補正する。
このような態様によれば、簡素な処理で、3次元複素OCTデータの位相を安定化させることが可能になる。
いくつかの実施形態は、位相補正ステップにおいて少なくとも1つのBフレームの複素OCTデータが補正された被検眼の複素OCTデータに基づいて被検眼のOCT画像を形成する画像形成ステップを含む。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化にロバストなOCT画像を形成することが可能になる。
実施形態に係るプログラムは、コンピュータに、上記のいずれかに記載の眼科情報処理方法の各ステップを実行させる。
このような態様によれば、被検眼の動きやOCT測定系内の位相不安定性に起因した位相変化の影響を受けないOCTデータを簡素な処理で取得することができる。それにより、OCTデータから得られる位相情報の精度を向上させることが可能になる。
<その他>
上記の実施形態では、スウェプトソースタイプのOCTを用いる場合について説明したが、スペクトラルドメインタイプのOCTを用いてもよい。この場合、光源ユニット101において波長掃引光源に代えて低コヒーレンス光源(例えば、SLD光源など)が用いられ、干渉光学系において検出器125に代えて分光器及び撮像素子(例えば、CCDなど)が用いられる。
上記の実施形態では、スウェプトソースタイプのOCTを用いる場合について説明したが、スペクトラルドメインタイプのOCTを用いてもよい。この場合、光源ユニット101において波長掃引光源に代えて低コヒーレンス光源(例えば、SLD光源など)が用いられ、干渉光学系において検出器125に代えて分光器及び撮像素子(例えば、CCDなど)が用いられる。
本発明のいくつかの実施形態を説明したが、これら実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
8、1101 OCT光学系
100 OCTユニット
210 制御部
211 主制御部
212 記憶部
220 画像形成部
230 データ処理部
231 位相安定化部
231A 位相差プロファイル生成部
231B 位相ドリフト抽出部
231C 位相差データ除去部
231D 位相補正部
234 収差補正部
300 フィルタ情報探索部
1000、1000a、1000b 眼科システム
1111 屈折力測定光学系
1200 眼科情報処理装置
1200a、1200b 眼科情報処理部
1500a、1500b 眼科装置
E 被検眼
100 OCTユニット
210 制御部
211 主制御部
212 記憶部
220 画像形成部
230 データ処理部
231 位相安定化部
231A 位相差プロファイル生成部
231B 位相ドリフト抽出部
231C 位相差データ除去部
231D 位相補正部
234 収差補正部
300 フィルタ情報探索部
1000、1000a、1000b 眼科システム
1111 屈折力測定光学系
1200 眼科情報処理装置
1200a、1200b 眼科情報処理部
1500a、1500b 眼科装置
E 被検眼
Claims (16)
- 被検眼の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化処理を行うことにより位相差プロファイルを生成する生成部と、
前記生成部により生成された前記位相差プロファイルから位相ドリフトを抽出する抽出部と、
前記抽出部により抽出された前記位相ドリフトに基づいて、前記2つのBフレームのいずれか一方の第1複素OCTデータの位相を補正する位相補正部と、
を含む、眼科情報処理装置。 - 前記位相差プロファイルから信頼性の低い位相差データを除去する除去部を含み、
前記抽出部は、前記除去部により前記信頼性の低い位相差データが除去された前記位相差プロファイルから局所的な位相差変化が除去された前記位相ドリフトを抽出する
ことを特徴とする請求項1に記載の眼科情報処理装置。 - 前記信頼性の低い位相差データは、信号強度が所定の閾値レベル未満であるデータ、及び前記平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータの少なくとも1つを含む
ことを特徴とする請求項2に記載の眼科情報処理装置。 - 前記抽出部は、前記位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより前記位相ドリフトを抽出する
ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼科情報処理装置。 - 前記スムージング処理、前記多項式フィッティング、及び前記高周波カットフィルタ処理の少なくとも1つのパラメータは、前記複素OCTデータを取得する測定系の位相変化の周波数、前記位相変化の速度、及び前記測定系におけるOCTスキャンに要する時間の少なくとも1つに基づいて設定される
ことを特徴とする請求項4に記載の眼科情報処理装置。 - 隣接する第1のBフレーム及び第2のBフレームについて、前記生成部により生成された位相差プロファイルに基づいて前記第2のBフレームの複素OCTデータの位相を補正した後、
前記第2のBフレーム及び前記第2のBフレームに隣接する第3のBフレームについて、前記生成部により生成された位相差プロファイルに基づいて前記第3のBフレームの複素OCTデータの位相を補正する
ことを特徴とする請求項1~請求項5のいずれか一項に記載の眼科情報処理装置。 - 前記位相補正部により少なくとも1つのBフレームの複素OCTデータが補正された前記被検眼の複素OCTデータに基づいて前記被検眼のOCT画像を形成する画像形成部を含む
ことを特徴とする請求項1~請求項6のいずれか一項に記載の眼科情報処理装置。 - 前記被検眼に対して光コヒーレンストモグラフィを実行することにより複素OCTデータを取得する測定系と、
請求項1~請求項7のいずれか一項に記載の眼科情報処理装置と、
を含む、眼科装置。 - 被検眼の複素OCTデータの隣接する2つのBフレーム間のAラインの深さ位置ごとに算出して得られた位相差を深さ方向に平均化処理を行うことにより位相差プロファイルを生成する生成ステップと、
前記生成ステップにおいて生成された前記位相差プロファイルから位相ドリフトを抽出する抽出ステップと、
前記抽出ステップにおいて抽出された前記位相ドリフトに基づいて、前記2つのBフレームのいずれか一方の第1複素OCTデータの位相を補正する位相補正ステップと、
を含む、眼科情報処理方法。 - 前記位相差プロファイルから信頼性の低い位相差データを除去する除去ステップを含み、
前記抽出ステップは、前記除去ステップにおいて前記信頼性の低い位相差データが除去された前記位相差プロファイルから局所的な位相差変化が除去された前記位相ドリフトを抽出する
ことを特徴とする請求項9に記載の眼科情報処理方法。 - 前記信頼性の低い位相差データは、信号強度が所定の閾値レベル未満であるデータ、及び前記平均化処理において所定の深さ位置における位相差による寄与が所定の閾値を超えるデータの少なくとも1つを含む
ことを特徴とする請求項10に記載の眼科情報処理方法。 - 前記抽出ステップは、前記位相差プロファイルに対して、スムージング処理、多項式フィッティング、及び高周波カットフィルタ処理の少なくとも1つを施すことにより前記位相ドリフトを抽出する
ことを特徴とする請求項9~請求項11のいずれか一項に記載の眼科情報処理方法。 - 前記スムージング処理、前記多項式フィッティング、及び前記高周波カットフィルタ処理の少なくとも1つのパラメータは、前記複素OCTデータを取得する測定系の位相変化の周波数、前記位相変化の速度、及び前記測定系におけるOCTスキャンに要する時間の少なくとも1つに基づいて設定される
ことを特徴とする請求項12に記載の眼科情報処理方法。 - 隣接する第1のBフレーム及び第2のBフレームについて、前記生成ステップにおいて生成された位相差プロファイルに基づいて前記第2のBフレームの複素OCTデータの位相を補正した後、
前記第2のBフレーム及び前記第2のBフレームに隣接する第3のBフレームについて、前記生成ステップにおいて生成された位相差プロファイルに基づいて前記第3のBフレームの複素OCTデータの位相を補正する
ことを特徴とする請求項9~請求項13のいずれか一項に記載の眼科情報処理方法。 - 前記位相補正ステップにおいて少なくとも1つのBフレームの複素OCTデータが補正された前記被検眼の複素OCTデータに基づいて前記被検眼のOCT画像を形成する画像形成ステップを含む
ことを特徴とする請求項9~請求項14のいずれか一項に記載の眼科情報処理方法。 - コンピュータに、請求項9~請求項15のいずれか一項に記載の眼科情報処理方法の各ステップを実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023500838A JPWO2022176828A1 (ja) | 2021-02-19 | 2022-02-15 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/179,416 US11974806B2 (en) | 2021-02-19 | 2021-02-19 | Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and recording medium |
US17/179,416 | 2021-02-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022176828A1 true WO2022176828A1 (ja) | 2022-08-25 |
Family
ID=82900187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/005828 WO2022176828A1 (ja) | 2021-02-19 | 2022-02-15 | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11974806B2 (ja) |
JP (1) | JPWO2022176828A1 (ja) |
WO (1) | WO2022176828A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010012111A (ja) * | 2008-07-04 | 2010-01-21 | Nidek Co Ltd | 光断層像撮影装置 |
JP2020504652A (ja) * | 2016-12-21 | 2020-02-13 | アキュセラ インコーポレイテッド | 家庭ベース眼科アプリケーションのための小型化された移動式低コスト光干渉断層撮影システム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140221827A1 (en) * | 2011-06-07 | 2014-08-07 | California Institute Of Technology | Enhanced optical angiography using intensity contrast and phase contrast imaging methods |
JP5900950B2 (ja) * | 2012-01-05 | 2016-04-06 | 国立大学法人 筑波大学 | 波長走査型光干渉断層計及びその位相安定化プログラム |
US9933246B2 (en) * | 2013-12-13 | 2018-04-03 | Nidek Co., Ltd. | Optical coherence tomography device |
JP6690390B2 (ja) * | 2015-04-30 | 2020-04-28 | 株式会社ニデック | 光コヒーレンストモグラフィー装置 |
JP2019154985A (ja) | 2018-03-16 | 2019-09-19 | 株式会社トプコン | 眼科装置 |
US20200284572A1 (en) * | 2019-03-06 | 2020-09-10 | Axsun Technologies, Inc. | Method for improving phase stability of phase unstable optical coherence tomography |
-
2021
- 2021-02-19 US US17/179,416 patent/US11974806B2/en active Active
-
2022
- 2022-02-15 JP JP2023500838A patent/JPWO2022176828A1/ja active Pending
- 2022-02-15 WO PCT/JP2022/005828 patent/WO2022176828A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010012111A (ja) * | 2008-07-04 | 2010-01-21 | Nidek Co Ltd | 光断層像撮影装置 |
JP2020504652A (ja) * | 2016-12-21 | 2020-02-13 | アキュセラ インコーポレイテッド | 家庭ベース眼科アプリケーションのための小型化された移動式低コスト光干渉断層撮影システム |
Also Published As
Publication number | Publication date |
---|---|
US20220265136A1 (en) | 2022-08-25 |
US11974806B2 (en) | 2024-05-07 |
JPWO2022176828A1 (ja) | 2022-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6426974B2 (ja) | データ処理方法及びoct装置 | |
JP6776076B2 (ja) | Oct装置 | |
WO2020044712A1 (ja) | 眼科装置、及びその制御方法 | |
JP2023009257A (ja) | 眼科情報処理装置、眼科撮影装置、眼科情報処理方法、及びプログラム | |
JP7166182B2 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
JP7199172B2 (ja) | 眼科装置、及びその制御方法 | |
JP7162553B2 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
JP7141279B2 (ja) | 眼科情報処理装置、眼科装置、及び眼科情報処理方法 | |
JP6809926B2 (ja) | 眼科装置 | |
WO2021149430A1 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
WO2022176828A1 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
WO2022176827A1 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
JP2018192082A (ja) | 眼科装置、及びその制御方法 | |
JP7289394B2 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
JP7202819B2 (ja) | 眼科装置、及びその制御方法 | |
JP7359724B2 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
JP7335107B2 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
JP7412229B2 (ja) | 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム | |
JP7288276B2 (ja) | 眼科装置、及びその制御方法 | |
JP7216545B2 (ja) | 眼科装置、眼科装置の制御方法、及びプログラム | |
JP7096391B2 (ja) | 眼科装置 | |
JP7306823B2 (ja) | 眼科装置、及びその制御方法 | |
JP7231404B2 (ja) | 眼科装置、及びその制御方法 | |
JP2023175006A (ja) | 眼科装置、及びその制御方法 | |
JP2024099210A (ja) | 光コヒーレンストモグラフィ装置、その制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22756146 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2023500838 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22756146 Country of ref document: EP Kind code of ref document: A1 |