WO2023008385A1 - 前眼部解析装置、前眼部解析方法、およびプログラム - Google Patents

前眼部解析装置、前眼部解析方法、およびプログラム Download PDF

Info

Publication number
WO2023008385A1
WO2023008385A1 PCT/JP2022/028662 JP2022028662W WO2023008385A1 WO 2023008385 A1 WO2023008385 A1 WO 2023008385A1 JP 2022028662 W JP2022028662 W JP 2022028662W WO 2023008385 A1 WO2023008385 A1 WO 2023008385A1
Authority
WO
WIPO (PCT)
Prior art keywords
edge
edges
cornea
unit
anterior segment
Prior art date
Application number
PCT/JP2022/028662
Other languages
English (en)
French (fr)
Inventor
成 本田
和範 浅沼
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to EP22849446.4A priority Critical patent/EP4378373A1/en
Priority to CN202280052549.8A priority patent/CN117858654A/zh
Publication of WO2023008385A1 publication Critical patent/WO2023008385A1/ja
Priority to US18/423,609 priority patent/US20240169547A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present invention relates to an anterior segment analysis device, an anterior segment analysis method, and a program.
  • OCT Optical Coherence Tomography
  • Patent Document 1 describes a method of obtaining the shape of the tissue of the eye to be inspected by performing segmentation processing on a tomographic image of the eye to be inspected.
  • Patent Document 2 describes a method of determining the surface shape of the interior of the eye, assuming that the eye, which is an object, moves or rotates.
  • Patent Document 3 describes an ophthalmologic information processing apparatus that generates an analysis map of the thickness of the layer tissue of the eye.
  • an anterior segment analysis device an acquisition unit that acquires a tomographic image of the anterior segment of the eye including the cornea of the subject's eye formed by OCT measurement; a detection unit that detects a plurality of edges included in the tomogram; a first joining unit that joins edges based on a first joining condition for each of the plurality of edges; a selection unit that selects a first edge and a second edge based on length from among the edges joined by the first joining unit; a second joining unit that joins edges based on a second joining condition using the first edge and the second edge as references; a determination unit that determines a boundary of a layer of the cornea of the tomogram using the edges joined by the second joining unit; have
  • an anterior segment analysis method comprising: an acquisition step of acquiring a tomographic image of the anterior segment of the eye including the cornea of the subject's eye formed by OCT measurement; a detection step of detecting a plurality of edges included in the tomogram; a first combining step of combining edges based on a first combining condition for each of the plurality of edges; a selection step of selecting a first edge and a second edge based on length from among the edges joined in the first joining step; a second combining step of combining the edges based on a second combining condition using the first edge and the second edge as references; a determination step of determining boundaries of layers of the cornea of the tomogram using the edges joined in the second joining step; have
  • another form of this invention has the following structures. That is, the program to the computer, an acquisition step of acquiring a tomographic image of the anterior segment of the eye including the cornea of the subject's eye formed by OCT measurement; a detection step of detecting a plurality of edges included in the tomogram; a first combining step of combining edges based on a first combining condition for each of the plurality of edges; A selection step of selecting a first edge and a second edge based on length from among the edges joined in the first joining step; a second combining step of combining the edges based on a second combining condition with the first edge and the second edge as references; determining a boundary of layers of the cornea of the anterior segment using the edges joined in the second joining step; to run.
  • FIG. 1 is a functional configuration diagram showing an example of a system configuration according to one embodiment of the present invention
  • FIG. FIG. 4 is a diagram for explaining an example of conventional detection of a corneal layer
  • 4 is a flowchart of anterior segment analysis processing according to an embodiment of the present invention
  • FIG. 4 is a diagram for explaining transition of an image to be processed according to one embodiment of the present invention
  • FIG. 4 is a diagram for explaining transition of an image to be processed according to one embodiment of the present invention
  • FIG. 4 is a diagram for explaining transition of an image to be processed according to one embodiment of the present invention
  • 4 is a flow chart of processing for identifying a boundary of Bowman's membrane according to an embodiment of the present invention
  • FIG. 4 is a diagram for explaining the inside and outside of a region according to one embodiment of the present invention.
  • FIG. 4 is a diagram for explaining edge joining conditions according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining edge joining conditions according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining edge joining conditions according to an embodiment of the present invention;
  • FIG. 4 is a diagram for explaining improvement of artifacts occurring in an OCT image;
  • FIG. 4 is a diagram for explaining improvement of artifacts occurring in an OCT image;
  • FIG. 4 is a diagram for explaining improvement of artifacts occurring in an OCT image;
  • FIG. 4 is a diagram showing a display example of analysis results according to one embodiment of the present invention;
  • FIG. 4 is a diagram showing a display example of analysis results according to one embodiment of the present invention;
  • FIG. 4 is a diagram showing a display example of analysis results according to one embodiment of the present invention;
  • FIG. 4 is a diagram
  • Tissues in the eye to be examined include tissues in the anterior segment and tissues in the posterior segment.
  • Tissues in the anterior segment include the cornea, iris, lens, ciliary body, zonules, or gonios.
  • Tissues in the posterior segment of the eye include the fundus (predetermined layer region in the fundus).
  • the cornea located in the anterior segment of the eye to which attention is paid in the present invention is formed of a plurality of layers. More specifically, it is a layered structure of corneal epithelial cells, Bowman's membrane, corneal stroma, Descemet's layer, and corneal endothelial cells in this order from the front side of the cornea.
  • the boundaries of the layers of the fundus can be imaged relatively clearly, so the separation into single layers can be performed relatively easily from the imaged image.
  • the anterior segment it is difficult to separate a plurality of layers forming the anterior segment as described above due to the difficulty in capturing a clear image in the imaging operation.
  • an anterior segment analysis method for more accurately detecting the layer structure of the anterior segment, particularly the cornea will be described below.
  • a tomographic image of the subject's eye is obtained and used.
  • a tomogram is obtained, for example, by performing optical coherence tomography (OCT) on the subject's eye using an external ophthalmic system.
  • OCT optical coherence tomography
  • OCT data data obtained by OCT may be collectively referred to as OCT data.
  • a measurement operation for forming OCT data may be called OCT measurement, and a scan for performing OCT measurement may be called OCT scan.
  • an ophthalmologic system includes an anterior segment analysis device
  • the ophthalmic system includes an OCT apparatus, and obtains a tomographic image of the eye by performing OCT measurement on the eye using the OCT apparatus.
  • the anterior segment analysis device is configured to include an interface for transmitting and receiving data from an external device or recording medium via a network, and is configured to acquire OCT data, tomographic images, etc. from an external ophthalmic system. may have been
  • the left-right direction (horizontal direction) orthogonal to the optical axis (measurement optical axis, inspection optical axis) of the device optical system of the ophthalmic system is defined as the X direction
  • the vertical direction (vertical direction) orthogonal to the optical axis is defined as the Y direction
  • the direction of the optical axis depth direction, front-rear direction
  • the correspondence relationship between the three-dimensional coordinate system on the real space and the three-dimensional coordinate system in the inside of the system or in the three-dimensional data is not particularly limited, it is assumed that they are associated in advance.
  • FIG. 1 shows a configuration example of an ophthalmologic system 1 including functions for executing the anterior segment analysis method according to the present embodiment.
  • the parts of the system to which the anterior segment analysis method according to the present invention can be applied are shown representatively, but the ophthalmologic system 1 may further include a configuration other than that shown in FIG.
  • the ophthalmic system 1 is an examination apparatus including an objective refraction measurement device (refraction measurement section) and an OCT device (OCT section).
  • the ophthalmologic system 1 includes a measurement unit 10 , a control processing unit 50 , a moving mechanism 90 , an imaging unit 100 and a UI (User Interface) unit 110 .
  • Measurement unit 10 includes refraction measurement unit 20, OCT unit 30, light projection unit 40, beam splitter BS1, and beam splitter BS2.
  • Control processing unit 50 includes image forming unit 60 , data processing unit 70 , and control unit 80 .
  • the refraction measurement unit 20 receives a control instruction from the control unit 80 and objectively measures the refractive power of the eye E to be examined.
  • the refraction measurement unit 20 includes an optical system provided with one or more optical members for performing objective refraction measurement.
  • the refraction measurement unit 20 has, for example, a configuration similar to that of a known refractometer.
  • a typical refractometer includes a projection system and a light receiving system, as disclosed in Japanese Patent Application Laid-Open No. 2016-077774.
  • the projection system of the refraction measurement unit 20 projects the light emitted from the light source onto the fundus Ef of the eye E to be examined.
  • the projection system for example, projects light from the light source onto the fundus oculi Ef through a collimator lens, a focusing lens, a relay lens, a pupil lens, a perforated prism, a decentered prism, an objective lens, and the like.
  • the light receiving system of the refraction measuring unit 20 receives the reflected light from the fundus oculi Ef through an objective lens, a decentered prism, a perforated prism, another pupil lens, another relay lens, another focusing lens, a conical prism, an imaging lens, and the like. through an imaging device (not shown). As a result, a ring pattern image formed on the imaging surface of the imaging device is detected.
  • the refraction measuring unit 20 may be configured to project ring-shaped light onto the fundus oculi Ef and detect a ring pattern image formed by reflected light from the fundus oculi Ef. Further, the refraction measuring unit 20 projects a bright spot onto the fundus oculi Ef, converts the reflected light from the fundus oculi Ef into ring-shaped light, and detects a ring pattern image formed by the converted ring-shaped light.
  • the OCT unit 30 receives a control instruction from the control unit 80, applies an OCT scan to the eye E to be examined, and obtains OCT data.
  • the OCT data may be interference signal data, reflection intensity profile data obtained by applying Fourier transform to interference signal data, or image data obtained by imaging the reflection intensity profile data.
  • an OCT image an example using image data (hereinafter referred to as an OCT image) will be described.
  • the OCT technique that the OCT unit 30 can implement is typically Fourier domain OCT, and may be either spectral domain OCT or swept source OCT.
  • the swept source OCT splits the light from the wavelength tunable light source into measurement light and reference light, and superimposes the return light of the measurement light projected onto the eye to be inspected on the reference light to generate interference light. Then, the interference light is detected by a photodetector, and the detection data (interference signal data) collected according to the wavelength sweep and measurement light scanning is subjected to Fourier transform or the like to form reflection intensity profile data.
  • spectral domain OCT light from a low coherence light source (broadband light source) is split into measurement light and reference light, and the return light of the measurement light projected onto the subject's eye is superimposed on the reference light to generate interference light. do. Then, the spectrum distribution of this interference light is detected by a spectroscope, and the data detected by the spectroscope (interference signal data) is subjected to Fourier transform or the like to form reflection intensity profile data. That is, the swept-source OCT is an OCT technique that acquires the spectral distribution by time division, and the spectral domain OCT is an OCT technique that acquires the spectral distribution by spatial division.
  • the OCT section 30 includes an optical system provided with one or more optical members for performing OCT measurement.
  • the OCT section 30 has, for example, a configuration similar to that of a known OCT apparatus.
  • a typical OCT apparatus includes a light source, an interference optical system, a scanning system, and a detection system, as disclosed in Japanese Patent Application Laid-Open No. 2016-077774.
  • the light output from the light source is split into measurement light and reference light by an interference optical system.
  • a reference beam is directed to the reference arm.
  • the measurement light is projected onto the subject's eye E (for example, the fundus oculi Ef) through the measurement arm.
  • a scanning system is provided on the measurement arm.
  • the scanning system includes, for example, an optical scanner and can deflect the measurement light one-dimensionally or two-dimensionally.
  • Optical scanners include one or more galvo scanners.
  • a scanning system deflects the measurement light according to a predetermined scanning mode.
  • the control unit 80 provided in the control processing unit 50 can control the scan system according to the scan mode.
  • Scan modes include line scan, raster scan (three-dimensional scan), circle scan, concentric circle scan, radial scan, cross scan, multi-cross scan, and spiral scan.
  • a line scan is a scan pattern along a linear trajectory.
  • a raster scan is a scan pattern consisting of a plurality of line scans arranged parallel to each other.
  • a circle scan is a scan pattern along a circular trajectory.
  • a concentric circle scan is a scan pattern consisting of a plurality of concentrically arranged circle scans.
  • a radial scan is a scan pattern consisting of a plurality of radially arranged line scans.
  • a cross-scan is a scan pattern consisting of two line scans arranged orthogonally to each other.
  • a multi-cross-scan is a scan pattern consisting of two line-scan groups that are orthogonal to each other (eg, each group contains five lines that are parallel to each other).
  • a spiral scan is a scan pattern that extends spirally from the center.
  • the measurement light projected onto the fundus oculi Ef is reflected and scattered at various depth positions (layer boundaries, etc.) of the fundus oculi Ef.
  • the return light of the measurement light from the subject's eye E is synthesized with the reference light by the interference optical system.
  • the return light of the measurement light and the reference light generate interference light according to the principle of superposition.
  • This interference light is detected by a detection system.
  • the detection system typically includes a spectrometer for spectral-domain OCT, and a balanced photodiode and a data acquisition system (DAQ) for swept-source OCT.
  • DAQ data acquisition system
  • the light projection unit 40 projects light onto the eye E to be inspected for aligning the eye E and the measurement unit 10 (OCT unit 30, apparatus optical system).
  • Light projection section 40 includes a light source and a collimator lens. The optical path of the light projection section 40 is coupled to the optical path of the refraction measurement section 20 by the beam splitter BS2. The light output from the light source passes through the collimator lens, is reflected by the beam splitter BS2, and is projected onto the subject's eye E through the optical path of the refraction measuring unit 20.
  • the reflected light from the cornea Ec (anterior segment) of the eye to be examined E passes through the optical path of the refraction measurement unit 20, and undergoes refraction measurement. It is guided to the light receiving system of the section 20 .
  • An image (bright point image) based on reflected light from the cornea Ec of the subject's eye E is included in the anterior segment image acquired by the imaging unit 100 .
  • the control processing unit 50 causes the display screen of the display unit (not shown) to display the anterior segment image including the bright spot image and the alignment mark.
  • the user can move the optical system so as to guide the bright spot image within the alignment mark.
  • the user can move the optical system while referring to the anterior segment image displayed on the display screen of the UI unit 110 .
  • the control unit 80 controls the moving mechanism 90 so as to cancel the displacement between the alignment mark and the position of the luminescent spot image, so that the measurement unit 10 ( optical system). Further, the control unit 80 controls the moving mechanism 90 so as to satisfy a predetermined completion condition for alignment based on the position of a predetermined portion (for example, pupil center position) of the subject's eye E and the position of the luminescent spot image. Thus, the measurement unit 10 (optical system) can be moved relative to the eye E to be examined.
  • a predetermined portion for example, pupil center position
  • the beam splitter BS1 coaxially couples the optical path of the optical system (projection system and light receiving system) of the refraction measurement section 20 with the optical path of the optical system (interference optical system, etc.) of the OCT section 30 .
  • a dichroic mirror is used as the beam splitter BS1.
  • the beam splitter BS2 coaxially couples the optical path of the optical system of the light projection section 40 with the optical path of the optical system (projection system and light receiving system) of the refraction measurement section 20 .
  • a half mirror is used as the beam splitter BS2.
  • the ophthalmologic system 1 may have a function (fixation projection system) of receiving a control instruction from the control unit 80 and presenting a fixation target to the eye E to guide the line of sight of the eye E to be examined.
  • the fixation target may be an internal fixation target presented to the subject's eye E, or an external fixation target presented to the fellow eye.
  • An optical path coupling member (for example, a beam splitter) arranged between the OCT section 30 and the beam splitter BS1 coaxially couples the optical path of the fixation projection system to the optical path of the interference optical system of the OCT section 30. may be
  • a control instruction from the control unit 80 can be received to change the projection position of the fixation target on the fundus oculi Ef by the fixation projection system.
  • the fixation target may be projected onto the measurement optical axis of the optical system of the refraction measurement section 20 and the optical system of the OCT section 30 that are coaxially coupled.
  • the fixation target may be projected at a position off the measurement optical axis on the fundus oculi Ef.
  • the photographing unit 100 includes one or more anterior segment cameras for photographing the anterior segment of the eye E to be examined.
  • the photographing unit 100 acquires an anterior segment image, which is a front image of the eye E to be examined.
  • At least one anterior segment illumination light source (such as an infrared light source) may be provided in the vicinity of one or more anterior segment cameras.
  • an anterior segment illumination light source may be provided in each of its upper and lower vicinity.
  • the ophthalmologic system 1 can align the measurement unit 10 (optical system) with the subject's eye E using the front image acquired by the imaging unit 100 .
  • the ophthalmologic system 1 identifies the three-dimensional position of the eye to be examined E by analyzing the front image obtained by photographing the anterior segment of the eye to be examined E, and measures the measurement unit 10 based on the identified three-dimensional position. may be aligned by relatively moving the .
  • the ophthalmologic system 1 may perform alignment such that the displacement between the characteristic position of the subject's eye E and the position of the image formed by the light projected by the light projection unit 40 is cancelled.
  • the imaging unit 100 includes one or more anterior segment cameras.
  • the ophthalmological system 1 analyzes the acquired front image and extracts the plane perpendicular to the optical axis of the measurement unit 10 (horizontal direction (X direction) and vertical direction
  • the two-dimensional position of the subject's eye E on the plane defined by (the Y direction) is specified.
  • the ophthalmologic system 1 is provided with an optical system for specifying the position of the subject's eye E in the direction of the optical axis of the measurement unit 10 .
  • an optical system for example, there is an optical lever type optical system disclosed in Japanese Patent Application Laid-Open No. 2016-077774.
  • the ophthalmologic system 1 uses such an optical system to specify the three-dimensional position of the eye to be examined E from the position of the eye to be examined E in the direction of the (measurement) optical axis of the measurement unit 10 and the above two-dimensional position. Is possible.
  • the two or more anterior eye cameras photograph the anterior eye of the subject's eye E from different directions.
  • Two or more anterior segment cameras can image the anterior segment substantially simultaneously from two or more different directions. “Substantially simultaneously” means, for example, that, in imaging with two or more anterior eye cameras, a deviation in imaging timing to the extent that eye movement can be ignored is allowed.
  • two or more anterior eye cameras can acquire images when the subject's eye E is in substantially the same position (orientation).
  • the ophthalmic system for example, as disclosed in Japanese Patent Application Laid-Open No. 2013-248376, analyzes the acquired front image to identify the characteristic positions of the subject's eye E, and uses two or more anterior segment cameras.
  • the three-dimensional position of the eye E to be inspected is specified from the position of and the specified characteristic positions of the eye E to be inspected.
  • Shooting with two or more anterior segment cameras may be video shooting or still image shooting.
  • video shooting by controlling the shooting start timing to match, or by controlling the frame rate and the shooting timing of each frame, it is possible to realize substantially simultaneous shooting of the anterior segment as described above.
  • still image shooting this can be achieved by controlling the shooting timing to match.
  • the control processing unit 50 executes various calculations and various controls for operating the ophthalmologic system 1 .
  • the control processing unit 50 includes one or more processors and one or more storage devices. Storage devices include RAM (Random Access Memory), ROM (Read Only Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), and the like.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • Various computer programs are stored in the storage device, and calculation and control according to the present embodiment are realized by the processor operating based on the programs.
  • control processing unit 50 realizes each function of the image forming unit 60, the data processing unit 70, and the control unit 80 by having the processor execute various programs.
  • the block configuration of the functions realized by the control processing unit 50 is an example, and may be further divided in detail corresponding to each process described above.
  • the image forming unit 60 forms an image (such as a tomographic image) of the eye E to be inspected based on OCT data obtained by performing OCT measurement on the eye E to be inspected.
  • the image forming section 60 constructs OCT data (typically image data) based on detection data obtained by the detection system of the OCT section 30 . Similar to conventional OCT data processing, the image forming unit 60 applies filter processing, fast Fourier transform (FFT), and the like to the detection data to obtain each A line (measurement light within the eye E to be examined). Construct reflection intensity profile data in the path). Further, the image forming section 60 constructs image data (A-scan data) of each A-line by applying imaging processing (image representation) to the reflection intensity profile data. Note that part of the functions of the image forming section 60 may be provided in the OCT section 30 .
  • the image forming unit 60 transmits OCT data via a network (not shown).
  • a network may be configured as an acquisition unit that acquires the
  • the data processing unit 70 can execute processing for positioning the measuring unit 10 with respect to the eye E to be examined.
  • the processing for performing alignment includes analysis processing of the front image of the subject eye E acquired using the imaging unit 100, processing of calculating the position of the subject eye E, processing of calculating the displacement of the measuring unit 10 with respect to the subject eye E, and the like. is mentioned.
  • the data processing unit 70 identifies the surface shape of the cornea Ec of the eye to be examined E from the tomographic image of the eye to be examined E obtained by performing OCT measurement after the alignment, and furthermore, determines the shape data representing the structure of the cornea Ec. It is possible to generate For example, the shape data is obtained by subjecting a tomogram as an OCT image to segmentation processing. In this embodiment, analysis processing including segmentation processing is performed on the cornea Ec included in the anterior segment, and display processing is performed based on the analysis results. Details will be described later.
  • the control section 80 controls each section of the ophthalmologic system 1 .
  • the control unit 80 includes a storage device (not shown) as described above, and can store various types of information.
  • the information stored in the storage device includes a program for controlling each part of the ophthalmologic system 1, information on the subject, information on the eye to be examined, measurement data obtained by the measurement unit 10, and processing results by the data processing unit 70. etc., but is not particularly limited.
  • the control unit 80 can control the UI unit 110.
  • the UI unit 110 functions as part of a user interface, functions as a display device that displays information and display screens in response to control instructions from the control unit 80, and functions as an operation device that receives operations from the user.
  • the UI unit 110 may include, for example, a liquid crystal display (LCD) or an organic light-emitting diode (OLED) display in order to function as a display device.
  • LCD liquid crystal display
  • OLED organic light-emitting diode
  • the control unit 80 can control the ophthalmic system 1 according to signals input via the UI unit 110 .
  • the UI unit 110 may include various hardware keys (joystick, button, switch, etc.) provided in the ophthalmic system 1 in order to function as an operating device.
  • the UI unit 110 may also include various peripheral devices (keyboard, mouse, joystick, operation panel, etc.) connected to the ophthalmologic system 1 .
  • the UI unit 110 may also include various software keys (buttons, icons, menus, etc.) displayed on the touch panel.
  • the moving mechanism 90 moves the measuring unit 10 housing the optical system (apparatus optical system) such as the refraction measuring unit 20, the OCT unit 30, the light projection unit 40, and the beam splitters BS1 and BS2 in the vertical and horizontal directions and the front and rear directions. It is a mechanism for The moving mechanism 90 can receive a control instruction from the control unit 80 and move the measuring unit 10 relative to the eye E to be examined.
  • the moving mechanism 90 is provided with an actuator (not shown) that generates a driving force for moving the measuring section 10 and a transmission mechanism (not shown) that transmits this driving force.
  • the actuator is composed of, for example, a pulse motor.
  • the transmission mechanism is configured by, for example, a combination of gears, a rack and pinion, or the like.
  • the control unit 80 controls the moving mechanism 90 by sending control signals to the actuators.
  • the control over the moving mechanism 90 is used in alignment.
  • the control unit 80 acquires the current position of the measurement unit 10 (apparatus optical system).
  • the control unit 80 receives information indicating the content of movement control of the moving mechanism 90 and acquires the current position of the measuring unit 10 .
  • the control unit 80 controls the moving mechanism 90 at a predetermined timing (when the apparatus is started, when patient information is input, etc.) to move the measuring unit 10 to a predetermined initial position.
  • every time the control unit 80 controls the moving mechanism 90 it records the details of the control.
  • a history of control contents is obtained.
  • the control unit 80 acquires the control details up to the present by referring to the history, and obtains the current position of the measurement unit 10 based on the control details.
  • the control over the moving mechanism 90 may be used in tracking. Tracking is to move the apparatus optical system according to the eye movement of the eye E to be examined. Alignment and focus adjustment are performed in advance when tracking is performed. Tracking is a function of maintaining a suitable positional relationship in which the position and focus are achieved by causing the position of the apparatus optical system to follow the movement of the eyeball.
  • the cornea Ec located in the anterior segment has a layered structure and includes corneal epithelial cells, Bowman's membrane, corneal stroma, Descemet's layer, and corneal endothelial cells.
  • FIG. 2 is a diagram for explaining an example of conventional detection of the boundary between layers of the cornea.
  • An image 200 shows a portion of the cornea, and here shows an example of detection of a boundary 201 on the front side of the corneal epithelium, a boundary 202 between the corneal epithelium and Bowman's membrane, and a boundary 203 on the fundus side of the corneal endothelium.
  • the thickness of the cornea is approximately 0.5 mm.
  • the Bowman's membrane has a thickness of about 8 to 14 ⁇ m, which is thinner than the corneal epithelial cells and corneal stroma, which are the other components.
  • the anterior segment analysis method according to the present embodiment enables detection of unevenness occurring inside the cornea as described above, and achieves detection with higher accuracy.
  • the image forming unit 60 acquires the OCT data of the subject's eye to be processed.
  • the measurement unit 10 and the movement mechanism 90 are operated to photograph the subject's eye, thereby acquiring new OCT data, or acquiring OCT data held in a storage device or the like.
  • the OCT data to be acquired here may be specified by the user.
  • preprocessing for OCT data gradation conversion processing, image enhancement processing, threshold processing, contrast conversion processing, binarization processing, edge detection processing, image averaging processing, image smoothing processing, filtering processing, and region extraction. processing, alignment processing, etc. may be performed. Note that the preprocessing is not limited to the above, and other processing may be performed in consideration of each subsequent processing.
  • the data processing unit 70 detects the boundary on the front side of the corneal epithelium by performing edge detection processing on the OCT data acquired in step S101.
  • the boundary detected here corresponds to the boundary 201 shown in FIG. That is, it corresponds to the edge of the cornea located on the frontmost side.
  • Edge detection methods include, for example, the Canny Edge method, which is a known technique, but are not particularly limited.
  • the data processing unit 70 detects the boundary on the front side of the corneal epithelium using an approximated curve based on the detected edges.
  • step S103 based on the position of the boundary detected in step S102, the data processing unit 70 performs alignment processing on the original OCT image so that the boundary becomes a straight line. That is, the pixels forming the detected boundary are arranged in a straight line, and the positions of the pixels are changed while maintaining the positional relationship in a predetermined direction between the pixels forming the boundary and the other pixels. Therefore, the positional relationship (distance) in the thickness direction between the boundary pixels and the surrounding pixels does not change from the original image.
  • the data processing unit 70 extracts a region of a predetermined size based on the boundary from the image after alignment processing obtained at step S103. As a result, a rectangular corneal image 401 as shown in FIG. 4A is obtained.
  • the predetermined size of the region to be extracted is not particularly limited, but may be, for example, 50 pixels in the direction orthogonal to the boundary and 1024 pixels in the direction parallel to the boundary. Also, the upper end in the vertical direction corresponds to the straight line obtained at the boundary detected in step S102.
  • step S105 the data processing unit 70 uses the corneal image obtained in step S104 to perform processing for identifying the boundary of Bowman's membrane. Details of this step will be described in detail with reference to FIG.
  • step S106 the data processing unit 70 performs display processing based on the boundary of Bowman's membrane identified in step S105. A configuration example of a screen displayed by the UI unit 110 in the display process will be described later. Then, this processing flow ends.
  • FIG. 6 is a flow chart showing details of the process of step S105 in FIG.
  • step S201 the data processing unit 70 performs edge detection processing on the corneal image.
  • Edge detection methods include, for example, the Canny Edge method, which is a known technique, but are not particularly limited.
  • a corneal image 402 including a plurality of edges is obtained as shown in FIG. 4B.
  • the data processing unit 70 performs area segmentation on the corneal image obtained in step S201.
  • the corneal image is divided into a first region on the central side (inner side) of the cornea and a second region on the scleral side (outer side) of the cornea.
  • FIG. 6 shows an example of dividing the corneal image 402 shown in FIG. 4B into a first region and a second region.
  • the ranges of 0 to 200 and 800 to 1024 pixels in the horizontal direction are treated as the second region, and the ranges of 201 to 799 pixels are treated as the first region.
  • the dividing method here is an example, and is not limited to this. For example, the range may be changed according to the size of the image. Also, although an example of dividing into two regions is shown here, it may be divided into more regions.
  • step S203 the data processing unit 70 performs edge-to-edge connection processing on various edges included in the first region.
  • 7A to 7C are diagrams for explaining conditions for edge coupling.
  • the vertical direction that is, the thickness direction of the cornea
  • the horizontal direction that is, the width direction of the cornea
  • FIG. 7A shows that if the distance dx in the x-direction between the closer endpoints of two edges is greater than or equal to a predetermined value, no merging is performed. That is, if the distance dx between two edges is smaller than a predetermined value, the endpoints of the two edges are connected by a straight line.
  • FIG. 7A shows that if the distance dx in the x-direction between the closer endpoints of two edges is greater than or equal to a predetermined value, no merging is performed. That is, if the distance dx between two edges is smaller than a predetermined value, the endpoints of the two edges are connected by a straight line.
  • FIG. 7B shows that if the distance dy in the y direction between the closer endpoints of the two edges is greater than or equal to a predetermined value, no merging is performed. That is, if the distance dy between two edges is smaller than a predetermined value, the endpoints of the edges are connected by a straight line.
  • FIG. 7C shows that when two edges overlap in the x-direction, if the overlap length dl is greater than or equal to a predetermined value, no merging is performed. That is, if the overlap length dl of two edges is smaller than a predetermined value, the end points between the edges are connected by a straight line.
  • smoothing processing may be performed before combining, or other combining processing may be performed.
  • the edges on the upper side that is, the front side of the cornea
  • a method of combining using three conditions is shown, but any of these conditions may be used for combining, or other conditions may be used for combining. Also, which of the three conditions is preferentially applied is not particularly limited. Here, attention is paid to two edges whose end points are closest to each other, and the process is repeated.
  • the thresholds of the conditions used in step S203 are indicated as Th dx1 , Th dy1 and Th dl1 .
  • step S204 data processing unit 70 removes edges based on the length and intensity in the first region after the processing in step S203.
  • edges whose length is equal to or less than the threshold Th l1 are removed.
  • edges whose maximum pixel intensity is equal to or less than the threshold Th d1 are removed.
  • the length here may be defined in each of the vertical direction and the horizontal direction, or may be defined by the number of pixels.
  • the intensity here may be defined by a pixel value (for example, a luminance value).
  • edges are removed based on both length and strength, but edges may be removed based on either one.
  • step S205 the data processing unit 70 performs edge combining processing again in the same manner as in step S203 in the first region from which edge removal has been performed in step S204.
  • the difference from step S203 is that the threshold used as the connection condition is changed.
  • the thresholds for each condition used in step S205 are indicated as Th dx2 , Th dy2 and Th dl2 .
  • Th dy2 >Th dy1
  • Th dl2 >Th dl1 .
  • edges that are farther apart are also treated as objects to be combined.
  • the data processing unit 70 specifies the longest edge as the first edge and the second longest edge as the second edge among the edges included in the first region after the processing in step S205. do.
  • the length here may be specified by the number of pixels forming the edge, or may be specified based on the length in the horizontal direction in the image.
  • step S207 the data processing unit 70 performs edge combination processing in the first region after the processing in step S205, using the first edge and the second edge as references.
  • the combining condition here may be the same as in step S203, but the threshold for combining is made different.
  • the thresholds of each condition used in step S207 are indicated as Th dx3 , Th dy3 and Th dl3 .
  • Th dl3 >Th dl2 >Th dl1 .
  • edges that are more distant from the endpoints of the first edge and the second edge are also treated as objects to be combined. This process may result in a combination of the first edge and the second edge.
  • step S208 the data processing unit 70 determines whether or not the first edge and the second edge have been combined in the process of step S207. If the first and second edges are combined (YES in step S208), the process of data processing unit 70 proceeds to step S210. On the other hand, if the first and second edges are not connected (NO in step S208), the process of data processing unit 70 proceeds to step S209.
  • step S209 the data processing unit 70 performs noise determination processing on the shorter edge of the two edges that are not combined based on the first edge and the second edge. That is, of the two edges, the longer one is treated as a more reliable edge as a boundary.
  • the noise determination processing here is performed based on the vertical distance between the two edges. If the vertical distance is smaller than the predetermined threshold Th dx4 , the data processing unit 70 determines the shorter edge to be noise. It is assumed that the threshold Th dx4 is defined in advance and stored in the storage device.
  • the data processing unit 70 identifies one or two reference edges. More specifically, if the first edge and the second edge are combined or if one of them is determined to be noise, the longer edge is identified as the reference edge. On the other hand, if the first edge and the second edge are not combined and neither is determined to be noise, the two edges are identified as reference edges.
  • step S211 the data processing unit 70 performs edge removal processing in the second region based on the positions of the one or two reference edges specified in step S210.
  • edges exceeding a predetermined threshold are removed.
  • edges whose length is less than or equal to the threshold Thl2 are removed.
  • edges having the maximum intensity of the pixels forming the edge equal to or less than the threshold Th d2 are removed. It is assumed that the threshold Th l2 and the threshold Th d2 used here are defined in advance and held in the storage device. The length here may be defined in each of the vertical direction and the horizontal direction, or may be defined by the number of pixels.
  • the intensity here may be defined by a pixel value (for example, a luminance value).
  • the threshold Th l2 and the threshold Th d2 used in this step may be the same values as the threshold Th l1 and the threshold Th d1 used for edge removal of the first region in step S204, or may be different values. There may be. In this process, edges are removed based on both length and strength, but edges may be removed based on either one. By using the position of the reference edge as a reference, it is possible to efficiently remove edges with low boundary accuracy, reduce the processing load of the subsequent edge combination, and shorten the processing time. .
  • step S212 the data processing unit 70 performs edge combination processing in the second region after the edge removal processing has been performed in step S211, using the one or two reference edges identified in step S210 as a reference.
  • the joining condition here may be the same as in steps S203 and S205.
  • the data processing unit 70 identifies one edge from among the edges after the edge combination processing at step S212.
  • the corneal image contains 1 or 2 edges based on 1 or 2 reference edges. If only one edge can be specified at this time, that edge is specified.
  • the edge located on the upper side, that is, on the front side of the cornea is specified.
  • the edge points closer to each edge are connected by a straight line to form one edge, and then that edge is specified.
  • step S214 the data processing unit 70 performs smoothing processing on the edges identified in step S213.
  • a well-known method may be used for the smoothing process, and although it is not particularly limited, the smoothing process is adjusted so as not to excessively correct the irregularities shown in the region 204 in FIG. 2 .
  • step S215 the data processing unit 70 identifies the edge on which the smoothing process was performed in step S214 as the boundary of Bowman's film.
  • FIG. 4C is a corneal image 420 showing the boundary of Bowman's membrane identified by the processing up to this point.
  • step S216 the data processing unit 70 associates the position (coordinates) of the boundary specified in step S215 in the corneal image with the original OCT data.
  • coordinates and the like are associated based on respective processing parameters for boundary detection (step S102), alignment processing (step S103), and boundary extraction (step S104) of the corneal epithelium in FIG. Then, this processing flow is ended, and the process proceeds to step S106 in FIG.
  • FIG. 8A to 8C are diagrams for explaining artifacts that occur when performing OCT measurements.
  • a corneal image 800 as shown in FIG. 8A may be obtained as a result of the OCT measurement of the subject's eye.
  • a strong vertical line artifact may occur at a position corresponding to the corneal vertex.
  • Such artifacts can be caused by reflections from perpendicular to the incident light during OCT measurements.
  • the edge of the region 811 where the artifact is located cannot be detected appropriately like the corneal image 810 shown in FIG. 8B.
  • the distance between edges to be detected increases. This distance varies depending on the shooting conditions. Therefore, it is difficult to prescribe correction parameters and the like in consideration of all imaging conditions. In addition, if appropriate conditions are not set, noise and the like are excessively included, resulting in a decrease in detection accuracy.
  • the anterior segment analysis method as described above, two long edges (the first edge and the second edge) are specified, and the boundary is detected based on these edges. . Therefore, even if an artifact is included, for example, as in the corneal image 800 of FIG. can be specified.
  • Display screen An example of a display screen based on the analysis result obtained by the anterior segment analysis method according to the present embodiment will be described.
  • the display screen shown below is displayed on the UI unit 110, for example.
  • FIGS. 9A and 9B show examples of display screens that superimpose the detected boundaries on OCT data.
  • FIG. 9A shows an example of OCT data 900 resulting from performing an OCT measurement on the cornea.
  • FIG. 9B is an example of a display image 910 obtained by applying the anterior segment analysis method according to the present embodiment to the OCT data 900 to detect each boundary and superimposing the boundaries.
  • the displayed image 910 shows three boundaries, the boundary on the front side of the corneal epithelium, the boundary between the corneal epithelium and Bowman's membrane, and the boundary on the fundus side of the corneal endothelium in order from the top.
  • the OCT data as shown in FIG. 9A and the display screen as shown in FIG. 9B may be switchable, or both may be displayed side by side.
  • the display method of the detected boundary is not particularly limited, and for example, the line type and line color may be switchable.
  • FIG. 10 shows an example of a display screen 1000 for showing the membrane thickness derived based on the boundary obtained by the anterior segment analysis processing according to the present invention.
  • a plurality of OCT data obtained by performing a plurality of OCT scans of the eye to be examined are each subjected to an anterior segment analysis process to identify the boundary, and the thickness of the corneal epithelium in the entire cornea is determined. derived.
  • the thickness of the corneal epithelium corresponds to, for example, the distance from the front boundary of the corneal epithelium to the boundary between the corneal epithelium and Bowman's membrane. The thickness may be determined based on the length per pixel in OCT data.
  • the thickness is derived from the boundary obtained from each of a plurality of OCT data (for example, 12 OCT data obtained by radial scanning), and the thickness in a sparse state is obtained. Generate a map. Furthermore, a dense thickness map may be generated by linear interpolation or the like from the thickness at each position on the cornea corresponding to each of a plurality of OCT data. Note that the interpolation method is not limited to linear interpolation, and other methods may be used.
  • the number of measurements, the direction of measurement, etc. are not particularly limited.
  • the OCT data may be obtained by performing radial scanning while rotating the corneal center by a predetermined angle with the center of the cornea as the axis of rotation.
  • OCT data may be acquired by performing raster scanning multiple times so as to be parallel in a predetermined direction (for example, vertical direction).
  • OCT data may be acquired based on various scan patterns as described above.
  • a thickness map 1001 indicates the entire area of the cornea, and indicates the thickness of the corneal epithelium within the cornea in gradation.
  • the cornea is divided into 25 regions, but the number of divided regions is not particularly limited.
  • the numerical value shown in each region indicates the average value of the thickness in that region.
  • "N" shown on the left side of the thickness map 1001 indicates the nasal side of the subject's eye
  • "T” indicated on the right side of the thickness map 1001 indicates the temporal side of the subject's eye.
  • a scale 1002 indicates the thickness value for the gradation indicated by the thickness map 1001 .
  • it indicates that the thickness is shown in the range of 20 to 80 [ ⁇ m].
  • a scale 1002 indicates the length in the horizontal direction of the thickness map 1001, and indicates a range of -4.5 to 4.5 [mm] with the center of the cornea as 0.
  • a parameter group 1004 indicates values of various parameters corresponding to the thickness map 1001 .
  • An icon ⁇ corresponding to the minimum thickness value and an icon ⁇ corresponding to the maximum thickness value are shown in the thickness map 1001 to indicate respective detection positions.
  • the contents and configuration displayed on the display screen 1000 are examples, and other configurations may be used.
  • the parameters to be displayed may be configured so that the user can designate them.
  • the numerical values displayed on the thickness map 1001 may be configured to be switchable between display and non-display.
  • the thickness map 1001 corresponding to one eye to be examined is displayed, but both eyes or comparison objects (for example, past measurement results) may be displayed side by side.
  • the present embodiment it is possible to appropriately segment the local unevenness of the layers forming the cornea in the anterior segment.
  • a program or application for realizing the functions of one or more embodiments described above is supplied to a system or device using a network or a storage medium, and one or more processors in the computer of the system or device can also be implemented by reading and executing the program.
  • processor includes, for example, CPU (Central Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), programmable logic device (e.g., SPLD (Simple Programmable Logic Device), CPLD Device (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array)) or other general-purpose or dedicated circuit.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • ASIC Application Specific Integrated Circuit
  • programmable logic device e.g., SPLD (Simple Programmable Logic Device), CPLD Device (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array)
  • FPGA Field Programmable Gate Array
  • a program for causing a computer to execute not only the method shown as an example above but also the control method for controlling the above device can be stored in any computer-readable recording medium.
  • the recording medium include semiconductor memory, optical disk, magneto-optical disk (CD-ROM/DVD-RAM/DVD-ROM/MO, etc.), magnetic storage medium (hard disk/floppy (registered trademark) disk/ZIP, etc.). can be used. It is also possible to transmit and receive this program through a network such as the Internet or LAN.
  • the configuration may be such that the operation of the device is controlled based on the result of processing executed by a processing unit arranged on a network or on the basis of a control instruction.
  • the present invention is not limited to the above-described embodiments, but may be modified arbitrarily by those skilled in the art by combining each configuration of the embodiments with each other or based on the description of the specification and well-known technology. , adaptations, omissions, and additions are also contemplated by the present invention and fall within the scope of protection sought.
  • an acquisition unit for example, an image forming unit 60
  • a detection unit for example, a data processing unit 70
  • a first connecting unit for example, a data processing unit 70
  • a selection unit e.g., a data processing unit 70
  • a second connecting unit e.g., data processing unit 70
  • a determination unit e.g., data processing unit 70
  • the detection unit Identifying the front boundary of the corneal epithelium in the tomogram, detecting the plurality of edges in a predetermined range from the identified front boundary;
  • the anterior segment analysis device characterized in that: According to this configuration, it is possible to reduce the processing load associated with boundary detection and efficiently detect boundaries by performing detection in a predetermined range for a plurality of layers that constitute the cornea. becomes.
  • the tomographic image is divided into a first region that is a region on the corneal vertex side of the eye to be examined and a second region that is a region on the sclera side of the cornea of the eye to be examined;
  • the first coupling unit performs processing on the first region
  • the second coupling unit performs processing on the first region and the second region
  • the anterior segment analysis device according to (1) or (2) characterized by: According to this configuration, more accurate detection processing is performed on the vertex side of the cornea, and outer detection is performed based on the result. As a result, it is possible to reduce the processing load associated with boundary detection and efficiently detect boundaries without reducing the detection accuracy in the entire boundary detection area.
  • the second combining unit differs in a combining condition for combining edges in the first region from a combining condition for combining edges in the second region;
  • the anterior segment analysis device according to (3) characterized by: According to this configuration, it is possible to reduce the processing load associated with boundary detection and efficiently detect boundaries without lowering the detection accuracy in the entire boundary detection area. In particular, edges can be detected more efficiently in the second region.
  • the anterior segment analysis device characterized by: With this configuration, it is possible to efficiently identify edges that are more likely to be boundaries based on their length.
  • the second connecting portion may be the first edge.
  • the anterior segment analysis device according to any one of (3) to (5), characterized by: According to this configuration, even if the edges included in the OCT image are interrupted in the width direction, it is possible to appropriately combine the edges and identify the boundary by interpolating the gap.
  • the second coupling part is configured such that the first edge and the second edge of the cornea are in a range defined based on the imaging conditions for the OCT measurement in the first region. If not overlapping in the width direction, combine the first edge and the second edge to determine a boundary of the layers of the cornea;
  • the anterior segment analysis device according to (6) characterized by: According to this configuration, even if an OCT image contains an artifact at a position such as the corneal vertex and the edge cannot be extracted due to the artifact, the edge can be interpolated and the boundary can be specified with high accuracy. becomes.
  • the first combining condition and the second combining condition are the distance in the thickness direction of the cornea, the distance in the width direction of the cornea, and the overlap in the width direction of the cornea when combining edges.
  • different conditions in degree and/or edge strength The anterior segment analysis device according to any one of (1) to (7), characterized by: According to this configuration, it is possible to appropriately combine the edges and specify the boundary by performing the combining process on the multiple edges included in the OCT image using the multiple combining conditions.
  • the second combining unit further performs a smoothing process on the combined edges;
  • the anterior segment analysis device according to any one of (1) to (8), characterized by: According to this configuration, even if unevenness such as a level difference occurs during the edge combining process, it is possible to adjust so as to approach the actual boundary by performing the smoothing process.
  • the anterior segment analysis device according to any one of (1) to (9), characterized by: According to this configuration, the user of the ophthalmic system can easily grasp the detected layer structure of the cornea, and it is possible to promote efficiency in diagnosis and the like.
  • a derivation unit for example, a data processing unit 70 that derives the thickness of the corneal epithelium of the eye to be examined based on the boundary determined by the determination unit; a generation unit (e.g., data processing unit 70) that generates a thickness map of the corneal epithelium of the eye to be examined using the thickness derived by the derivation unit;
  • the anterior segment analysis device according to any one of (1) to (9), further comprising: According to this configuration, the thickness of the detected corneal layer structure can be expressed more visually, and the user's convenience of the ophthalmic system can be improved.
  • An anterior segment analysis method comprising: According to this configuration, it is possible to appropriately segment the local unevenness of the layers forming the cornea in the cornea
  • an acquisition step of acquiring a tomographic image of the anterior segment of the eye including the cornea of the subject's eye formed by OCT measurement for example, step S101
  • a detection step of detecting a plurality of edges included in the tomogram for example, step S201
  • a first combining step for example, steps S203 and S205
  • a selection step for example, step S206
  • a second combining step for example, step S212
  • a determining step e.g., steps S213 and S215) of determining boundaries of layers of the cornea of the anterior segment using the edges joined in the second joining step

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

前眼部解析装置は、OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得し、前記断層像に含まれる複数のエッジを検出し、前記複数のエッジそれぞれに対し、第1の結合条件に基づいてエッジ間の結合を行い、前記結合されたエッジの中から、長さに基づき第1のエッジと第2のエッジを選択し、前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行い、前記結合されたエッジを用いて、前記断層像の角膜の層の境界を決定する。

Description

前眼部解析装置、前眼部解析方法、およびプログラム
 本発明は、前眼部解析装置、前眼部解析方法、およびプログラムに関する。
 眼科分野では、OCT(Optical Coherence Tomography)と呼ばれる眼科装置が知られている。OCTでは被検眼の眼底や前眼部の断層像、正面画像、3次元画像等を取得することが可能である。更にOCTで取得されたデータは、被検眼の状態を把握するための解析処理に利用される。
 例えば、特許文献1では、被検眼の断層像に対してセグメンテーション処理を施すことにより、被検眼の組織の形状を求める方法が記載されている。また、特許文献2では、対象物である眼が動いたり回転したりすることを想定して、眼の内部の面形状を求める方法が記載されている。さらに特許文献3では、眼の層組織の厚さの解析マップを生成する眼科情報処理装置が記載されている。
日本国特開2020-199106号公報 日本国特開2020-48857号公報 日本国特許第6580448号公報
 OCTでは被検眼の前眼部や眼底の断層像を取得することが考えられる。このうち、眼底の層の境界は比較的明瞭に撮像することができるため、セグメンテーション、すなわち、単層への分離は撮像した像から容易に行うことが可能である。一方、前眼部については、撮像動作において明瞭な撮像が困難であることに起因して、像からセグメンテーションを行うことが困難である。
 例えば、特許文献2のような従来の手法では、前眼部に位置する角膜のセグメンテーションにおいて、OCT画像のノイズや組織間レイヤであるボーマン層はコントラストが低いため、多項式近似によりボーマン膜の形状を求めていた。しかしながら、この方法では、前眼部に位置する角膜において、病眼の局所的な凹凸のレイヤに対して適切にセグメンテーションすることができないという問題がある。
 上記課題を鑑み、本発明は、前眼部の断層像における角膜を構成する層の局所的な凹凸に対して適切にセグメンテーションを可能とすることを目的とする。
 上記課題を解決するために本発明の一形態は以下の構成を有する。すなわち、前眼部解析装置であって、
 OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得部と、
 前記断層像に含まれる複数のエッジを検出する検出部と、
 前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合部と、
 前記第1の結合部にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択部と、
 前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合部と、
 前記第2の結合部にて結合されたエッジを用いて、前記断層像の角膜の層の境界を決定する決定部と、
 を有する。
 また、本発明の別の形態は以下の構成を有する。すなわち、前眼部解析方法であって、
 OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得工程と、
 前記断層像に含まれる複数のエッジを検出する検出工程と、
 前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合工程と、
 前記第1の結合工程にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択工程と、
 前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合工程と、
 前記第2の結合工程にて結合されたエッジを用いて、前記断層像の角膜の層の境界を決定する決定工程と、
 を有する。
 また、本発明の別の形態は以下の構成を有する。すなわち、プログラムであって、
 コンピュータに、
 OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得工程、
 前記断層像に含まれる複数のエッジを検出する検出工程、
 前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合工程、
 前記第1の結合工程にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択工程、
 前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合工程、
 前記第2の結合工程にて結合されたエッジを用いて、前記前眼部の角膜の層の境界を決定する決定工程、
 を実行させる。
 本発明により、前眼部における角膜を構成する層の局所的な凹凸に対して適切にセグメンテーションが可能となる。
本発明の一実施形態に係るシステム構成の例を示す機能構成図。 従来における角膜の層の検出例を説明するための図。 本発明の一実施形態に係る前眼部解析処理のフローチャート。 本発明の一実施形態に係る処理対象の画像の変遷を説明するための図。 本発明の一実施形態に係る処理対象の画像の変遷を説明するための図。 本発明の一実施形態に係る処理対象の画像の変遷を説明するための図。 本発明の一実施形態に係るボーマン膜の境界の特定処理のフローチャート。 本発明の一実施形態に係る領域の内外を説明するための図。 本発明の一実施形態に係るエッジの結合条件を説明するための図。 本発明の一実施形態に係るエッジの結合条件を説明するための図。 本発明の一実施形態に係るエッジの結合条件を説明するための図。 OCT画像中に発生するアーティファクトの改善を説明するための図。 OCT画像中に発生するアーティファクトの改善を説明するための図。 OCT画像中に発生するアーティファクトの改善を説明するための図。 本発明の一実施形態に係る解析結果の表示例を示す図。 本発明の一実施形態に係る解析結果の表示例を示す図。 本発明の一実施形態に係る解析結果の表示例を示す図。
 この発明に係る前眼部解析装置、前眼部解析方法、およびプログラムの実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。なお、以下に説明する実施形態は、本発明を説明するための一実施形態であり、本発明を限定して解釈されることを意図するものではなく、また、各実施形態で説明されている全ての構成が本発明の課題を解決するために必須の構成であるとは限らない。また、各図面において、同じ構成要素については、同じ参照番号を付すことにより対応関係を示す。
 被検眼における組織として、前眼部における組織、後眼部における組織などがある。前眼部における組織として、角膜、虹彩、水晶体、毛様体、チン小帯、又は隅角がある。後眼部における組織として、眼底(眼底における所定の層領域)などがある。本発明にて着目する前眼部に位置する角膜は、複数の層により形成されている。より具体的には、角膜の前面側から順に、角膜上皮細胞、ボーマン膜、角膜実質、デスメ層、角膜内皮細胞の層構造である。
 上述したように、眼底の層の境界は比較的明瞭に撮像することができるため、単層への分離は撮像した像から比較的容易に行うことが可能である。一方、前眼部については、撮像動作において明瞭な撮像が困難であることに起因して、上記のような前眼部を構成する複数の層の分離を行うことが困難である。以下、本実施形態では、前眼部、特に角膜の層構造をより精度良く検出するための前眼部解析方法について説明する。
 本発明の一実施形態に係る前眼部解析方法では、被検眼の断層像を取得して用いる。断層像は、例えば、外部の眼科システムを用いて被検眼に対して光コヒーレンストモグラフィ(OCT)を実行することにより得られる。
 本明細書では、OCTによって取得されるデータをOCTデータと総称することがある。また、OCTデータを形成するための計測動作をOCT計測と呼び、OCT計測を行うためのスキャンをOCTスキャンと呼ぶことがある。
 <第1の実施形態>
 以下、本発明の一実施形態に係る眼科システムが、前眼部解析装置を含む場合について説明する。眼科システムは、OCT装置を含み、そのOCT装置を用いて被検眼に対してOCT測定を実行することにより被検眼の断層像を取得する。しかし、この構成に限定するものではない。例えば、前眼部解析装置は、ネットワークを介して外部装置や記録媒体からデータを送受信するためのインターフェースを含むように構成され、外部の眼科システムからOCTデータや断層像等を取得するように構成されていてもよい。
 以下では、眼科システムの装置光学系の光軸(測定光軸、検査光軸)に直交する左右方向(水平方向)をX方向とし、当該光軸に直交する上下方向(垂直方向)をY方向とし、当該光軸の方向(奥行き方向、前後方向)をZ方向として説明する。なお、実空間上の3次元座標系と、システム内部や3次元データにおける3次元座標系との対応関係は特に限定するものではないが、これらは予め対応付けられているものとする。
 [システム構成]
 図1は、本実施形態に係る前眼部解析方法を実行するための機能を含んで構成される眼科システム1の構成例を示す。ここでは、本発明に係る前眼部解析方法を適用可能なシステムの部位を代表的に示すが、眼科システム1は、図1に示す以外の構成を更に備えていてもよい。
 眼科システム1は、他覚屈折測定装置(屈折測定部)とOCT装置(OCT部)とを含む検査装置である。眼科システム1は、測定部10、制御処理部50、移動機構90、撮影部100、およびUI(User Interface)部110を含む。測定部10は、屈折測定部20、OCT部30、光投射部40、ビームスプリッタBS1、およびビームスプリッタBS2を含む。制御処理部50は、画像形成部60、データ処理部70、および制御部80を含む。
 (屈折測定部)
 屈折測定部20は、制御部80からの制御指示を受け、被検眼Eの屈折度数を他覚的に測定する。屈折測定部20は、他覚屈折測定を行うための1以上の光学部材が設けられた光学系を含む。屈折測定部20は、例えば、公知のレフラクトメータと同様の構成を有する。図示は省略するが、典型的なレフラクトメータは、日本国特開2016-077774号公報に開示されているように、投影系、および受光系を含む。
 屈折測定部20の投影系は、光源から出射した光を被検眼Eの眼底Efに投影する。投影系は、例えば、光源からの光を、コリメータレンズ、合焦レンズ、リレーレンズ、瞳レンズ、穴開きプリズム、偏心プリズム、対物レンズ等を通じて眼底Efに投影する。
 屈折測定部20の受光系は、眼底Efからの反射光を、対物レンズ、偏心プリズム、穴開きプリズム、他の瞳レンズ、他のリレーレンズ、他の合焦レンズ、円錐プリズム、結像レンズ等を通じて、撮像素子(不図示)に投影する。これにより、撮像素子の撮像面に結像したリングパターン像が検出される。
 屈折測定部20は、リング状の光を眼底Efに投影し、眼底Efからの反射光により形成されるリングパターン像を検出するように構成されてもよい。また、屈折測定部20は、輝点を眼底Efに投影し、眼底Efからの反射光をリング状の光に変換し、変換されたリング状の光により形成されるリングパターン像を検出するように構成されてもよい。
 (OCT部)
 OCT部30は、制御部80からの制御指示を受け、被検眼EにOCTスキャンを適用してOCTデータを取得する。OCTデータは、干渉信号データでもよいし、干渉信号データにフーリエ変換を適用して得られた反射強度プロファイルデータでもよいし、反射強度プロファイルデータを画像化して得られた画像データでもよい。本実施形態では、画像データ(以下、OCT画像)を用いた例について説明する。
 OCT部30が実施可能なOCT手法は、典型的にはフーリエドメインOCTであり、スペクトラルドメインOCT及びスウェプトソースOCTのいずれでもよい。スウェプトソースOCTは、波長可変光源からの光を測定光と参照光とに分割し、被検眼に投射された測定光の戻り光を参照光と重ね合わせて干渉光を生成する。そして、この干渉光を光検出器で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データ(干渉信号データ)にフーリエ変換等を施して反射強度プロファイルデータを形成する。一方、スペクトラルドメインOCTは、低コヒーレンス光源(広帯域光源)からの光を測定光と参照光とに分割し、被検眼に投射された測定光の戻り光を参照光と重ね合わせて干渉光を生成する。そして、この干渉光のスペクトル分布を分光器で検出し、分光器による検出データ(干渉信号データ)にフーリエ変換等を施して反射強度プロファイルデータを形成する。すなわち、スウェプトソースOCTはスペクトル分布を時分割で取得するOCT手法であり、スペクトラルドメインOCTはスペクトル分布を空間分割で取得するOCT手法である。
 OCT部30は、OCT計測を行うための1以上の光学部材が設けられた光学系を含む。OCT部30は、例えば、公知のOCT装置と同様の構成を有する。図示は省略するが、典型的なOCT装置は、日本国特開2016-077774号公報に開示されているように、光源、干渉光学系、スキャン系、および検出系を含む。
 光源から出力された光は、干渉光学系によって測定光と参照光とに分割される。参照光は、参照アームに導かれる。測定光は、測定アームを通じて被検眼E(例えば、眼底Ef)に投射される。測定アームにはスキャン系が設けられている。スキャン系は、例えば光スキャナーを含み、測定光を1次元的又は2次元的に偏向可能である。光スキャナーは、1以上のガルバノスキャナを含む。スキャン系は、所定のスキャンモードにしたがって測定光を偏向する。
 制御処理部50が備える制御部80は、スキャンモードにしたがってスキャン系を制御することが可能である。スキャンモードには、ラインスキャン、ラスタースキャン(3次元スキャン)、サークルスキャン、同心円スキャン、ラジアルスキャン、クロススキャン、マルチクロススキャン、スパイラルスキャンなどがある。ラインスキャンは、直線状の軌跡に沿ったスキャンパターンである。ラスタースキャンは、互いに平行に配列された複数のラインスキャンからなるスキャンパターンである。サークルスキャンは、円形状の軌跡に沿ったスキャンパターンである。同心円スキャンは、同心状に配列された複数のサークルスキャンからなるスキャンパターンである。ラジアルスキャンは、放射状に配列された複数のラインスキャンからなるスキャンパターンである。クロススキャンは、互いに直交に配列された2つのラインスキャンからなるスキャンパターンである。マルチクロススキャンは、互いに直交する2つのラインスキャン群(例えば、各群は、互いに平行な5本のラインを含む)からなるスキャンパターンである。スパイラルスキャンは、中心から螺旋状に伸びるスキャンパターンである。
 眼底Efに投射された測定光は、眼底Efの様々な深さ位置(層境界等)において反射・散乱される。被検眼Eからの測定光の戻り光は、干渉光学系によって参照光と合成される。測定光の戻り光と参照光とは重ね合わせの原理にしたがって干渉光を生成する。この干渉光は検出系によって検出される。検出系は、典型的には、スペクトラルドメインOCTでは分光器を含み、スウェプトソースOCTではバランスドフォトダイオード及びデータ収集システム(DAQ:Data AcQuisition)を含む。
 (光投射部)
 光投射部40は、被検眼Eと測定部10(OCT部30、装置光学系)との位置合わせを行うための光を被検眼Eに投射する。光投射部40は、光源、およびコリメータレンズを含む。光投射部40の光路は、ビームスプリッタBS2により屈折測定部20の光路に結合される。光源から出力された光は、コリメータレンズを経由し、ビームスプリッタBS2により反射され、屈折測定部20の光路を通じて被検眼Eに投射される。
 いくつかの実施形態では、日本国特開2016-077774号公報に開示されているように、被検眼Eの角膜Ec(前眼部)による反射光は、屈折測定部20の光路を通じて、屈折測定部20の受光系に導かれる。
 被検眼Eの角膜Ecによる反射光に基づく像(輝点像)は、撮影部100により取得された前眼部像に含まれる。例えば、制御処理部50は、輝点像を含む前眼部像と位置合わせマークとを表示部(不図示)の表示画面に表示させる。手動でXY方向の位置合わせ(上下左右方向の位置合わせ)を行う場合、ユーザは、位置合わせマーク内に輝点像を誘導するように光学系の移動操作を行うことができる。手動でZ方向の位置合わせ(前後方向の位置合わせ)を行う場合、ユーザは、UI部110の表示画面に表示された前眼部像を参照しながら光学系の移動操作を行うことができる。自動で位置合わせを行う場合、制御部80は、位置合わせマークと輝点像の位置との変位がキャンセルされるように移動機構90を制御することにより、被検眼Eに対して測定部10(光学系)を相対移動させる。また、制御部80は、被検眼Eの所定部位(例えば、瞳孔中心位置)の位置と輝点像の位置とに基づいて、位置合わせに対する所定の完了条件を満たすように移動機構90を制御することにより、被検眼Eに対して測定部10(光学系)を相対移動させることが可能である。
 (ビームスプリッタ)
 ビームスプリッタBS1は、屈折測定部20の光学系(投影系及び受光系)の光路に、OCT部30の光学系(干渉光学系など)の光路を同軸に結合する。例えば、ビームスプリッタBS1としてダイクロイックミラーが用いられる。ビームスプリッタBS2は、屈折測定部20の光学系(投影系及び受光系)の光路に、光投射部40の光学系の光路を同軸に結合する。例えば、ビームスプリッタBS2としてハーフミラーが用いられる。
 眼科システム1は、制御部80からの制御指示を受け、被検眼Eの視線を誘導するための固視標を被検眼Eに提示する機能(固視投影系)を有してもよい。固視標は、被検眼Eに提示される内部固視標でもよいし、僚眼に提示される外部固視標でもよい。OCT部30とビームスプリッタBS1との間に配置された光路結合部材(例えば、ビームスプリッタ)により、固視投影系の光路がOCT部30の干渉光学系の光路に同軸に結合されるように構成されてもよい。
 制御部80からの制御指示を受け、固視投影系による眼底Efにおける固視標の投影位置は変更可能である。固視標は、同軸に結合された屈折測定部20の光学系、及びOCT部30の光学系の測定光軸上に投影されてもよい。固視標は、眼底Efにおいて測定光軸から外れた位置に投影されてもよい。
 (撮影部)
 撮影部100は、被検眼Eの前眼部を撮影するための1以上の前眼部カメラを含む。撮影部100は、被検眼Eの正面画像である前眼部像を取得する。1以上の前眼部カメラの近傍に少なくとも1つの前眼部照明光源(赤外光源等)が設けられてよい。例えば、各前眼部カメラについて、その上方近傍と下方近傍のそれぞれに前眼部照明光源が設けられてよい。
 眼科システム1は、撮影部100により取得された正面画像を用いて、被検眼Eに対する測定部10(光学系)の位置合わせを行うことが可能である。眼科システム1は、被検眼Eの前眼部を撮影することにより得られた正面画像を解析することにより被検眼Eの3次元位置を特定し、特定された3次元位置に基づいて測定部10を相対移動することで位置合わせを行ってよい。眼科システム1は、被検眼Eの特徴位置と光投射部40により投射された光により形成された像の位置との変位がキャンセルされるように位置合わせを行ってもよい。
 撮影部100は、1以上の前眼部カメラを含む。撮影部100が単一の前眼部カメラを含む場合、眼科システム1は、取得された正面画像を解析して、測定部10の光軸に直交する平面(水平方向(X方向)と垂直方向(Y方向)とにより規定される平面)おける被検眼Eの2次元位置を特定する。この場合、眼科システム1には、測定部10の光軸の方向における被検眼Eの位置を特定するための光学系が設けられている。このような光学系として、例えば、日本国特開2016-077774号公報に開示されている光テコ方式の光学系などがある。眼科システム1は、このような光学系を用いて測定部10の(測定)光軸の方向における被検眼Eの位置と、上記の2次元位置とから、被検眼Eの3次元位置を特定することが可能である。
 撮影部100が2以上の前眼部カメラを含む場合、その2以上の前眼部カメラは、被検眼Eの前眼部を異なる方向から撮影する。2以上の前眼部カメラは、異なる2以上の方向から実質的に同時に前眼部を撮影することができる。「実質的に同時」とは、例えば、2以上の前眼部カメラによる撮影において、眼球運動を無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検眼Eが実質的に同じ位置(向き)にあるときの画像を2以上の前眼部カメラによって取得することができる。眼科システム1は、例えば、日本国特開2013-248376号公報に開示されているように、取得された正面画像を解析して被検眼Eの特徴位置を特定し、2以上の前眼部カメラの位置と特定された被検眼Eの特徴位置とから被検眼Eの3次元位置を特定する。
 2以上の前眼部カメラによる撮影は動画撮影でも静止画撮影でもよい。動画撮影の場合、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記のような実質的に同時の前眼部撮影を実現することができる。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。
 (制御処理部)
 制御処理部50は、眼科システム1を動作させるための各種演算や各種制御を実行する。制御処理部50は、1以上のプロセッサと、1以上の記憶装置とを含む。記憶装置としては、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)などがある。記憶装置には各種のコンピュータプログラムが格納されており、それに基づきプロセッサが動作することによって本実施形態に係る演算や制御が実現される。
 本実施形態において、制御処理部50は、各種プログラムをプロセッサが実行することにより、画像形成部60、データ処理部70、および制御部80の各機能を実現する。なお、制御処理部50にて実現される機能のブロック構成は一例であり、上述する各処理に対応して更に詳細に分割されてもよい。
 (画像形成部)
 画像形成部60は、被検眼Eに対してOCT計測を実行することにより得られたOCTデータに基づいて、被検眼Eの画像(断層像等)を形成する。画像形成部60は、OCT部30の検出系による検出データに基づいてOCTデータ(典型的には画像データ)を構築する。画像形成部60は、従来のOCTデータ処理と同様に、フィルタ処理、高速フーリエ変換(FFT:Fast Fourier Transform)などを検出データに適用することにより、各Aライン(被検眼E内における測定光の経路)における反射強度プロファイルデータを構築する。更に、画像形成部60は、この反射強度プロファイルデータに画像化処理(画像表現)を適用することにより、各Aラインの画像データ(Aスキャンデータ)を構築する。なお、画像形成部60の機能の一部がOCT部30に設けられてもよい。
 本実施形態に係る前眼部解析方法を実行するための装置が、測定部10とは別個の装置として実現される場合には、画像形成部60は、ネットワーク(不図示)を介してOCTデータを取得する取得部として構成されてもよい。
 (データ処理部)
 データ処理部70は、被検眼Eに対する測定部10の位置合わせを行うための処理を実行することが可能である。位置合わせを行うための処理として、撮影部100を用いて取得された被検眼Eの正面画像の解析処理、被検眼Eの位置の算出処理、被検眼Eに対する測定部10の変位の算出処理などが挙げられる。
 また、データ処理部70は、位置合わせ後にOCT計測を実行して得られた被検眼Eの断層像から被検眼Eの角膜Ecの表面形状を特定し、更に、角膜Ecの構造を表す形状データを生成することが可能である。例えば、形状データは、OCT画像としての断層像に対してセグメンテーション処理を施すことにより得られる。本実施形態では、前眼部に含まれる角膜Ecに対するセグメンテーション処理を含む解析処理を行い、その解析結果などに基づく表示処理を行う。詳細については後述する。
 (制御部)
 制御部80は、眼科システム1の各部を制御する。制御部80は、上述したような記憶装置(不図示)を含み、各種の情報を保存することが可能である。記憶装置に保存される情報には、眼科システム1の各部を制御するためのプログラム、被検者の情報、被検眼の情報、測定部10により得られた測定データ、データ処理部70による処理結果などがあるが、特に限定されるものではない。
 制御部80は、UI部110を制御可能である。UI部110は、ユーザインターフェースの一部として機能し、制御部80による制御指示を受けて情報や表示画面を表示する表示装置として機能したり、ユーザからの操作を受け付ける操作装置として機能したりする。UI部110は、表示装置として機能するために、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機発光ダイオード(OLED:Organic Light-Emitting Diode)ディスプレイを含んで構成されてよい。
 制御部80は、UI部110を介して入力された信号にしたがって眼科システム1を制御可能である。UI部110は、操作装置として機能するために、眼科システム1に設けられた各種のハードウェアキー(ジョイスティック、ボタン、スイッチなど)を含んでいてよい。また、UI部110は、眼科システム1に接続された各種の周辺機器(キーボード、マウス、ジョイスティック、操作パネルなど)を含んでいてよい。また、UI部110は、タッチパネルに表示される各種のソフトウェアキー(ボタン、アイコン、メニューなど)を含んでよい。
 (移動機構)
 移動機構90は、屈折測定部20、OCT部30、光投射部40、ビームスプリッタBS1、BS2等の光学系(装置光学系)が収納された測定部10を上下左右方向及び前後方向に移動させるための機構である。移動機構90は、制御部80からの制御指示を受け、被検眼Eに対して測定部10を相対移動させることが可能である。例えば、移動機構90には、測定部10を移動するための駆動力を発生するアクチュエータ(不図示)と、この駆動力を伝達する伝達機構(不図示)とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。制御部80は、アクチュエータに対して制御信号を送ることにより移動機構90に対する制御を行う。
 移動機構90に対する制御は、位置合わせにおいて用いられる。例えば、制御部80は、測定部10(装置光学系)の現在位置を取得する。制御部80は、移動機構90の移動制御の内容を表す情報を受けて、測定部10の現在位置を取得する。この場合、制御部80は、所定のタイミング(装置起動時、患者情報入力時など)で移動機構90を制御して、測定部10を所定の初期位置に移動させる。それ以降、制御部80は、移動機構90を制御する度に、その制御内容を記録する。それにより、制御内容の履歴が得られる。制御部80は、光学系位置取得部として、この履歴を参照して現在までの制御内容を取得し、この制御内容に基づいて測定部10の現在位置を求める。
 移動機構90に対する制御は、トラッキングにおいて用いられてもよい。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前に位置合わせとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、位置とピントが合った好適な位置関係を維持する機能である。
 [角膜の層]
 上述したように、前眼部に位置する角膜Ecは層構造となっており、角膜上皮細胞、ボーマン膜、角膜実質、デスメ層、角膜内皮細胞が含まれる。図2は、従来における角膜の各層の境界部の検出例を説明するための図である。画像200は、角膜の一部を示し、ここでは、角膜上皮の前面側の境界201、角膜上皮とボーマン膜との境界202、および、角膜内皮の眼底側の境界203の検出例を示している。角膜の厚みは約0.5mmである。そのうち、ボーマン膜は、その厚みが8~14μm程度であり、そのほかの構成要素である角膜上皮細胞や角膜実質に比べて薄い層である。
 従来の手法では、ボーマン膜と角膜上皮の境界202を検出する場合、例えば、日本国特開2020-48857号公報に記載されているように、近似曲線を用いて検出を行っていた。近似曲線を用いて境界を検出した場合、例えば、曲線205が境界として得られる。このような検出方法を用いた場合、領域204に示すように、ボーマン膜などに生じている凹凸を正確に検出することができない。
 本実施形態に係る前眼部解析方法では、上記のような角膜内部に生じる凹凸も検出可能とし、より精度の高い検出を実現する。
 [処理フロー]
 以下、本発明の一実施形態に係る前眼部解析方法の処理について説明する。本処理は、例えば、眼科システム1が備えるプロセッサが記憶装置に記憶された各種プログラムを読み出して実行することにより、制御処理部50として動作することで実現される。
 ステップS101にて、画像形成部60は、処理対象となる被検眼のOCTデータを取得する。制御部80の制御の下、測定部10および移動機構90を動作させて被検眼を撮影することで新たにOCTデータを取得してもよいし、記憶装置等に保持されたOCTデータを取得してもよい。ここで取得対象となるOCTデータは、ユーザにて指定されてもよい。このとき、OCTデータに対する前処理として、階調変換処理、画像強調処理、閾値処理、コントラスト変換処理、二値化処理、エッジ検出処理、画像平均化処理、画像平滑化処理、フィルタ処理、領域抽出処理、アライメント処理などが行われてもよい。なお、前処理は上記に限定するものではなく、後段の各処理を考慮してそのほかの処理が行われてよい。
 ステップS102にて、データ処理部70は、ステップS101にて取得したOCTデータに対してエッジ検出処理を行うことで、角膜上皮の前面側の境界を検出する。ここで検出される境界は、図2に示す境界201に相当する。つまり、角膜の最も前面側に位置するエッジに相当する。エッジ検出方法としては、例えば、公知の手法であるCanny Edge法などが挙げられるが特に限定するものではない。さらに、データ処理部70は、検出したエッジに基づいて、近似曲線により角膜上皮の前面側の境界を検出する。
 ステップS103にて、データ処理部70は、ステップS102にて検出した境界の位置に基づいて、その境界が直線となる様に元のOCT画像のアライメント処理を行う。つまり、検出した境界を構成する画素が直線状になるように配置を行い、更に境界を構成する画素とそのほかの画素との所定の方向における位置関係を維持したまま画素の位置変換を行う。したがって、境界の画素とその周囲の画素との厚さ方向の位置関係(距離)は元の画像から変化しない。このようなアライメント処理を行うことで、角膜を構成する各層を検出するような、数umの精度が要求される処理においても、微細な構造を特定することが可能となる。
 ステップS104にて、データ処理部70は、ステップS103により得られたアライメント処理後の画像から境界を基準とした所定サイズの領域を抽出する。その結果、図4Aに示されるような矩形上の角膜画像401が得られる。抽出される領域の所定サイズは特に限定するものではないが、例えば、境界に直交する方向に50pixelとし、境界と平行する方向に1024pixelとしてよい。また、縦方向の上端がステップS102にて検出した境界にて得られる直線に相当する。
 ステップS105にて、データ処理部70は、ステップS104にて得られた角膜画像を用いて、ボーマン膜の境界の特定処理を行う。本工程の詳細については、図5を用いて、詳述する。
 ステップS106にて、データ処理部70は、ステップS105にて特定したボーマン膜の境界に基づいて、表示処理を行う。表示処理にてUI部110にて表示させる画面の構成例については、後述する。そして、本処理フローを終了する。
 (ボーマン膜の境界の特定処理)
 図6は、図3のステップS105の工程の詳細を示すフローチャートである。
 ステップS201にて、データ処理部70は、角膜画像に対して、エッジ検出処理を行う。エッジ検出方法としては、例えば、公知の手法であるCanny Edge法などが挙げられるが特に限定するものではない。例えば、図4Aに示す角膜画像401に対してエッジ検出処理を行った結果、図4Bに示すような、複数のエッジを含む角膜画像402が得られる。
 ステップS202にて、データ処理部70は、ステップS201にて得られた角膜画像に対して領域分割を行う。本実施形態では、角膜画像を、角膜の中心側(内側)の第1の領域と、角膜の強膜側(外側)の第2の領域に分割する。図6は、図4Bに示した角膜画像402を第1の領域と第2の領域とに分割する例を示している。ここでは、角膜画像の左端を基準とし、横方向において0~200、800~1024pixelの範囲を第2の領域とし、201~799pixelの範囲を第1の領域として扱う。ここでの分割方法は一例であり、これに限定するものではない。例えば、画像のサイズに応じて、範囲を変更してもよい。また、ここでは2つの領域に分けた例を示したが、更に多くの領域に分割してもよい。
 ステップS203にて、データ処理部70は、第1の領域に含まれる各種エッジを対象として、エッジ間の結合処理を行う。図7A~図7Cは、エッジ結合の際の条件を説明するための図である。ここでは、縦方向(すなわち、角膜の厚さ方向に相当)をx方向とし、横方向(すなわち、角膜の幅方向に相当)をy方向として説明する。図7Aは、2つのエッジの近い方の端点のx方向の距離dxが所定の値以上であれば、結合を行わないことを示す。つまり、2つのエッジ間の距離dxが所定の値より小さければ、その2つのエッジ間において端点同士を直線にて結合する。同様に、図7Bは、2つのエッジの近い方の端点のy方向の距離dyが所定の値以上であれば、結合を行わないことを示す。つまり、2つのエッジ間の距離dyが所定の値より小さければ、そのエッジ間において端点同士を直線にて結合する。図7Cは、2つのエッジがx方向において重複している場合に、その重複の長さdlが所定の値以上であれば、結合を行わないことを示す。つまり、2つのエッジの重複の長さdlが所定の値より小さければ、そのエッジ間において端点同士を直線にて結合する。このときの結合の際にスムージング処理を行って結合してもよいし、他の結合処理を行ってもよい。また、縦方向において一部が重複しているエッジを結合する場合には、重複する箇所において上側(すなわち、角膜の前面側)のエッジを優先して結合してよい。
 なお、上記の例では、3つの条件を用いて結合する方法を示したが、これらのうちのいずれかを用いて結合してもよいし、他の条件を用いて結合を行ってもよい。また、3つの条件のうち、どの条件を優先的に適用するかも特に限定するものではない。ここでは、端点同士が最も近い2つのエッジ同士に着目して処理を繰り返す。便宜上、ステップS203にて用いる各条件の閾値を、Thdx1、Thdy1、Thdl1として示す。
 ステップS204にて、データ処理部70は、ステップS203の処理後の第1の領域において、長さおよび強度に基づいてエッジを除去する。第1の領域に含まれるエッジのうち、長さが閾値Thl1以下のエッジが除去される。また、第1の領域に含まれるエッジのうち、そのエッジを構成する画素の最大強度が閾値Thd1以下のエッジが除去される。ここで用いられる閾値Thl1および閾値Thd1は予め規定され、記憶装置にて保持されているものとする。ここでの長さとは、縦方向と横方向それぞれに対して規定されていてもよいし、画素数にて規定されてもよい。また、ここでの強度とは、画素値(例えば、輝度値)にて規定されてよい。なお、本工程では、長さと強度の両方に基づいて、エッジの除去を行っているが、いずれか一方に基づいて、エッジの除去を行ってもよい。このようなエッジの除去を行うことにより、明らかに境界では無いエッジ(境界としての確度が低いエッジ)を除去し、検出精度を向上させるとともに、後段におけるエッジの結合処理の効率化を可能としている。
 ステップS205にて、データ処理部70は、ステップS204におけるエッジ除去が行われた第1の領域において、ステップS203と同様に、再度、エッジの結合処理を行う。ステップS203との違いは、結合条件として用いる閾値を異ならせる点である。ステップS205にて用いる各条件の閾値を、Thdx2、Thdy2、Thdl2として示す。この場合、Thdx2>Thdx1、Thdy2>Thdy1、Thdl2>Thdl1とする。つまり、ステップS205の方がより離れたエッジも結合対象として扱う。
 ステップS206にて、データ処理部70は、ステップS205の処理後の第1の領域に含まれるエッジのうち、最も長いエッジを第1のエッジとし、2番目に長いエッジを第2のエッジとして特定する。ここでの長さはエッジを構成する画素数にて特定されてもよいし、画像中の横方向の長さに基づいて特定されてもよい。
 ステップS207にて、データ処理部70は、ステップS205の処理後の第1の領域において、第1のエッジと第2のエッジそれぞれを基準として、エッジの結合処理を行う。ここでの結合条件は、ステップS203と同様であってよいが、結合の際の閾値を異ならせる。ステップS207にて用いる各条件の閾値を、Thdx3、Thdy3、Thdl3として示す。この場合、Thdx3>Thdx2>Thdx1、Thdy3>Thdy2>Thdy1、Thdl3>Thdl2>Thdl1とする。つまり、ステップS207では、第1のエッジと第2のエッジの端点を基準としてより離れたエッジも結合対象として扱う。この処理の結果、第1のエッジと第2のエッジとが結合される場合もあり得る。
 ステップS208にて、データ処理部70は、ステップS207の処理にて、第1のエッジと第2のエッジとが結合されたか否かを判定する。第1、第2のエッジが結合された場合(ステップS208にてYES)、データ処理部70の処理はステップS210へ進む。一方、第1、第2のエッジが結合されていない場合(ステップS208にてNO)、データ処理部70の処理はステップS209へ進む。
 ステップS209にて、データ処理部70は、第1のエッジと第2のエッジに基づく、結合されていない2つのエッジのうち、より短いエッジに対してノイズ判定処理を行う。つまり、2つのエッジのうち、より長い方を境界としてより信頼できるエッジとして扱う。ここでのノイズ判定処理は、2つのエッジの縦方向の距離に基づいて判定する。縦方向の距離が所定の閾値Thdx4よりも小さい場合、データ処理部70は、より短い方のエッジをノイズと判定する。閾値Thdx4は予め規定され、記憶装置に保持されているものとする。
 ステップS210にて、データ処理部70は、1または2の基準エッジを特定する。より具体的には、第1のエッジと第2のエッジとが結合されていた場合やこれらのうちの一方がノイズと判定された場合、より長い1つのエッジが基準エッジとして特定される。一方、第1のエッジと第2のエッジとが結合されておらず、かつ、いずれもノイズと判定されていない場合、2つのエッジが基準エッジとして特定される。
 ステップS211にて、データ処理部70は、ステップS210にて特定した1または2つの基準エッジの位置を基準として、第2の領域におけるエッジの除去処理を行う。ここでは、基準エッジの位置に基づいて、横方向および縦方向の距離や重複度に基づき、所定の閾値以上のエッジは除去する。また、第2の領域において、長さが閾値Thl2以下のエッジが除去される。また、第2の領域において、エッジを構成する画素の最大強度が閾値Thd2以下のエッジが除去される。ここで用いられる閾値Thl2と閾値Thd2は予め規定され、記憶装置にて保持されているものとする。ここでの長さとは、縦方向と横方向それぞれに対して規定されていてもよいし、画素数にて規定されてもよい。また、ここでの強度とは、画素値(例えば、輝度値)にて規定されてよい。なお、本工程にて用いる閾値Thl2と閾値Thd2は、ステップS204にて第1の領域のエッジ除去に用いた閾値Thl1と閾値Thd1と同じ値であってもよいし、異なる値であってもよい。なお、本工程では、長さと強度の両方に基づいて、エッジの除去を行っているが、いずれか一方に基づいて、エッジの除去を行ってもよい。基準エッジの位置を基準とすることで、効率的に境界の確度が低いエッジを除去したり、後段のエッジ結合の処理負荷を低減させたり、処理時間を短縮化させたりすることが可能となる。
 ステップS212にて、データ処理部70は、ステップS210にて特定した1または2つの基準エッジを基準として、ステップS211にてエッジ除去処理が行われた後の第2の領域におけるエッジ結合処理を行う。ここでの結合条件は、ステップS203やステップS205と同様であってよい。
 ステップS213にて、データ処理部70は、ステップS212のエッジ結合処理後のエッジの中から1のエッジを特定する。この状態では、角膜画像において、1または2つの基準エッジに基づく1または2のエッジが含まれている。このとき1のエッジのみが特定できる場合は、そのエッジを特定する。一方、2つのエッジが含まれる場合に、縦方向にてそれらのエッジが重複している際には、上側、即ち、角膜の前面部側に位置するエッジを特定する。縦方向にてそれらのエッジが重複していない場合は、各エッジの近い方の端点を直線にて結合させて1のエッジとした上で、そのエッジを特定する。
 ステップS214にて、データ処理部70は、ステップS213にて特定したエッジに対してスムージング処理を行う。スムージング処理は、公知の方法を用いてよく、特に限定するものではないが、図2の領域204にて示したような凹凸部が過度に補正されることが無いように調整される。
 ステップS215にて、データ処理部70は、ステップS214にてスムージング処理が行われたエッジをボーマン膜の境界として特定する。図4(c)は、ここまでの処理により特定されたボーマン膜の境界を示す角膜画像420である。
 ステップS216にて、データ処理部70は、ステップS215にて特定した境界の角膜画像内での位置(座標)を、元のOCTデータに対応付けを行う。このとき、図3の角膜外皮の境界検出(ステップS102)、アライメント処理(ステップS103)、境界抽出(ステップS104)それぞれの処理パラメータに基づいて、座標等の対応付けが行われる。そして、本処理フローを終了し、図4のステップS106の処理へ進む。
 [アーティファクトの改善]
 図8A~図8Cは、OCT測定を行った際に生じるアーティファクトを説明するための図である。被検眼のOCT測定を行った結果、図8Aに示すような角膜画像800が得られる場合がある。このとき、領域801に示すように、角膜頂点に相当する位置に縦線の強いアーティファクトが生じる場合がある。このようなアーティファクトは、OCT測定の際の入射光と垂直な個所からの反射によって生じ得る。アーティファクトが含まれる画像の解析処理を進めると、図8Bに示す角膜画像810のように、アーティファクトが位置する領域811のエッジが適切に検出できない。その結果、検出すべきエッジ間の距離が離れてしまう。この距離は、撮影条件によって異なる。そのため、すべての撮影条件を考慮して、補正パラメータ等を予め規定することは困難である。また、適切な条件設定ができていない場合には、ノイズなどを過剰に含めてしまい、検出の精度が低下してしまう。
 しかしながら、本発明に係る前眼部解析方法では、上述したように長さが長い2つのエッジ(第1のエッジ、第2のエッジ)を特定し、これらを基準として境界の検出を行っている。そのため、例えば、図8Aの角膜画像800の様にアーティファクトが含まれている場合であっても、図8Cに示すように、アーティファクトが位置する領域821において適切にエッジ結合が可能となり、1のエッジを特定することが可能となる。
 [表示画面]
 本実施形態に係る前眼部解析方法により得られた解析結果に基づく表示画面の例について説明する。以下に示す表示画面は、例えば、UI部110にて表示される。
 図9Aおよび図9Bは、OCTデータ上に、検出した境界を重畳表示する表示画面の例を示す。図9Aは、角膜に対してOCT測定を行った結果得られたOCTデータ900の例を示す。図9Bは、OCTデータ900に対して、本実施形態に係る前眼部解析方法を適用して各境界を検出し、その重畳表示を行った表示画像910の例である。表示画像910では、3つの境界を示し、上から順に角膜上皮の前面側の境界、角膜上皮とボーマン膜との境界、および、角膜内皮の眼底側の境界を示す。
 なお、表示画面において、図9Aに示すようなOCTデータと、図9Bに示すような表示画面とは、切り替え可能に構成されてもよいし、両方を並べて表示させてもよい。また、検出した境界の表示方法は特に限定されるものではなく、例えば、線種や線の色を切り替え可能に構成してもよい。
 図10は、本発明に係る前眼部解析処理により得られた境界に基づいて導出される膜の厚みを示すための表示画面1000の例を示す。ここでは被検眼に対して、複数回のOCTスキャンを行って得られた複数のOCTデータそれぞれに対して前眼部解析処理を行うことで境界を特定し、角膜の全体における角膜上皮の厚みを導出している。角膜上皮の厚みは、例えば、角膜上皮の前面側の境界から、角膜上皮とボーマン膜との境界までの距離に相当する。厚みは、OCTデータにおける1画素あたりの長さに基づいて特定してよい。角膜全体の厚みを示す厚みマップを導出する際には、複数のOCTデータ(例えば、ラジアルスキャンにて得られる12のOCTデータ)それぞれから得られる境界から厚みを導出して、疎な状態の厚みマップを生成する。さらに、複数のOCTデータそれぞれに対応した、角膜における各位置の厚みから線形補間等により、密な状態の厚みマップを生成してよい。なお、補間の方法は、線形補間に限定されるものではなく、他の方法を用いてもよい。
 また、角膜を計測する際の複数回のOCT測定において、測定回数や測定の向きなどは特に限定するものではない。例えば、角膜中心を回転軸として、所定角度ごとに回転させながらラジアルスキャンを行ってOCTデータを取得してもよい。または、所定方向(例えば、上下方向)に並行となるように複数回のラスタースキャンを行ってOCTデータを取得してもよい。そのほか、上述したような様々なスキャンパターンに基づいてOCTデータを取得してよい。
 厚みマップ1001は、角膜の全体領域を示し、角膜内の角膜上皮の厚みをグラデーションにて示している。ここでは、角膜を25の領域に分割した例を示しているが、領域の分割数は特に限定するものではない。各領域に示されている数値は、その領域内における厚みの平均値を示している。厚みマップ1001の左に示されている「N」は被検眼の鼻側を示し、厚みマップ1001の右側に示されている「T」は被検眼の耳側を示す。
 目盛り1002は、厚みマップ1001にて示しているグラデーションに対する厚みの値を示す。ここでは、20~80[μm]の範囲で厚みが示されていることを表している。目盛り1002は、厚みマップ1001の横方向の長さを示し、角膜の中心を0として-4.5~4.5[mm]の範囲が示されている。パラメータ群1004は、厚みマップ1001に対応して各種パラメータの値を示している。ここでは、厚みの最小値(Min)、厚みの最大値(Max)、厚みの全体の平均値(Avg)、上側の領域と下側の領域の厚みそれぞれの平均値の差分(S-I)、および、T(耳)の上側の領域とN(鼻)の下側の領域の厚みそれぞれの平均値の差分(ST-IN)を示している。なお、厚みの最小値に対応するアイコン〇および最大値に対応するアイコン△が厚みマップ1001にて示されており、それぞれの検出位置を示す。
 なお、表示画面1000にて表示した内容や構成は一例であり、他の構成であってもよい。例えば、パラメータ群1004では、5つのパラメータを示したが、表示させるパラメータはユーザが指定可能に構成されてもよい。また、厚みマップ1001上に表示した数値についても表示の有無を切り替え可能構成されてもよい。また、図10では、1の被検眼に対応した厚みマップ1001を表示したが、両眼や、比較対象(例えば、過去の測定結果)を並べて表示させてもよい。
 以上、本実施形態により、前眼部における角膜を構成する層の局所的な凹凸に対して適切にセグメンテーションが可能となる。特に、曲線近似を用いた方法に比べ、よりボーマン膜の境界などに生じる凹凸を捉え、前眼部のようなOCT測定における撮像の精度が低い場合であっても、精度良く境界を特定することが可能となる。
 <その他の実施形態>
 本発明において、上述した1以上の実施形態の機能を実現するためのプログラムやアプリケーションを、ネットワーク又は記憶媒体等を用いてシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。
 なお、本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の汎用または専用の回路を意味する。
 また、上記に一例として示した方法だけでなく上記の装置を制御する制御方法をコンピュータに実行させるためのプログラムが提供される。このようなプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、例えば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。同様に、ネットワーク上に配置された処理部にて実行された処理結果や、制御指示に基づいて、装置の動作が制御されるような構成であってもよい。
 このように、本発明は上記の実施形態に限定されるものではなく、実施形態の各構成を相互に組み合わせることや、明細書の記載、並びに周知の技術に基づいて、当業者が任意の変更、応用、省略、追加することも本発明の予定するところであり、保護を求める範囲に含まれる。
 以上の通り、本明細書には次の事項が開示されている。
 (1) OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得部(例えば、画像形成部60)と、
 前記断層像に含まれる複数のエッジを検出する検出部(例えば、データ処理部70)と、
 前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合部(例えば、データ処理部70)と、
 前記第1の結合部にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択部(例えば、データ処理部70)と、
 前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合部(例えば、データ処理部70)と、
 前記第2の結合部にて結合されたエッジを用いて、前記断層像の角膜の層の境界を決定する決定部(例えば、データ処理部70)と、
 を有することを特徴とする前眼部解析装置(例えば、眼科システム1、制御処理部50)。
 この構成によれば、前眼部における角膜を構成する層の局所的な凹凸に対して適切にセグメンテーションが可能となる。特に、OCT計測において前眼部の撮像が不明瞭となっている場合でも、ボーマン膜の凹凸形状も精度良く検出することができる。
 (2) 前記検出部は、
 前記断層像において角膜上皮の前面側境界を特定し、
 特定した前記前面側境界から所定の範囲を対象として前記複数のエッジを検出する、
 ことを特徴とする(1)に記載の前眼部解析装置。
 この構成によれば、角膜を構成する複数の層に対して予め規定された範囲にて検出を行うことで、境界の検出に係る処理負荷を低減させ、効率的に境界を検出することが可能となる。
 (3) 前記断層像は、前記被検眼の角膜頂点側の領域である第1の領域と、前記被検眼の角膜の強膜側の領域である第2の領域とに分割され、
 前記第1の結合部は、前記第1の領域に対して処理を行い、
 前記第2の結合部は、前記第1の領域と前記第2の領域に対して処理を行う、
 ことを特徴とする(1)または(2)に記載の前眼部解析装置。
 この構成によれば、角膜の頂点側にてより精度の高い検出処理を行い、その結果に基づいて外側の検出を行う。これにより、境界を検出する領域全体における検出精度を低下させることなく、境界の検出に係る処理負荷を低減させ、効率的に境界を検出することが可能となる。
 (4) 前記第2の結合部は、前記第1の領域におけるエッジを結合する際の結合条件と、前記第2の領域におけるエッジを結合する際の結合条件とを異ならせる、
 ことを特徴とする(3)に記載の前眼部解析装置。
 この構成によれば、境界を検出する領域全体における検出精度を低下させることなく、境界の検出に係る処理負荷を低減させ、効率的に境界を検出することが可能となる。特に、第2の領域においてより効率的にエッジの検出が可能となる。
 (5) 前記第2の結合部は、前記第1の領域において、前記第1のエッジと前記第2のエッジとが前記角膜の幅方向において所定の長さ以上、重複している場合は、前記第1のエッジと前記第2のエッジとのうちの長い方を前記角膜の層の境界として決定する、
 ことを特徴とする(3)または(4)に記載の前眼部解析装置。
 この構成によれば、境界である確度がより高いエッジを、長さに基づいて効率的に特定することが可能となる。
 (6) 前記第2の結合部は、前記第1の領域において、前記第1のエッジと前記第2のエッジとが前記角膜の幅方向において重複していない場合は、前記第1のエッジと前記第2のエッジとを結合して、前記角膜の層の境界として決定する、
 ことを特徴とする(3)~(5)のいずれかに記載の前眼部解析装置。
 この構成によれば、OCT画像に含まれるエッジ間において、幅方向に途切れている場合でも、その間を補間することで、適切にエッジを結合して境界を特定することが可能となる。
 (7) 前記第2の結合部は、前記第1の領域内の、前記OCT計測の撮影条件に基づいて規定される範囲において、前記第1のエッジと前記第2のエッジとが前記角膜の幅方向において重複していない場合は、前記第1のエッジと前記第2のエッジとを結合して、前記角膜の層の境界として決定する、
 ことを特徴とする(6)に記載の前眼部解析装置。
 この構成によれば、OCT画像において、角膜頂点などの位置にアーティファクトが含まれ、アーティファクトにてエッジが抽出できないような場合であっても、エッジを補間し、精度良く境界を特定することが可能となる。
 (8) 前記第1の結合条件と前記第2の結合条件とは、エッジを結合する際の、前記角膜の厚さ方向の距離、前記角膜の幅方向の距離、前記角膜の幅方向における重複度、および、エッジ強度の少なくともいずれかにおける条件が異なる、
 ことを特徴とする(1)~(7)のいずれかに記載の前眼部解析装置。
 この構成によれば、OCT画像に含まれる複数のエッジに対して、複数の結合条件を用いて結合処理を行うことで、適切にエッジを結合して境界を特定することが可能となる。
 (9) 前記第2の結合部は更に、結合したエッジに対してスムージング処理を行う、
 ことを特徴とする(1)~(8)のいずれかに記載の前眼部解析装置。
 この構成によれば、エッジの結合処理の際に段差などの凹凸が生じた場合でも、スムージング処理を行うことで、実際の境界に近づくように調整することが可能となる。
 (10) 前記決定部にて決定した前記角膜の層の境界を、前記断層像に識別可能に重畳表示させる表示制御部(例えば、データ処理部70)を更に有する、
 ことを特徴とする(1)~(9)のいずれかに記載の前眼部解析装置。
 この構成によれば、検出された角膜の層構造を、眼科システムのユーザが容易に把握でき、診断等における効率化を促進することが可能となる。
 (11) 前記決定部にて決定された境界に基づいて、前記被検眼の角膜上皮の厚みを導出する導出部(例えば、データ処理部70)と、
 前記導出部にて導出された厚みを用いて、前記被検眼の角膜上皮の厚みマップを生成する生成部(例えば、データ処理部70)と、
 を更に有する、ことを特徴とする(1)~(9)のいずれかに記載の前眼部解析装置。
 この構成によれば、検出された角膜の層構造に対する厚みをより視覚的に表現でき、眼科システムのユーザの利便性を向上させることが可能となる。
 (12) OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得工程(例えば、ステップS101)と、
 前記断層像に含まれる複数のエッジを検出する検出工程(例えば、ステップS201)と、
 前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合工程(例えば、ステップS203、ステップS205)と、
 前記第1の結合工程にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択工程(例えば、ステップS206)と、
 前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合工程(例えば、ステップS212)と、
 前記第2の結合工程にて結合されたエッジを用いて、前記断層像の角膜の層の境界を決定する決定工程(例えば、ステップS213、ステップS215)と、
 を有することを特徴とする前眼部解析方法。
 この構成によれば、前眼部における角膜を構成する層の局所的な凹凸に対して適切にセグメンテーションが可能となる。特に、OCT計測において前眼部の撮像が不明瞭となっている場合でも、ボーマン膜の凹凸形状も精度良く検出することができる。
 (13) コンピュータ(例えば、眼科システム1)に、
 OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得工程(例えば、ステップS101)、
 前記断層像に含まれる複数のエッジを検出する検出工程(例えば、ステップS201)、
 前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合工程(例えば、ステップS203、ステップS205)、
 前記第1の結合工程にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択工程(例えば、ステップS206)、
 前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合工程(例えば、ステップS212)、
 前記第2の結合工程にて結合されたエッジを用いて、前記前眼部の角膜の層の境界を決定する決定工程(例えば、ステップS213、ステップS215)、
 を実行させるためのプログラム。
 この構成によれば、前眼部における角膜を構成する層の局所的な凹凸に対して適切にセグメンテーションが可能となる。特に、OCT計測において前眼部の撮像が不明瞭となっている場合でも、ボーマン膜の凹凸形状も精度良く検出することができる。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2021年7月26日出願の日本特許出願(特願2021-121653)に基づくものであり、その内容は本出願の中に参照として援用される。
1…眼科システム
10…測定部
20…屈折測定部
30…OCT(Optical Coherence Tomography)部
40…光投射部
50…制御処理部
60…画像形成部
70…データ処理部
80…制御部
90…移動機構
100…撮影部
110…UI(User Interface)部
BS1,BS2…ビームスプリッタ
E…被検眼
Ef…眼底
Ec…角膜

Claims (13)

  1.  OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得部と、
     前記断層像に含まれる複数のエッジを検出する検出部と、
     前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合部と、
     前記第1の結合部にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択部と、
     前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合部と、
     前記第2の結合部にて結合されたエッジを用いて、前記断層像の角膜の層の境界を決定する決定部と、
     を有することを特徴とする前眼部解析装置。
  2.  前記検出部は、
     前記断層像において角膜上皮の前面側境界を特定し、
     特定した前記前面側境界から所定の範囲を対象として前記複数のエッジを検出する、
     ことを特徴とする請求項1に記載の前眼部解析装置。
  3.  前記断層像は、前記被検眼の角膜頂点側の領域である第1の領域と、前記被検眼の角膜の強膜側の領域である第2の領域とに分割され、
     前記第1の結合部は、前記第1の領域に対して処理を行い、
     前記第2の結合部は、前記第1の領域と前記第2の領域に対して処理を行う、
     ことを特徴とする請求項1または2に記載の前眼部解析装置。
  4.  前記第2の結合部は、前記第1の領域におけるエッジを結合する際の結合条件と、前記第2の領域におけるエッジを結合する際の結合条件とを異ならせる、
     ことを特徴とする請求項3に記載の前眼部解析装置。
  5.  前記第2の結合部は、前記第1の領域において、前記第1のエッジと前記第2のエッジとが前記角膜の幅方向において所定の長さ以上、重複している場合は、前記第1のエッジと前記第2のエッジとのうちの長い方を前記角膜の層の境界として決定する、
     ことを特徴とする請求項3または4に記載の前眼部解析装置。
  6.  前記第2の結合部は、前記第1の領域において、前記第1のエッジと前記第2のエッジとが前記角膜の幅方向において重複していない場合は、前記第1のエッジと前記第2のエッジとを結合して、前記角膜の層の境界として決定する、
     ことを特徴とする請求項3から5のいずれか一項に記載の前眼部解析装置。
  7.  前記第2の結合部は、前記第1の領域内の、前記OCT計測の撮影条件に基づいて規定される範囲において、前記第1のエッジと前記第2のエッジとが前記角膜の幅方向において重複していない場合は、前記第1のエッジと前記第2のエッジとを結合して、前記角膜の層の境界として決定する、
     ことを特徴とする請求項6に記載の前眼部解析装置。
  8.  前記第1の結合条件と前記第2の結合条件とは、エッジを結合する際の、前記角膜の厚さ方向の距離、前記角膜の幅方向の距離、前記角膜の幅方向における重複度、および、エッジ強度の少なくともいずれかにおける条件が異なる、
     ことを特徴とする請求項1から7のいずれか一項に記載の前眼部解析装置。
  9.  前記第2の結合部は更に、結合したエッジに対してスムージング処理を行う、
     ことを特徴とする請求項1から8のいずれか一項に記載の前眼部解析装置。
  10.  前記決定部にて決定した前記角膜の層の境界を、前記断層像に識別可能に重畳表示させる表示制御部を更に有する、
     ことを特徴とする請求項1から9のいずれか一項に記載の前眼部解析装置。
  11.  前記決定部にて決定された境界に基づいて、前記被検眼の角膜上皮の厚みを導出する導出部と、
     前記導出部にて導出された厚みを用いて、前記被検眼の角膜上皮の厚みマップを生成する生成部と、
     を更に有する、ことを特徴とする請求項1から9のいずれか一項に記載の前眼部解析装置。
  12.  OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得工程と、
     前記断層像に含まれる複数のエッジを検出する検出工程と、
     前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合工程と、
     前記第1の結合工程にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択工程と、
     前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合工程と、
     前記第2の結合工程にて結合されたエッジを用いて、前記断層像の角膜の層の境界を決定する決定工程と、
     を有することを特徴とする前眼部解析方法。
  13.  コンピュータに、
     OCT計測により形成された被検眼の角膜を含む前眼部の断層像を取得する取得工程、
     前記断層像に含まれる複数のエッジを検出する検出工程、
     前記複数のエッジそれぞれに対し、第1の結合条件に基づいて、エッジ間の結合を行う第1の結合工程、
     前記第1の結合工程にて結合されたエッジの中から、長さに基づき、第1のエッジと第2のエッジを選択する選択工程、
     前記第1のエッジと前記第2のエッジそれぞれを基準として、第2の結合条件に基づいて、エッジ間の結合を行う第2の結合工程、
     前記第2の結合工程にて結合されたエッジを用いて、前記前眼部の角膜の層の境界を決定する決定工程、
     を実行させるためのプログラム。
PCT/JP2022/028662 2021-07-26 2022-07-25 前眼部解析装置、前眼部解析方法、およびプログラム WO2023008385A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22849446.4A EP4378373A1 (en) 2021-07-26 2022-07-25 Anterior eye part analysis device, anterior eye part analysis method, and program
CN202280052549.8A CN117858654A (zh) 2021-07-26 2022-07-25 前眼部解析装置、前眼部解析方法以及程序
US18/423,609 US20240169547A1 (en) 2021-07-26 2024-01-26 Anterior segment analysis apparatus, anterior segment analysis method, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021121653A JP2023017402A (ja) 2021-07-26 2021-07-26 前眼部解析装置、前眼部解析方法、およびプログラム
JP2021-121653 2021-07-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/423,609 Continuation US20240169547A1 (en) 2021-07-26 2024-01-26 Anterior segment analysis apparatus, anterior segment analysis method, and non-transitory computer-readable storage medium

Publications (1)

Publication Number Publication Date
WO2023008385A1 true WO2023008385A1 (ja) 2023-02-02

Family

ID=85086969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028662 WO2023008385A1 (ja) 2021-07-26 2022-07-25 前眼部解析装置、前眼部解析方法、およびプログラム

Country Status (5)

Country Link
US (1) US20240169547A1 (ja)
EP (1) EP4378373A1 (ja)
JP (1) JP2023017402A (ja)
CN (1) CN117858654A (ja)
WO (1) WO2023008385A1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189113A (ja) * 2010-02-17 2011-09-29 Canon Inc 眼科画像表示装置、眼科画像表示方法、プログラム、及び記憶媒体
JP2013248376A (ja) 2012-05-01 2013-12-12 Topcon Corp 眼科装置
JP2014500096A (ja) * 2010-12-03 2014-01-09 オプトビュー,インコーポレーテッド 光干渉断層法を用いたスキャン及び処理
JP2015506772A (ja) * 2012-02-10 2015-03-05 カール ツアイス メディテック アクチエンゲゼルシャフト フルレンジ・フーリエ領域光干渉断層撮影用セグメント化および高性能可視化技術
JP2015066084A (ja) * 2013-09-27 2015-04-13 株式会社トーメーコーポレーション 2次元断層画像処理装置、プログラムおよび2次元断層画像処理方法
JP2016077774A (ja) 2014-10-22 2016-05-16 株式会社トプコン 眼科装置
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP6580448B2 (ja) 2015-10-16 2019-09-25 株式会社トプコン 眼科撮影装置及び眼科情報処理装置
JP2020048857A (ja) 2018-09-27 2020-04-02 国立大学法人 筑波大学 眼測定装置及び方法
JP2020199106A (ja) 2019-06-11 2020-12-17 株式会社トプコン 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2021121653A (ja) 2020-01-31 2021-08-26 Jnc株式会社 コーティング組成物およびその利用品

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189113A (ja) * 2010-02-17 2011-09-29 Canon Inc 眼科画像表示装置、眼科画像表示方法、プログラム、及び記憶媒体
JP2014500096A (ja) * 2010-12-03 2014-01-09 オプトビュー,インコーポレーテッド 光干渉断層法を用いたスキャン及び処理
JP2015506772A (ja) * 2012-02-10 2015-03-05 カール ツアイス メディテック アクチエンゲゼルシャフト フルレンジ・フーリエ領域光干渉断層撮影用セグメント化および高性能可視化技術
JP2013248376A (ja) 2012-05-01 2013-12-12 Topcon Corp 眼科装置
JP2015066084A (ja) * 2013-09-27 2015-04-13 株式会社トーメーコーポレーション 2次元断層画像処理装置、プログラムおよび2次元断層画像処理方法
JP2016077774A (ja) 2014-10-22 2016-05-16 株式会社トプコン 眼科装置
JP6580448B2 (ja) 2015-10-16 2019-09-25 株式会社トプコン 眼科撮影装置及び眼科情報処理装置
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2020048857A (ja) 2018-09-27 2020-04-02 国立大学法人 筑波大学 眼測定装置及び方法
JP2020199106A (ja) 2019-06-11 2020-12-17 株式会社トプコン 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2021121653A (ja) 2020-01-31 2021-08-26 Jnc株式会社 コーティング組成物およびその利用品

Also Published As

Publication number Publication date
US20240169547A1 (en) 2024-05-23
JP2023017402A (ja) 2023-02-07
CN117858654A (zh) 2024-04-09
EP4378373A1 (en) 2024-06-05

Similar Documents

Publication Publication Date Title
US9918634B2 (en) Systems and methods for improved ophthalmic imaging
JP6057567B2 (ja) 撮像制御装置、眼科撮像装置、撮像制御方法及びプログラム
US7828437B2 (en) Fundus oculi observation device and fundus oculi image processing device
US8899749B2 (en) Image processing apparatus, image processing method, image processing system, SLO apparatus, and program
JP4971872B2 (ja) 眼底観察装置及びそれを制御するプログラム
US11826102B2 (en) Ophthalmic device, control method therefor, and recording medium
JP7384987B2 (ja) 眼科装置
JP2023076659A (ja) 眼科装置
JP2015080679A (ja) 画像処理装置、画像処理方法およびプログラム
JP6497872B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2020050308A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP7106304B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7297952B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6853690B2 (ja) 眼科撮影装置
WO2023008385A1 (ja) 前眼部解析装置、前眼部解析方法、およびプログラム
JP2019187551A (ja) 画像処理装置、画像処理方法及びプログラム
JP7204345B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
JP2024099210A (ja) 光コヒーレンストモグラフィ装置、その制御方法、及びプログラム
JP2023148522A (ja) 眼科画像処理装置、眼科画像処理プログラム
JP2019201718A (ja) 画像処理装置、画像処理方法及びプログラム
JP2019084400A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22849446

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280052549.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022849446

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022849446

Country of ref document: EP

Effective date: 20240226