WO2022172563A1 - 眼科情報処理プログラムおよび眼科装置 - Google Patents

眼科情報処理プログラムおよび眼科装置 Download PDF

Info

Publication number
WO2022172563A1
WO2022172563A1 PCT/JP2021/044572 JP2021044572W WO2022172563A1 WO 2022172563 A1 WO2022172563 A1 WO 2022172563A1 JP 2021044572 W JP2021044572 W JP 2021044572W WO 2022172563 A1 WO2022172563 A1 WO 2022172563A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
distribution
layer thickness
data
distribution data
Prior art date
Application number
PCT/JP2021/044572
Other languages
English (en)
French (fr)
Inventor
祥之 山田
Original Assignee
株式会社ニデック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニデック filed Critical 株式会社ニデック
Priority to JP2022581204A priority Critical patent/JPWO2022172563A1/ja
Publication of WO2022172563A1 publication Critical patent/WO2022172563A1/ja
Priority to US18/364,590 priority patent/US20230377234A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present disclosure relates to an ophthalmologic information processing program and an ophthalmologic apparatus.
  • the present disclosure has been made in view of at least one of the problems of the conventional technology, and aims to provide an ophthalmologic information processing program and an ophthalmologic apparatus that make it easy for a user to intuitively understand the state of the tissue of an eye to be examined. This is a technical issue.
  • An ophthalmologic information processing program includes first distribution data representing a two-dimensional distribution of first measurement data in a tissue of an eye to be examined, and a tissue to be measured that differs from the first measurement data.
  • An ophthalmologic information processing program is a layer thickness distribution for acquiring layer thickness distribution data representing a two-dimensional distribution of layer thickness information about the fundus tissue when the fundus tissue of an eye to be examined is viewed from the front.
  • a data acquisition step a data acquisition step; and a stereoscopic representation map generating step of generating a stereoscopic representation map giving a stereoscopic effect to the two-dimensional distribution of the layer thickness information using shadows corresponding to the values of the layer thickness distribution data.
  • An ophthalmologic apparatus executes the above-described ophthalmologic information processing program.
  • the present disclosure will be described below based on the embodiments.
  • the ophthalmologic information processing program according to the embodiment is executed by the processor of the ophthalmologic apparatus to process the measurement data of the subject's eye.
  • a data acquisition step and a superimposed map generation step are executed.
  • the first distribution data and the second distribution data are acquired by the ophthalmologic apparatus.
  • the first distribution data represents a two-dimensional distribution of the first measurement data in the tissue of the eye to be examined.
  • the second distribution data is a two-dimensional distribution of the second measurement data.
  • the second measurement data differs from the first measurement data in the tissue of the eye to be measured.
  • the second distribution data represents a two-dimensional distribution of the second measurement data in the region overlapping the first distribution data. That is, in the subject's eye, the area corresponding to the first distribution data and the area corresponding to the second distribution data overlap each other (when the respective two-dimensional distributions are viewed from the front).
  • each measurement data may be a direct measurement value obtained as a result of eye measurement.
  • the analysis result is not necessarily limited to this, and may be an analysis result obtained through analysis processing for direct measurement values.
  • a two-dimensional graph is generated for each of the first distribution data and the second distribution data, which can be visualized.
  • the two-dimensional graph may be a contour map.
  • a contour map for example, individual values of measured data are graded based on some thresholds, and lines connecting measured data corresponding to the thresholds are represented as contour lines.
  • a superimposed map is generated in the superimposed map generation step.
  • the superimposed map is a contour map representing the first distribution data and a contour map representing the second distribution data superimposed.
  • the first distribution data may be expressed as a contour map in which the pixels in the closed section surrounded by the contour lines are filled with a color or density corresponding to the value of the first measurement data.
  • the second distribution data may be expressed as a wire-frame isoline map.
  • a superimposed map may be created by arranging two contour maps in different display layers so that they overlap each other. At this time, the contour map showing the second wire-frame distribution data is placed in a higher layer than the contour map showing the first distribution data.
  • the examiner can view the first distribution data without being hindered by the second distribution data. Easier to see.
  • the representation format is different between the contour maps representing the first distribution data and the second distribution data, the first distribution data and the second distribution data in each region can be displayed by the user. are easy to understand individually. As a result, for example, it becomes easy to compare the first distribution data and the second distribution data in each region, so that it is easy to find an abnormal point from the two superimposed contour maps.
  • each contour line may be expressed by setting the line type according to the value of the measurement data. For example, the line color, pattern, line thickness, etc. of each contour line may differ according to the value of the measured data.
  • the distribution of measurement data in a two-dimensional area when the fundus is viewed from the front may be represented by the first distribution data and the second distribution data.
  • one of the first distribution data and the second distribution data may represent a two-dimensional distribution of blood vessel information in the fundus tissue of the subject's eye.
  • the other may represent a two-dimensional distribution of layer thickness information about the fundus tissue of the subject's eye.
  • each of the first distribution data and the second distribution data may indicate a distribution of measurement data for one layer among a plurality of layers forming the retina, or may indicate a distribution of several layers combined. can be shown.
  • the blood vessel information may be blood vessel density information that indicates the ratio of blood vessels per unit area (volume or area) (volume ratio or area ratio, that is, blood vessel density).
  • the blood vessel density information may be density information about all detected blood vessels, or may be density information about some blood vessels such as capillaries.
  • the blood vessel information is not necessarily limited to this, and may be information representing other measurement results such as information related to blood vessel dimensions. Moreover, it may be information indicating the change over time of any one of them.
  • the two-dimensional distribution of blood vessel information may be a two-dimensional distribution of one layer among the multiple layers that make up the retina, or a two-dimensional distribution of several layers.
  • a two-dimensional distribution of blood vessel information can be obtained, for example, by image processing a fundus image.
  • three-dimensional motion contrast data captured by an OCT apparatus is exemplified as the fundus image.
  • a two-dimensional distribution of blood vessel information may be acquired based on a front image of the fundus captured by a fundus camera, SLO, or the like.
  • the front image of the fundus may be a fluorescence contrast image or a reflection image based on red or infrared light.
  • the layer thickness information may be, for example, the measured value of the layer thickness, or the result of comparison between the measured value and normal eye data (statistical value of layer thickness in a plurality of normal eyes).
  • the comparison result may be information indicating the degree of divergence between the actual measurement value and normal eye data, and may be represented by, for example, a difference, a ratio, a deviation value, or the like.
  • the layer thickness information may be information indicating a change over time of any of them. Further, the layer thickness information may indicate the thickness of one layer among the plurality of layers forming the retina, or may indicate the total thickness of several layers.
  • the first distribution data and the second distribution data when one of the first distribution data and the second distribution data is a two-dimensional distribution of blood vessel information in the fundus tissue of the eye to be examined, and the other is a two-dimensional distribution of layer thickness information on the fundus tissue of the eye to be examined.
  • superimposed maps for the retinal surface may be generated.
  • a superimposed map of the retinal surface layer is generated based on the first distribution data and the second distribution data including the information of the retinal surface layer.
  • the retinal surface layer referred to here may include at least a retinal nerve fiber layer (NFL) and a retinal ganglion cell layer (GCL).
  • a superimposed map based on the first distribution data and the second distribution data allows the examiner to easily grasp the correlation between the blood vessel distribution and the layer thickness distribution in the retinal surface layer.
  • the thickness of the retinal surface layer decreases due to retinal ganglion cell death, and that the blood vessel density of the retinal surface layer decreases as a secondary change associated with retinal ganglion cell death.
  • recent studies have revealed that some circulatory disorders precede the progression of glaucoma, and this has attracted attention. From the superimposed map on the retinal surface layer, for example, it is expected that the location where the circulatory disturbance occurs prior to the decrease in the layer thickness can be easily confirmed on one map. Therefore, it may be useful not only for confirming the progression of glaucoma, but also for predicting it.
  • the two-dimensional distribution of the blood vessel information is:
  • a contour map is used in which the pixels in the closed section surrounded by the contour lines are filled with the color or density according to the measurement data, and a wire frame contour map is used for the two-dimensional distribution of layer thickness information preferably used.
  • layer thickness information has a wider range of change on the fundus (especially the surface layer of the retina) than blood vessel information.
  • Contour maps representing two-dimensional distributions tend to be simpler maps.
  • the contour map is represented by a wire frame, it is less burdensome for the examiner to interpolate the measurement data of the closed section surrounded by the contour lines in the brain, and the viewability of the superimposed map is improved. Hard to damage. Then, it is possible to more reliably grasp the location where the circulation obstruction occurs prior to the decrease in the layer thickness by the contour map in which the pixels in the closed section surrounded by the contour lines are filled.
  • a contour map is used in which the pixels in the closed section surrounded by contour lines are filled with a color or density corresponding to the measurement data, and layer thickness information is used.
  • a wireframe contour map is used for the two-dimensional distribution of .
  • the two-dimensional distribution of blood vessel information is converted into a two-dimensional distribution of layer thickness information using a wire frame. is represented by a contour map in which the pixels in the closed interval surrounded by the contour lines are filled.
  • the tissues of the subject's eye corresponding to the first distribution data and the second distribution data do not necessarily have to match each other.
  • the first distribution data and the second distribution data may correspond to different depth regions.
  • the first distribution data and the second distribution data may respectively correspond to different depth regions in the fundus.
  • the first distribution data and the second distribution data may correspond to mutually different depth regions in the ocular optical system (between the cornea and the fundus).
  • the ophthalmologic apparatus may acquire the third distribution data.
  • the third distribution data may be measurement data of the subject's eye using a static perimeter.
  • a static perimeter measures the distribution of sensitivity to a visual stimulus for each point on the coordinates of the fundus. Therefore, the two-dimensional distribution of visibility in the fundus is obtained as the third distribution data.
  • the third distribution data indicates, for example, the progression of dysfunction in glaucomatous eyes.
  • a second superimposition map may be generated in the superimposition map generation step.
  • the second superimposed map is generated by further superimposing the visibility map based on the third distribution data on the superimposed map.
  • the first distribution data and the second distribution data on which the superimposed map is based may be acquired based on the three-dimensional image or the front image of the fundus, respectively. That is, it may be morphological information.
  • the measurement data of the eye to be examined by the static perimeter, which is the third distribution data is functional information. Therefore, according to the second superimposed map, it is possible to grasp the state of the fundus in terms of both form and function.
  • first distribution data and the second distribution data are the two-dimensional distribution of blood vessel information and the two-dimensional distribution of layer thickness information on the surface of the retina
  • each position confirmed based on the measurement data of the visual field test
  • the first distribution data and the second distribution data in the superimposed map may be, for example, a combination of the distribution of layer thickness information of all retinal layers and the distribution of blood vessel information near the RPE layer.
  • it is useful for detecting wet AMD. That is, an abnormal portion can be easily confirmed based on the location where neovascularization is occurring in the RPE layer and layer thickness information around the location.
  • a two-dimensional image obtained by OCT-Angiography may be superimposed on the layer thickness map instead of the two-dimensional distribution of blood vessel information.
  • the first distribution data and the second distribution data in the superimposed map may be distribution of layer thickness information of all layers of the retina and distribution of blood vessel information of the surface layer of the retina. It is thought to be useful for detecting branch retinal artery occlusion (BRAO), etc., which is difficult to confirm with fundus camera images in the case of highly myopic eyes.
  • BRAO branch retinal artery occlusion
  • the two-dimensional distribution of blood vessel information may be used as the distribution data, but instead of this, a two-dimensional image obtained by OCT-Angiography may be used.
  • a layer thickness distribution data acquisition step and a stereoscopic representation map generation step are executed.
  • the ophthalmologic apparatus acquires layer thickness distribution data representing a two-dimensional distribution of layer thickness information about the fundus tissue when the fundus tissue of the subject's eye is viewed from the front.
  • the brightness of the region where the value of the layer thickness distribution data decreases as it progresses in a predetermined one-dimensional direction (reference direction) is changed to the region where the value of the layer thickness distribution data increases as it progresses in the same reference direction.
  • a three-dimensional expression map is generated in which the two-dimensional distribution of the layer thickness information is given a three-dimensional effect.
  • the change in the value of the layer thickness distribution data gives the user a three-dimensional effect, compared to the case of using a map in which at least one of color and density only changes according to the value. easier to feel. Therefore, it becomes easier for the user to intuitively grasp the distribution of the layer thickness information.
  • a specific method for generating a stereoscopic representation map based on the layer thickness distribution data can be selected as appropriate. For example, by expressing the shading of an area where the value of the layer thickness distribution data decreases along the reference direction more than the shadow of the area where the value of the layer thickness distribution data increases along the same reference direction, the layer thickness A three-dimensional effect may be given to the two-dimensional distribution of information.
  • the reference direction may be, for example, a predetermined one-dimensional direction or a direction away from the reference point.
  • a specific method for imparting shadows can be selected as appropriate. For example, shadows may be added by lowering the brightness of pixel values, or shadows may be added by adding a predetermined color.
  • the depth of shadow (eg, low brightness, etc.) may be proportional to the amount of decrease in the value of layer thickness distribution data per unit distance in the reference direction (that is, the rate of decrease in value).
  • the reduction rate of the value of the layer thickness distribution data in the reference direction may be proportional to the thinness of the shadow (lowness of lightness) of the area.
  • the three-dimensional effect of the three-dimensional expression map becomes easier to understand.
  • the stereoscopic representation map may be a map obtained by further adding shading according to the rate of increase/decrease in values in the reference direction to the contour map.
  • the contour map for example, individual values of layer thickness distribution data are graded based on several thresholds, and lines connecting measured data corresponding to the thresholds are expressed as contour lines. . In this case, the user can more intuitively grasp the distribution of the layer thickness information by both the three-dimensional effect of the shadows and the contour lines.
  • the pixels in the closed section surrounded by contour lines may be filled with a color or density according to the value of the layer thickness distribution data.
  • the user can more intuitively grasp the distribution of the layer thickness information by the three-dimensional effect of the shadows, the contour lines, and the colors or densities assigned to each of the plurality of closed sections.
  • the value of the layer thickness distribution data acquired in the layer thickness distribution data acquisition step may be the result of comparison between the actually measured value of the layer thickness and normal eye data (statistical value of layer thickness in a plurality of normal eyes).
  • the comparison result may be information indicating the degree of divergence between the actual measurement value and normal eye data, and may be represented by, for example, a difference, a ratio, a deviation value, or the like. In this case, the degree of divergence from normal eye data can be grasped more intuitively by the stereoscopic effect of shadows.
  • the layer thickness information may be information indicating a change over time of any of them. Further, the layer thickness information may indicate information of one layer among a plurality of layers forming the retina, or may indicate a total value of information of a plurality of layers.
  • a blood vessel distribution data acquisition step and a superimposed map generation step may be further executed.
  • blood vessel distribution data acquisition step blood vessel distribution data representing a two-dimensional distribution of blood vessel information in a region of the fundus tissue that overlaps with the layer thickness distribution data is acquired.
  • the blood vessel distribution data is expressed as a blood vessel map in which the pixels in the closed section surrounded by the contour lines are filled with a color or density corresponding to the value of the blood vessel distribution data, and the three-dimensional expression map and the blood vessel map are expressed.
  • a superimposed overlay map is generated.
  • the user appropriately compares the positional relationship between the blood vessel information indicated by the blood vessel map and the layer thickness information indicated by the three-dimensional representation map, and then appropriately changes the value of the layer thickness distribution data according to the three-dimensional effect. can be felt. Therefore, the state of the fundus tissue can be grasped more appropriately.
  • the two-dimensional distribution of blood vessel information may be a two-dimensional distribution of blood vessel information for one layer among a plurality of layers constituting the retina, or a two-dimensional distribution of blood vessel information for an upper slab (boundary) and a lower slab over a plurality of layers. It may be a two-dimensional distribution of vessel information between slabs. Also, the two-dimensional distribution of blood vessel information may be obtained, for example, by image processing a fundus image (three-dimensional motion contrast data captured by an OCT apparatus in the embodiments described below).
  • the blood vessel distribution data may be, for example, data indicating blood flow (running of blood vessels) in a specific layer of the fundus (for example, two-dimensional images obtained by OCT-Angiography, etc.).
  • the user can properly compare the two-dimensional distribution of blood flow and the positional relationship between the two-dimensional distribution and the layer thickness information, and then appropriately feel changes in the value of the layer thickness distribution data with a stereoscopic effect. . Therefore, for example, it becomes easier to make various judgments such as which of the blood flow and the layer thickness has a greater influence on the disease.
  • the two-dimensional distribution of blood vessel information may be stereoscopically displayed using shading.
  • the three-dimensionally displayed blood vessel information makes it easier to grasp the consistency of the positional relationship with other maps.
  • a visibility map superimposition step may be further executed.
  • the visibility map indicates a two-dimensional distribution of measurement results (visibility) of the subject's eye with a static perimeter.
  • the visibility map superimposing step the visibility map is superimposed on the stereoscopic representation map or the superimposed map of the stereoscopic representation map and the blood vessel map.
  • the condition of the subject's eye can be more appropriately understood from both the morphology of the subject's eye ascertained by the stereoscopic representation map and the function of the subject's eye ascertained by the visibility map.
  • FIG. 10 is a diagram for explaining a method of generating a superimposed map based on a layer thickness analysis map and a blood vessel analysis map
  • FIG. 11 is a diagram for explaining a method of generating a superimposed map in the second embodiment
  • FIG. 11 is a diagram for explaining a method of generating a superimposed map in the first modified example
  • FIG. 11 is a diagram for explaining a method of generating a superimposed map in the second modified example
  • OCT analysis apparatus 1 analyzes OCT data acquired by the OCT device 10 .
  • the OCT analysis device 1 includes, for example, a control section 70 .
  • the control unit 70 is realized by, for example, a general CPU (Central Processing Unit) 71, ROM 72, RAM 73, and the like.
  • the ROM 72 stores, for example, an analysis processing program for processing OCT data, a program for controlling the operation of the OCT device 10 to obtain OCT data, initial values, and the like.
  • the RAM 73 temporarily stores various information, for example.
  • control unit 70 is electrically connected to, for example, a storage unit (eg, non-volatile memory) 74, an operation unit 76, a display unit 75, and the like.
  • the storage unit 74 is, for example, a non-transitory storage medium that can retain stored content even when power supply is interrupted.
  • a hard disk drive, a flash ROM, a removable USB memory, or the like can be used as the storage unit 74 .
  • Various operation instructions are input to the operation unit 76 by the examiner.
  • the operation unit 76 outputs a signal to the CPU 71 according to the input operation instruction.
  • At least one of user interfaces such as a mouse, a joystick, a keyboard, and a touch panel may be used for the operation unit 76, for example.
  • the display unit 75 may be a display mounted on the main body of the device 1 or may be a display connected to the main body.
  • a display of a personal computer hereinafter referred to as "PC" may be used.
  • the display unit 75 displays, for example, the OCT data acquired by the OCT device 10, the results of analysis processing on the OCT data, and the like.
  • an OCT device 10 is connected to the OCT analysis apparatus 1 of this embodiment.
  • the OCT analysis apparatus 1 and the OCT device 10 may be housed in the same housing, for example, or may be separate structures.
  • the control unit 70 may acquire OCT data from the connected OCT device 10 .
  • the control unit 70 may acquire the OCT data acquired by the OCT device 10 via a storage medium.
  • the OCT device 10 irradiates the subject's eye E with measurement light and acquires a spectral interference signal between the reflected light and the reference light. Predetermined processing is performed on the spectral interference signal to generate and acquire OCT data.
  • the OCT device 10 mainly includes an OCT optical system 100, for example.
  • the OCT optical system 100 irradiates the subject's eye E with measurement light and detects a spectral interference signal between the reflected light and the reference light.
  • the OCT optical system 100 mainly includes, for example, a measurement light source 102, a coupler (light splitter) 104, a measurement optical system 106, a reference optical system 110, a detector 120, and the like.
  • a measurement light source 102 a measurement light source 102
  • a coupler (light splitter) 104 a measurement optical system 106
  • a reference optical system 110 e.g., a detector 120, and the like.
  • the detailed configuration of the OCT optical system please refer to, for example, Japanese Patent Application Laid-Open No. 2015-131107.
  • the OCT optical system 100 is a so-called optical coherence tomography (OCT) optical system.
  • OCT optical system 100 splits light emitted from a measurement light source 102 into measurement light (sample light) and reference light by a coupler 104 .
  • the divided measurement light is guided to the measurement optical system 106, and the reference light is guided to the reference optical system 110, respectively.
  • the measurement light is guided to the fundus Ef of the subject's eye E via the measurement optical system 106 .
  • the detector 120 receives interference light resulting from synthesis of the measurement light reflected by the subject's eye E and the reference light.
  • the measurement optical system 106 includes, for example, a scanning unit (for example, an optical scanner) 108.
  • the scanning unit 108 may be provided, for example, to scan the fundus in the XY directions (transverse direction) with the measurement light.
  • the CPU 71 controls the operation of the scanning section 108 based on the set scanning position information, and acquires OCT data based on the spectral interference signal detected by the detector 120 .
  • the reference optical system 110 generates reference light that is combined with reflected light obtained by reflection of the measurement light on the fundus oculi Ef.
  • the reference optical system 110 may be of the Michelson type or of the Mach-Zehnder type.
  • the detector 120 detects the state of interference between the measurement light and the reference light.
  • the spectral intensity of the interference light is detected by detector 120, and a depth profile (A-scan signal) in a predetermined range is obtained by Fourier transforming the spectral intensity data. Scanning the measurement light along one scan line on the fundus oculi Ef is called “B scan”.
  • a single B-scan provides two-dimensional OCT data. Three-dimensional OCT data is obtained based on the scanning of the measurement light over a plurality of scan lines. Three-dimensional OCT data may be obtained, for example, based on raster scanning.
  • Spectral-domain OCT SD-OCT
  • Swept-source OCT SS-OCT
  • Time-domain OCT TD-OCT
  • the front imaging optical system 200 images the fundus oculi Ef of the subject's eye E from the front direction (for example, the optical axis direction of the measurement light) to obtain a front image of the fundus oculi Ef.
  • the front imaging optical system 200 may, for example, have a configuration of a scanning laser ophthalmoscope (SLO) (see, for example, JP-A-2015-66242), or may have a configuration of a so-called fundus camera type. (See JP-A-2011-10944).
  • SLO scanning laser ophthalmoscope
  • the OCT optical system 100 may also be used as the front imaging optical system 200 , and a front image may be acquired based on the detection signal from the detector 120 .
  • the fixation target projection unit 300 has an optical system for guiding the line-of-sight direction of the eye E.
  • the projection unit 300 has a fixation target to be presented to the eye E and can guide the eye E.
  • the fixation target projection unit 300 has a visible light source that emits visible light, and two-dimensionally changes the presentation position of the fixation target. As a result, the direction of the line of sight is changed, and as a result, the acquisition site of the OCT data is changed.
  • the OCT analysis apparatus 1 of the present embodiment processes OCT data detected by the OCT device 10 to acquire motion contrast data (hereinafter abbreviated as "MC data").
  • the MC data may be, for example, information capturing blood flow in the subject's eye, changes in retinal tissue, and the like. For example, blood vessels in the subject's eye can be extracted by capturing changes in blood flow.
  • the CPU 71 controls driving of the scanning unit 108 to scan the measurement light in the area A1 on the fundus oculi Ef.
  • the direction of the z-axis is the direction of the optical axis of the measurement light.
  • the direction of the x-axis is perpendicular to the z-axis and the horizontal direction of the subject.
  • the direction of the y-axis is perpendicular to the z-axis and the vertical direction of the subject.
  • the CPU 71 performs a B scan along the scanning lines SL1, SL2, . . . , SLn in the area A1. In this manner, the CPU 71 two-dimensionally scans the measurement light in the xy direction and acquires the A scan signal in the z direction at each scanning position.
  • the CPU 71 When acquiring MC data, the CPU 71 acquires at least two temporally different OCT data for the same position of the subject's eye. For example, in each scanning line, the CPU 71 performs a plurality of B-scans at different times to obtain a plurality of OCT data at different times.
  • FIG. 3(b) shows OCT data acquired when B-scans are performed multiple times at different times on scanning lines SL1, SL2, . . . , SLn.
  • scanning line SL1 is scanned at times T11, T12, . . . , T1N
  • scanning line SL2 is scanned at times T21, T22, . , Tn1, Tn2, . . . , TnN.
  • the CPU 71 acquires a plurality of OCT data at different times for each scanning line, and stores the OCT data in the storage unit 74 .
  • Methods of calculating OCT data for acquiring MC data include, for example, a method of calculating the intensity difference or amplitude difference of complex OCT data, a method of calculating the intensity or amplitude variance or standard deviation of complex OCT data (speckle variance ), a method of calculating the phase difference or variance of the complex OCT data, a method of calculating the vector difference of the complex OCT data, and a method of multiplying the phase difference and the vector difference of the complex OCT signal.
  • a method of calculating OCT data for acquiring MC data include, for example, a method of calculating the intensity difference or amplitude difference of complex OCT data, a method of calculating the intensity or amplitude variance or standard deviation of complex OCT data (speckle variance ), a method of calculating the phase difference or variance of the complex OCT data, a method of calculating the vector difference of the complex OCT data, and a method of multiplying the phase difference and the vector difference of the complex OCT signal.
  • calculation methods for example, refer to
  • the CPU 71 may acquire three-dimensional MC data of the subject's eye E by arranging MC data on different scanning lines.
  • the MC data is not limited to the phase difference, and may be the intensity difference, the vector difference, or the like.
  • the blood vessel region in the MC data may be emphasized (extracted) by image processing.
  • the CPU 71 performs analysis processing on each of the OCT data and MC data.
  • the CPU 71 may perform layer thickness analysis on the OCT data.
  • the CPU 71 may perform segmentation processing to detect layer information from OCT data, and then acquire layer thickness information of the retinal layers of the subject's eye.
  • the layer thickness information is measurement data when the layer thickness is the object of measurement.
  • the layer thickness information may be an actual measurement value of the layer thickness, or may be information indicating a comparison result between the actual measurement value and normal eye data (statistical values of layer thickness in a plurality of normal eyes).
  • the comparison result may be information indicating the degree of divergence between the measured value and the normal eye data, and the comparison result may be represented by, for example, a difference, a ratio, a deviation value, or the like.
  • the layer thickness information may indicate the thickness of one layer (for example, the optic nerve fiber layer) among the multiple layers that make up the retina, or the sum, average, and statistical value of several layers. may indicate either
  • the CPU 71 By analyzing the three-dimensional OCT data, the CPU 71 generates and acquires an analysis map regarding layer thickness.
  • the layer thickness analysis map represents a two-dimensional distribution of layer thickness information in at least one layer of the retina.
  • the layer thickness analysis map includes a thickness map showing the layer thickness, a comparison map showing the comparison result between the layer thickness of the eye to be examined and the layer thickness of the normal eye, and the difference between the layer thickness of the eye to be examined and the layer thickness of the normal eye as the standard deviation. and a difference map showing the difference in thickness from each inspection date.
  • the layer thickness of the normal eye (hereinafter referred to as normal eye data) is pre-stored in the normal eye database.
  • the layer thickness distribution in the retinal surface layer including at least the retinal nerve fiber layer (NFL) and the retinal ganglion cell layer (GCL)
  • the layer thickness analysis map showing the distribution of the comparison results is dealt with.
  • the CPU 71 may analyze the MC data regarding the blood vessel and acquire analysis information regarding the blood vessel.
  • the blood vessel-related analysis information in this embodiment is blood vessel density information.
  • Blood vessel density information is an example of measurement data when blood vessels are measured.
  • the blood vessel density information may be the ratio (volume ratio or area ratio) of blood vessels per unit area (volume or area).
  • the blood vessel analysis information is not necessarily limited to blood vessel density information, and may be information representing other measurement results such as blood vessel dimension information and blood flow velocity information.
  • the analysis results regarding blood vessels may be the analysis results for one of the multiple layers that make up the retina, or the analysis results for several layers collectively.
  • the CPU 71 analyzes the three-dimensional MC data to generate and obtain an analysis map of blood vessels.
  • the blood vessel analysis map represents a two-dimensional distribution of blood vessel analysis information in at least one layer of the retina.
  • blood vessel analysis map For convenience, in the following description, the analysis map related to blood vessels will be referred to as "blood vessel analysis map”.
  • the blood vessel analysis map shows the two-dimensional distribution of blood vessel density in the surface layer of the retina. More specifically, it may be a density map showing the blood vessel density, a difference map showing the difference in density from each inspection date, or the like.
  • each analysis map may be expressed as a contour map.
  • a contour map individual values of measured data are graded based on some thresholds, and lines connecting measured data corresponding to the thresholds are expressed as contour lines.
  • the pixels in the closed section surrounded by the contour lines are filled with the color or density according to the measurement data, or the lines that indicate the threshold without filling are mainly composed (that is, wire frame) or known to
  • the representation format of each map may be the same between when the layer thickness analysis map is displayed alone and when the blood vessel analysis map is displayed alone.
  • the color coding of each map is different from each other.
  • the layer thickness analysis map of this embodiment is color-coded in the order of yellow-green ⁇ yellow ⁇ red as the difference from normal eye data increases.
  • the blood vessel analysis map is color-coded in the order of red, yellow, yellowish green, and blue as the blood vessel density decreases.
  • the CPU 71 also generates a superimposed map based on two types of analysis maps, a layer thickness analysis map and a blood vessel analysis map.
  • a layer thickness analysis map and a blood vessel analysis map regarding the retinal surface layer are superimposed.
  • alignment between maps is appropriately performed based on, for example, information indicating measurement positions on the fundus of each map.
  • the information indicating the measurement position may be, for example, position information with respect to the fixation position at the time of measurement, or may be position information based on a certain fundus front image.
  • the blood vessel analysis map is represented by a color map in which the pixels in the closed section surrounded by contour lines are filled.
  • the layer thickness analysis map is represented by a wireframe color map.
  • a color map represented by a wire frame may be generated by thinning a color map in which pixels in a closed section surrounded by contour lines are filled with each threshold value.
  • a wireframe representation is applied to the entire layer thickness analysis map.
  • thinned contour lines are represented by different colors depending on the value of measurement data (here, layer thickness).
  • the layer thickness analysis map is arranged in a higher layer than the blood vessel analysis map.
  • the layer thickness analysis map placed in the upper layer as a wireframe, even if the color maps are superimposed, the visibility of each map is less likely to be impaired.
  • the OCT analysis apparatus 1 can separately acquire the measurement result of the subject's eye with the perimeter as the third distribution data. As shown in FIG. 5, the CPU 71 can further merge the measurement results from the perimeter onto the superimposed map.
  • the CPU 71 of the OCT analysis apparatus 1 executes analysis processing, stereoscopic representation map acquisition processing, MC data analysis processing, blood vessel map acquisition processing, and superimposition processing.
  • the CPU 71 analyzes the layer thickness of the OCT data, as described above.
  • layer thickness distribution data (a “layer thickness map” in the second embodiment) indicating a two-dimensional distribution of layer thickness information on the fundus tissue is obtained.
  • the layer thickness map of the present embodiment is a map showing the results of comparison between actual layer thickness values obtained by analyzing OCT data and normal eye data (statistical values of layer thickness in a plurality of normal eyes).
  • a map is obtained that shows the distribution of the degree of divergence between the measured value and the normal eye data for the layer thickness of the ganglion cell complex (GCC).
  • GCC ganglion cell complex
  • red, yellow, and green colors are given to each region in descending order of the degree of divergence from the normal eye data.
  • the CPU 71 creates a three-dimensional representation map that imparts a three-dimensional effect to the two-dimensional distribution of layer thickness information by shading based on the layer thickness distribution data. More specifically, the CPU 71 stores the layer thickness distribution data (layer thickness map) in a predetermined one-dimensional reference direction (one-dimensional direction from the lower left to the upper right in the example shown in FIG. 6). The value of the distribution data (in this embodiment, the degree of divergence between the measured value and the normal eye data) decreases, and the shadow (brightness in this example) of the region is measured in the same reference direction as the value of the layer thickness distribution data increases. Express darker (lower brightness in this example) than the shading of the increasing area. As a result, a stereoscopic representation map is generated. Needless to say, the reference direction can be set appropriately. Further, as described above, shading may be added by adjusting the pixel value without adjusting the brightness.
  • the three-dimensional representation map is more sensitive to changes in the value of the layer thickness distribution data. is easy to grasp with a three-dimensional effect. In the present embodiment, the degree of deviation from the normal eye data is intuitively grasped by the stereoscopic effect.
  • the CPU 71 makes the height of the brightness (thinness of the shadow) proportional to the amount of increase in the value of the layer thickness distribution data per unit distance in the reference direction (that is, the rate of increase in the value).
  • a three-dimensional effect is given to the layer thickness distribution data. Therefore, the stereoscopic effect of the stereoscopic representation map becomes easier to understand.
  • the layer thickness map which is a contour map, is additionally given a three-dimensional effect by shading. Therefore, the user can more intuitively grasp the distribution of the layer thickness information from both the three-dimensional effect of the shadows and the contour lines.
  • the pixels in the closed section surrounded by contour lines are filled with a color or density corresponding to the value of the layer thickness distribution data. Therefore, the user can determine the distribution of layer thickness information by the three-dimensional effect of shadows, contour lines, and colors or densities (red, yellow, and green colors in this embodiment) assigned to each of a plurality of closed sections. becomes easier to grasp intuitively.
  • blood vessel distribution data (blood vessel map in the example of FIG. 6) indicating a two-dimensional distribution of blood vessel information in a region of the fundus tissue that overlaps with the layer thickness distribution data is acquired.
  • the first vascular map on the left is for layers from the mid-depth upper slab in the ganglion cell layer (GCL) to the mid-depth lower slab in the inner plexiform layer (IPL). It is a two-dimensional image by OCT-Angiography obtained from MC data.
  • the second blood vessel map on the right side in FIG. 6 is a two-dimensional OCT-Angiography obtained from MC data for layers from the inner limiting membrane (ILM) to the lower slab located in the middle of the depth direction in the GCL. It is an image.
  • ILM inner limiting membrane
  • the visibility map indicates the two-dimensional distribution of the measurement results (visibility) of the eye to be inspected by the static perimeter.
  • the visibility map shown in FIG. 6 is a model ( In this embodiment, based on the known Drasdo model), a two-dimensional distribution of ganglion cell positions corresponding to each of a plurality of stimulus positions in the visual field test is used as the visibility map. Therefore, the user can easily grasp the position of the ganglion cell corresponding to the stimulation position on at least one of the stereoscopic representation map and the blood vessel map.
  • FIG. 5 shows a case where the entire layer thickness analysis map is represented by a wire frame.
  • the wireframe representation may be partially applied.
  • the area where the thinning has progressed the most is represented by a wire frame, and the remaining area is represented by contour lines. It is expressed by filling in the pixels of the enclosed closed section.
  • the layer thickness analysis map there are many cases where the examiner particularly pays attention to the area where the retina is thinned. Therefore, only the relevant region can be transmitted through the blood vessel density map, which makes it easier for the examiner to efficiently check the region that is likely to attract attention.
  • the regions that are thinned with respect to the normal eye data are represented by wire frames, The region with a thick layer is not shown. Even in a region with normal layer thickness, there may be a region with low blood vessel density, which may be an abnormal site other than glaucoma. In such a case, the display mode as shown in FIG. 8 facilitates the confirmation of the abnormal location.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

OCT解析装置1の制御部70は、被検眼Eの網膜表層における血管密度の2次元分布と、層厚の2次元分布と、を取得する。次に、血管密度の2次元分布を、等値線で囲まれた閉区間の画素が血管密度に応じた色又は濃度で塗りつぶされた等値線マップ(血管解析マップ)として表現し、層厚の2次元分布を、ワイヤーフレームによる等値線マップ(層厚解析マップ)として表現する。そして、血管解析マップと層厚解析マップとを重畳することで、重畳マップを生成する。

Description

眼科情報処理プログラムおよび眼科装置
 本開示は、眼科情報処理プログラムおよび眼科装置に関する。
 従来、眼科分野では、被検眼の組織における測定データの2次元分布を、カラーマップ等の2次元グラフとして表現し、表示する手法が知られている。
 一例として、眼科用のOCTでは、2次元グラフとして種々のマップ(例えば、組織の厚みマップ、組織の密度マップ等)が利用されている(例えば、特許文献1を参照)。
特開2017-47127号公報
 種類が異なる複数のマップの相関を取ることで、各領域における異常を確認したり、予測したりすることが期待できる。しかしながら、従来、マップ同士の相関関係をユーザに直感的に理解させることについて、十分検討されていなかった。また、他の問題点として、少なくとも1つの測定データの分布を、2次元のマップを用いてより直感的にユーザに理解させることも、従来の技術では困難だった。
 本開示は、従来技術の問題点の少なくとも一つに鑑みてなされたものであり、被検眼の組織の状態をユーザに直感的に理解させやすい、眼科情報処理プログラムおよび眼科装置を提供することを技術課題とする。
 本開示の第1態様に係る眼科情報処理プログラムは、被検眼の組織における第1測定データの2次元分布を表す第1分布データと、前記第1測定データとは測定対象となる組織が異なる第2測定データの2次元分布であって、前記第1分布データと重なる領域の2次元分布を表す第2分布データと、を取得する測定データ取得ステップと、前記第1分布データを等値線で囲まれた閉区間の画素が前記第1測定データの値に応じた色又は濃度で塗りつぶされた等値線マップとして表現し、第2分布データをワイヤーフレームによる等値線マップとして表現して、2つの等値線マップを重畳した重畳マップを生成する、重畳マップ生成ステップと、を眼科装置のプロセッサに実行させる。
 本開示の第2態様に係る眼科情報処理プログラムは、被検眼の眼底組織を正面から見たときの、前記眼底組織に関する層厚情報の2次元分布を表す層厚分布データを取得する層厚分布データ取得ステップと、前記層厚分布データの値に応じた陰影を用いて、前記層厚情報の2次元分布に立体感を付与した立体表現マップを生成する立体表現マップ生成ステップと、を眼科装置のプロセッサに実行させる。
 本開示の第2態様に係る眼科装置は、上述の眼科情報処理プログラムを実行する。
 本開示によれば、マップ同士の相関関係、および、被検眼の測定データの分布の少なくともいずれかを、ユーザに直感的に理解させやすい。
 以下、本開示を、実施形態に基づいて説明する。実施形態に係る眼科情報処理プログラムは、眼科装置のプロセッサによって実行されることにより、被検眼の測定データが処理される。
 眼科情報処理プログラムでは、少なくとも、データ取得ステップと、重畳マップ生成ス
テップとが、実行される。
 データ取得ステップでは、第1分布データと、第2分布データと、が眼科装置によって取得される。第1分布データは、被検眼の組織における第1測定データの2次元分布を表す。第2分布データは、第2測定データの2次元分布である。第2測定データは、測定対象となる被検眼の組織が、第1測定データとは異なる。また、第2分布データは、第1分布データと重なる領域における、第2測定データの2次元分布を表している。つまり、被検眼において、第1分布データと対応する領域と、第2分布データに対応する領域とが、(それぞれの2次元分布を正面から見たときに)互いに重なっている。なお、それぞれの測定データは、眼測定の結果として取得される直接的な測定値であってもよい。但し、必ずしもこれに限られるものでは無く、直接的な測定値に対する解析処理を経て得られる解析結果であってもよい。
 本実施形態では、第1分布データおよび第2分布データのそれぞれについての2次元グラフが生成され、これにより、視覚化され得る。2次元グラフは、等値線マップであってもよい。等値線マップでは、例えば、測定データの個々の値がいくつかの閾値に基づいて段階化され、閾値に相当する測定データを結ぶ線が等値線として表現される。
 重畳マップ生成ステップでは、重畳マップが生成される。重畳マップは、第1分布データが表現された等値線マップと、第2分布データが表現された等値線マップと、が重畳されている。この場合において、第1分布データは、等値線で囲まれた閉区間の画素が第1測定データの値に応じた色又は濃度で塗りつぶされた等値線マップとして表現されてもよい。また、第2分布データは、ワイヤーフレームによる等値線マップとして表現されてもよい。
 2つの等値線マップが重なり合うように、互いに異なる表示レイヤーに配置することで、重畳マップが作成されてもよい。このとき、ワイヤーフレームによる第2分布データを示す等値線マップは、第1分布データを示す等値線マップに対して、上位のレイヤーに配置される。
 第2分布データがワイヤーフレームによる等値線マップで表現されていることで、2つの等値線マップが重なっていても、第2分布データによって妨げられることなく、第1分布データを検者が視認しやすくなる。また、第1分布データと第2分布データとの各々を表現した等値線マップの間で表現形式が異なっていることで、それぞれの領域における第1分布データと第2分布データとを、ユーザが個別に把握しやすい。その結果、例えば、それぞれの領域における第1分布データと第2分布データとを照らし合わせることが容易となるため、重畳表示された2つの等値線マップから異常個所を発見しやすい。
 なお、ワイヤーフレームによる等値線マップでは、隣り合う等値線で囲まれた閉区間が塗りつぶされていない。また、ワイヤーフレームによる等値線マップは、各々の等値線が測定データの値に応じた線種設定で表現されてもよい。例えば、それぞれの等値線における線の色、パターン、および、線の太さ等が、測定データの値に応じて異なってもよい。
 特に、本実施形態では、眼底を正面から見たときの2次元領域における測定データの分布が、第1分布データおよび第2分布データのそれぞれによって表されていてもよい。また、第1分布データおよび第2分布データのうち、一方は、被検眼の眼底組織における血管情報の2次元分布を表していてもよい。他方は、被検眼の眼底組織に関する層厚情報の2次元分布を表していてもよい。
 また、第1分布データおよび第2分布データのそれぞれは、網膜を構成する複数の層の
うち、1つの層についての測定データの分布を示してもよいし、いくつかの層をあわせた分布を示してもよい。
 血管情報は、単位領域(体積または面積)あたりに血管が占める比率(体積比または面積比、すなわち、血管密度)を示す血管密度情報であってもよい。血管密度情報は、検出された全ての血管についての密度情報であってもよいし、毛細血管等の一部の血管についての、密度情報であってもよい。血管情報は、必ずしもこれに限られるものではなく、血管の寸法に関する情報等の他の計測結果を表す情報であってもよい。また、それらのうち何れかについての経時変化を示す情報であってもよい。
 血管情報に関する2次元分布は、網膜を構成する複数の層のうち、1つの層についての2次元分布であってもよいし、いくつかの層をあわせた2次元分布であってもよい。血管情報に関する2次元分布は、例えば、眼底画像を画像処理することで取得され得る。後述の実施例では、眼底画像として、OCT装置で撮影された3次元モーションコントラストデータを例示している。但し、必ずしもこれに限られるものではなく、眼底カメラやSLO等で撮影された眼底の正面画像に基づいて、血管情報に関する2次元分布が取得されてもよい。この場合、眼底の正面画像は、蛍光造影画像であってもよいし、赤または赤外光に基づく反射画像であってもよい。
 層厚情報は、例えば、層厚の実測値であってもよいし、実測値と正常眼データ(複数の正常眼における層厚の統計値)との比較結果であってもよい。比較結果は、実測値と正常眼データとの乖離の程度を示す情報であってもよく、例えば、差分、割合、および、偏差値等のいずれかによって表現されてもよい。また、層厚情報は、それらのうち何れかについての経時変化を示す情報であってもよい。また、層厚情報は、網膜を構成する複数の層のうち、1つの層での厚みを示してもよいし、いくつかの層の合計を示してもよい。
 例えば、第1分布データおよび第2分布データのうち一方が、被検眼の眼底組織における血管情報の2次元分布であり、他方が、被検眼の眼底組織に関する層厚情報の2次元分布である場合、網膜表層についての重畳マップが生成されてもよい。網膜表層についての重畳マップは、網膜表層の情報を含む第1分布データおよび第2分布データに基づいて生成される。ここでいう網膜表層には、網膜神経線維層(NFL)と網膜神経節細胞層(GCL)とが少なくとも含まれていてもよい。それらの第1分布データおよび第2分布データに基づく重畳マップによって、網膜表層における血管の分布と層厚の分布との相関関係を、検者が容易に把握できるようになる。緑内障では、網膜神経節細胞死によって網膜表層の層厚が減少し、更には、網膜神経節細胞死に伴う2次的な変化として網膜表層の血管密度が減少していくと一般的に考えられている。これに対し、近年の研究から、一部の循環障害は緑内障進行に先行することが明らかになりつつあり、注目されている。上記の網膜表層における重畳マップからは、例えば、層厚の減少に先んじて循環障害が生じている箇所が、1つのマップ上で容易に確認できることが期待される。従って、緑内障の進行状況の確認だけでなく、予測するうえでも役立つ可能性がある。
 なお、被検眼の眼底組織における血管情報の2次元分布と、被検眼の眼底組織に関する層厚情報の2次元分布と、に基づく重畳マップが生成される場合、血管情報の2次元分布については、等値線で囲まれた閉区間の画素が測定データに応じた色又は濃度で塗りつぶされた等値線マップが用いられ、層厚情報の2次元分布については、ワイヤーフレームによる等値線マップが用いられることが好ましい。一般的に、緑内障では、層厚情報は、血管情報と比べて、眼底上で(特に網膜表層)において変化する範囲が広範となって、血管情報の2次元分布と比べて、層厚情報の2次元分布を表す等値線マップは、より単純なマップとなりやすい。このため、等値線マップがワイヤーフレームで表現されても、等値線間で囲まれた閉区間の測定データを検者が脳内で補間するうえで負担が少なく、重畳マッ
プにおける閲覧性が損なわれにくい。そして、層厚の減少に先んじて循環障害が生じている箇所を、等値線間で囲まれた閉区間の画素が塗りつぶされた等値線マップによって、より確実に把握できる。
 緑内障に限らず眼底の異常の多くの場合において、層厚の変化と比べて、血管の変化がバリエーションに富んでいる症例が多いものと考えられる。そのような場合に、血管情報の2次元分布については、等値線で囲まれた閉区間の画素が測定データに応じた色又は濃度で塗りつぶされた等値線マップが用いられ、層厚情報の2次元分布については、ワイヤーフレームによる等値線マップが用いられることが好ましい。但し、必ずしもこれに限られるものでは無い。例えば、血管の変化よりも層厚の変化が遅れていて、層厚の変化がバリエーションに富んでいる症例に対しては、血管情報の2次元分布をワイヤーフレームによって、層厚情報の2次元分布を等値線間で囲まれた閉区間の画素が塗りつぶされた等値線マップによって、それぞれ表現することが適している。
 また、第1分布データおよび第2分布データのそれぞれと対応する被検眼の組織は、必ずしも互いに一致していなくてもよい。第1分布データおよび第2分布データが、互いに異なる深さ領域と対応していてもよい。例えば、眼底において互いに異なる深さ領域と、第1分布データおよび第2分布データがそれぞれ対応していてもよい。また、眼球光学系(角膜から眼底までの間)において互いに異なる深さ領域と、第1分布データおよび第2分布データがそれぞれ対応していてもよい。
 <視野計の測定結果を利用>
 また、更に、データ取得ステップでは、第3分布データを眼科装置が取得してもよい。第3分布データは、静的視野計による被検眼の測定データであってもよい。静的視野計では、眼底の座標上の各点に対して、視覚刺激に対する感度の分布が測定される。よって、第3分布データとして、眼底における視感度の2次元分布が取得される。第3分布データは、例えば、緑内障眼においては、機能障害の進行状況が示される。
 重畳マップ生成ステップでは、第2重畳マップを生成してもよい。第2重畳マップは、第3分布データに基づく視感度マップを、重畳マップに対して、更に重畳することによって生成される。この場合、重畳マップの基となる第1分布データと第2分布データとは、それぞれ、眼底の3次元画像または正面画像に基づいて取得されていてもよい。つまり、形態学的な情報であってもよい。これに対し、第3分布データである静的視野計による被検眼の測定データは、機能的な情報である。従って、第2重畳マップによれば、形態と機能との両面から、眼底の状態を把握できる。
 特に、第1分布データと第2分布データとが網膜表層における、血管情報の2次元分布と層厚情報の2次元分布とである場合は、視野検査の測定データに基づいて確認される各位置での機能障害の状況と血管情報/層厚情報とを照らし合わせることができる。一部の循環障害は緑内障進行に先行するので、視野検査の測定データと血管情報とを照らし合わせることで、今後、機能障害が進行する領域の予測に役立てることが期待される。また、視野検査の測定データと層厚情報とを照らし合わせることで、今後、機能障害が進行する領域または菲薄化が進む領域の予測に役立てることが期待される。それらの予測がフォローアップ検査によって検証されることで、緑内障機序の更なる解明が進むことが期待できる。
 また、重畳マップにおける第1分布データと第2分布データとが、例えば、網膜全層の層厚情報の分布と、RPE層付近の血管情報の分布と、の組合せであってもよい。この場合、滲出型のAMDの発見に有用である。すなわち、RPE層において血管新生が生じている箇所と、その周辺の層厚情報とに基づいて、容易に、異常部を確認できる。なお、こ
のとき、RPE層付近では、血管情報の分布よりも、血管走行を直接的に確認したい場合がある。この場合は、後述するように、血管情報の2次元分布に代えてOCT-Angiographyによる2次元画像が、層厚マップと重畳されてもよい。
 また、重畳マップにおける第1分布データと第2分布データとが、網膜全層の層厚情報の分布と、網膜表層の血管情報の分布とであってもよい。強度近視眼の場合に眼底カメラ画像では確認し難いとされる、網膜動脈分枝閉塞症(BRAO)等の発見などに有用と考えられる。
 なお、本実施形態では、分布データとして血管情報の2次元分布が利用される場合があるが、これに代えて、OCT-Angiographyによる2次元画像が用いられてもよい。
 第2実施形態に係る眼科情報処理プログラムでは、少なくとも、層厚分布データ取得ステップと、立体表現マップ生成ステップとが、実行される。
 層厚分布データ取得ステップでは、被検眼の眼底組織を正面から見たときの、眼底組織に関する層厚情報の2次元分布を表す層厚分布データが、眼科装置によって取得される。立体表現マップ生成ステップでは、所定の1次元方向(基準方向)に進むに従って層厚分布データの値が減少する領域の明度を、同一の基準方向に進むに従って層厚分布データの値が増加する領域の明度よりも低く表現することで、層厚情報の2次元分布に立体感を付与した立体表現マップが生成される。
 第2実施形態の眼科情報処理プログラムによると、色および濃度の少なくともいずれかが値に応じて変化するのみのマップを用いる場合に比べて、層厚分布データの値の変化が立体感によってユーザに実感され易くなる。よって、ユーザは、層厚情報の分布を直感的に把握し易くなる。
 なお、層厚分布データに基づいて立体表現マップを生成するための具体的な方法は、適宜選択できる。例えば、基準方向に進むに従って層厚分布データの値が減少する領域の陰影を、同一の基準方向に進むに従って層厚分布データの値が増加する領域の印影よりも濃く表現することで、層厚情報の2次元分布に立体感を付与してもよい。基準方向は、例えば、所定の一次元方向でもよいし、基準点から離間する方向でもよい。また、陰影を付与するための具体的な方法も、適宜選択できる。例えば、画素値の明度を低下させることで陰影が付与されてもよいし、所定の色を付与することで陰影が付与されてもよい。例えば、基準方向における単位距離当たりの層厚分布データの値の減少量(つまり、値の減少割合)に、陰影の濃さ(例えば、明度の低さ等)を比例させてもよい。換言すると、基準方向における層厚分布データの値の減少割合と、その領域の陰影の薄さ(明度の低さ)を比例させてもよい。この場合、立体表現マップの立体感がさらに分かりやすくなる。
 また、立体表現マップは、基準方向における値の増減割合に応じた陰影を、等値線マップに対してさらに付加したマップであってもよい。前述したように、等値線マップでは、例えば、層厚分布データの個々の値がいくつかの閾値に基づいて段階化され、閾値に相当する測定データを結ぶ線が等値線として表現される。この場合、ユーザは、陰影による立体感と、等値線の両方によって、層厚情報の分布をより直感的に把握し易くなる。
 また、立体表現マップでは、等値線で囲まれた閉区間の画素が、層厚分布データの値に応じた色又は濃度で塗りつぶされていてもよい。この場合、ユーザは、陰影による立体感と、等値線と、複数の閉区間の各々に付与された色または濃度によって、層厚情報の分布をさらに直感的に把握し易くなる。
 層厚分布データ取得ステップで取得される層厚分布データの値は、層厚の実測値と、正常眼データ(複数の正常眼における層厚の統計値)との比較結果であってもよい。比較結果は、実測値と正常眼データとの乖離の程度を示す情報であってもよく、例えば、差分、割合、および、偏差値等のいずれかによって表現されてもよい。この場合、正常眼データとの乖離の程度が、陰影による立体感によって、より直観的に把握される。また、層厚情報は、それらのうち何れかについての経時変化を示す情報であってもよい。また、層厚情報は、網膜を構成する複数の層のうち、1つの層の情報を示してもよいし、複数の層の情報の合算値等を示してもよい。
 第2実施形態に係る眼科情報処理プログラムでは、血管分布データ取得ステップと、重畳マップ生成ステップが、さらに実行されてもよい。血管分布データ取得ステップでは、眼底組織のうち層厚分布データと重なる領域の、血管情報の二次元分布を表す血管分布データが取得される。重畳マップ生成ステップでは、血管分布データを等値線で囲まれた閉区間の画素が血管分布データの値に応じた色又は濃度で塗りつぶされた血管マップとして表現し、立体表現マップと血管マップを重畳した重畳マップが生成される。この場合、ユーザは、血管マップによって示される血管情報と、立体表現マップによって示される層厚情報の各々の位置関係を適切に比較したうえで、層厚分布データの値の変化を立体感によって適切に実感することができる。よって、眼底組織の状態がより適切に把握される。
 血管情報の二次元分布は、網膜を構成する複数の層のうち、1つの層についての血管情報の2次元分布であってもよいし、複数の層に亘る上部のスラブ(境界)と下部のスラブの間の血管情報の2次元分布であってもよい。また、血管情報に関する2次元分布は、例えば、眼底画像(以下説明する実施例では、OCT装置で撮影された3次元モーションコントラストデータ)を画像処理することで得られてもよい。血管分布データは、例えば、眼底における特定の層の血流(血管走行)を示すデータ(例えば、OCT-Angiographyによる2次元画像等)であってもよい。この場合、ユーザは、血流に関する2次元分布と層厚情報に二次元分布の位置関係を適切に比較したうえで、層厚分布データの値の変化を立体感によって適切に実感することができる。よって、例えば、血流と層厚のいずれが疾患に大きく影響しているか等の各種判断を、より容易に行いやすくなる。
 なお、血管情報の二次元分布を陰影によって立体表示させてもよい。この場合、立体的に表示された血管情報によって、他のマップとの間の位置関係の整合性が、より容易に把握される。
 第2実施形態に係る眼科情報プログラムでは、視感度マップ重畳ステップがさらに実行されてもよい。視感度マップは、静的視野計による被検眼の測定結果(視感度)の2次元分布を示す。視感度マップ重畳ステップでは、立体表現マップ、または、立体表現マップと血管マップの重畳マップに対して、視感度マップが重畳される。この場合、立体表現マップによって把握される被検眼の形態と、視感度マップによって把握される被検眼の機能の両面から、被検眼の状態がさらに適切に把握され易くなる。
本実施例の概略を示すブロック図である。 OCTデバイスの光学系の一例を示す図である。 モーションコントラストの取得について説明するための図である。 本実施例の装置の動作の流れを示すフローチャートである。 層厚解析マップと血管解析マップとに基づいて重畳マップを生成する手法を説明するための図である。 第2実施形態における重畳マップの生成手法を説明するための図である。 第1の変形例における重畳マップの生成手法を説明するための図である。 第2の変形例における重畳マップの生成手法を説明するための図である。
 以下、眼科装置および眼科情報処理プログラムの一実施例を、図面を用いて説明する。なお、以下では、眼科装置として、OCT解析装置1を一例として説明する。図1に示すOCT解析装置1は、OCTデバイス10によって取得されたOCTデータを解析処理する。
 OCT解析装置1は、例えば、制御部70を備える。制御部70は、例えば、一般的なCPU(Central Processing Unit)71、ROM72、RAM73、等で実現される。
ROM72には、例えば、OCTデータを処理するための解析処理プログラム、OCTデバイス10の動作を制御してOCTデータを得るためのプログラム、初期値等が記憶される。RAM73は、例えば、各種情報を一時的に記憶する。
 制御部70には、図1に示すように、例えば、記憶部(例えば、不揮発性メモリ)74、操作部76、および表示部75等が電気的に接続されている。記憶部74は、例えば、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、着脱可能なUSBメモリ等を記憶部74として使用することができる。
 操作部76には、検者による各種操作指示が入力される。操作部76は、入力された操作指示に応じた信号をCPU71に出力する。操作部76には、例えば、マウス、ジョイスティック、キーボード、タッチパネル等の少なくともいずれかのユーザーインターフェイスを用いればよい。
 表示部75は、装置1の本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。例えば、パーソナルコンピュータ(以下、「PC」という)のディスプレイを用いてもよい。表示部75は、例えば、OCTデバイス10によって取得されたOCTデータ、および、OCTデータに対する解析処理の結果等を表示する。
 なお、本実施例のOCT解析装置1には、例えば、OCTデバイス10が接続されている。なお、OCT解析装置1は、例えば、OCTデバイス10と同一の筐体に収納された一体的な構成であってもよいし、別々の構成であってもよい。制御部70は、接続されたOCTデバイス10からOCTデータを取得してもよい。制御部70は、OCTデバイス10によって取得されたOCTデータを記憶媒体を介して取得してもよい。
 <OCTデバイス>
 以下、図2に基づいてOCTデバイス10の概略を説明する。例えば、OCTデバイス10は、被検眼Eに測定光を照射し、その反射光と参照光とのスペクトル干渉信号を取得
する。スペクトル干渉信号に対して所定の処理が行われることで、OCTデータが生成され、取得される。OCTデバイス10は、例えば、OCT光学系100を主に備える。
 <OCT光学系>
 OCT光学系100は、被検眼Eに測定光を照射し、その反射光と参照光とのスペクトル干渉信号を検出する。OCT光学系100は、例えば、測定光源102と、カップラー(光分割器)104と、測定光学系106と、参照光学系110と、検出器120等を主に備える。なお、OCT光学系の詳しい構成については、例えば、特開2015-131107号を参考にされたい。
 OCT光学系100は、いわゆる光断層干渉計(OCT:Optical coherence tomography)の光学系である。OCT光学系100は、測定光源102から出射された光をカップラー104によって測定光(試料光)と参照光に分割する。分割された測定光は測定光学系106へ、参照光は参照光学系110へそれぞれ導光される。測定光は測定光学系106を介して被検眼Eの眼底Efに導かれる。その後、被検眼Eによって反射された測定光と,参照光との合成による干渉光を検出器120に受光させる。
 測定光学系106は、例えば、走査部(例えば、光スキャナ)108を備える。走査部108は、例えば、眼底上でXY方向(横断方向)に測定光を走査させるために設けられてもよい。例えば、CPU71は、設定された走査位置情報に基づいて走査部108の動作を制御し、検出器120によって検出されたスペクトル干渉信号に基づいてOCTデータを取得する。参照光学系110は、眼底Efでの測定光の反射によって取得される反射光と合成される参照光を生成する。参照光学系110は、マイケルソンタイプであってもよいし、マッハツェンダタイプであっても良い。
 検出器120は、測定光と参照光との干渉状態を検出する。フーリエドメインOCTの場合では、干渉光のスペクトル強度が検出器120によって検出され、スペクトル強度データに対するフーリエ変換によって所定範囲における深さプロファイル(Aスキャン信号)が取得される。また、眼底Ef上で、測定光を1つのスキャンラインに沿って走査することを「Bスキャン」と呼ぶ。1回のBスキャンによって、2次元OCTデータが得られる。複数のスキャンラインに対する測定光の走査に基づいて、3次元OCTデータが得られる。3次元OCTデータは、例えば、ラスタスキャンに基づいて取得されてもよい。
 なお、OCTデバイス10として、例えば、Spectral-domain OCT(SD-OCT)、Swept-source OCT(SS-OCT)、Time-domain OCT(TD-OCT)等が用いられてもよい。
 <正面撮影光学系>
 正面撮影光学系200は、例えば、被検眼Eの眼底Efを正面方向(例えば、測定光の光軸方向)から撮影し、眼底Efの正面画像を得る。正面撮影光学系200は、例えば、走査型レーザ検眼鏡(SLO)の装置構成であってもよいし(例えば、特開2015-66242号公報参照)、いわゆる眼底カメラタイプの構成であってもよい(特開2011-10944参照)。なお、正面撮影光学系200としては、OCT光学系100が兼用してもよく、検出器120からの検出信号に基づいて正面画像が取得されてもよい。
 <固視標投影部>
 固視標投影部300は、眼Eの視線方向を誘導するための光学系を有する。投影部300は、眼Eに呈示する固視標を有し、眼Eを誘導できる。例えば、固視標投影部300は、可視光を発する可視光源を有し、固視標の呈示位置を2次元的に変更させる。これによって、視線方向が変更され、結果的にOCTデータの取得部位が変更される。
 <モーションコントラストデータの取得>
 本実施例のOCT解析装置1は、例えば、OCTデバイス10によって検出されたOCTデータを処理してモーションコントラストデータ(以下、「MCデータ」と省略する)を取得する。MCデータは、例えば、被検眼の血流、網膜組織の変化などを捉えた情報であってもよい。例えば、血流の変化を捉えることで、被検眼の血管を抽出できる。
 ここで、MCデータを取得する手法の一例を示す。まず、CPU71は、走査部108の駆動を制御し、眼底Ef上の領域A1において測定光を走査させる。なお、図3(a)において、z軸の方向は、測定光の光軸の方向とする。x軸の方向は、z軸に垂直であって被検者の左右方向とする。y軸の方向は、z軸に垂直であって被検者の上下方向とする。
 例えば、CPU71は、領域A1において走査ラインSL1,SL2,・・・,SLnに沿ってBスキャンを行う。このようにして、CPU71は、xy方向に2次元的に測定光を走査させ、各走査位置においてz方向のAスキャン信号を取得する。
 MCデータを取得する場合、CPU71は、被検眼の同一位置に関して時間的に異なる少なくとも2つのOCTデータを取得する。例えば、各走査ラインにおいて、CPU71は、時間の異なる複数回のBスキャンを行い、時間の異なる複数のOCTデータをそれぞれ取得する。
 例えば、図3(b)は、走査ラインSL1,SL2,・・・,SLnにおいて時間の異なる複数回のBスキャンを行った場合に取得されたOCTデータを示している。例えば、図3(b)は、走査ラインSL1を時間T11,T12,・・・,T1Nで走査し、走査ラインSL2を時間T21,T22,・・・,T2Nで走査し、走査ラインSLnを時間Tn1,Tn2,・・・,TnNで走査した場合を示している。例えば、CPU71は、各走査ラインにおいて、時間の異なる複数のOCTデータを取得し、そのOCTデータを記憶部74に記憶させる。
 CPU71は、上記のように、同一位置に関して時間的に異なる複数のOCTデータを取得すると、OCTデータを処理してMCデータを取得する。MCデータを取得するためのOCTデータの演算方法としては、例えば、複素OCTデータの強度差もしくは振幅差を算出する方法、複素OCTデータの強度もしくは振幅の分散もしくは標準偏差を算出する方法(Speckle variance)、複素OCTデータの位相差もしくは分散を算出する方法、複素OCTデータのベクトル差分を算出する方法、複素OCT信号の位相差及びベクトル差分を掛け合わせる方法が挙げられる。なお、演算手法の一つとして、例えば、特開2015-131107号公報を参照されたい。
 CPU71は、異なる走査ラインでのMCデータを並べることによって、被検眼Eの3次元MCデータを取得してもよい。なお、前述のように、MCデータとしては、位相差に限らず、強度差、ベクトル差分等が取得されてもよい。
 本実施例では、画像処理によって、MCデータにおける血管領域が強調(抽出)されてもよい。
 次に、図4~図5を参照して、本実施例のOCT解析装置1によって生成される各種の解析マップについて説明する。
 CPU71は、OCTデータおよびMCデータのそれぞれに対し、解析処理を行う。
 <層厚に関する解析処理>
 例えば、CPU71は、OCTデータに対して層厚に関する解析を行ってもよい。この場合、CPU71は、セグメンテーション処理を行ってOCTデータから層情報を検出したうえで、被検眼の網膜層の層厚情報を取得してもよい。層厚情報は、層厚を測定対象としたときの測定データである。例えば、層厚情報は、層厚の実測値であってもよいし、実測値と正常眼データ(複数の正常眼における層厚の統計値)との比較結果を示す情報であってもよい。比較結果は、実測値と正常眼データとの乖離の程度を示す情報であってもよく、比較結果は、例えば、差分、割合、および、偏差値等のいずれかによって表現されてもよい。また、層厚情報は、網膜を構成する複数の層のうち、1つの層(例えば、視神経線維層)での厚みを示してもよいし、いくつかの層の合計、平均、および、統計値のいずれかを示してもよい。
 CPU71は、3次元OCTデータを解析することで、層厚に関する解析マップを生成および取得する。層厚に関する解析マップは、網膜の少なくともいずれかの層における層厚情報の2次元分布を表す。
 便宜上、以下の説明では、層厚に関する解析マップを「層厚解析マップ」と称する。
 層厚解析マップは、層厚を示す厚みマップ、被検眼の層厚と正常眼の層厚との比較結果を示す比較マップ、被検眼の層厚と正常眼の層厚とのずれを標準偏差にて示すデビエーションマップ、各検査日との厚みの差分を示す差分マップ、であってもよい。なお、正常眼の層厚(以下、正常眼データと称する)は、正常眼データベースに予め記憶されている。
 以下の説明では、特に断りが無い限り、網膜表層(網膜神経線維層(NFL)と網膜神
経節細胞層(GCL)とが少なくとも含まれる)における層厚の分布であって、正常眼データとの比較結果の分布を示した、層厚解析マップについて取り扱う。
 <血管に関する解析処理>
 また、例えば、CPU71は、MCデータに対して血管に関する解析を行い、血管に関する解析情報を取得してもよい。特に断りが無い限り、本実施例にける血管に関する解析情報は、血管密度情報であるものとする。血管密度情報は、血管を測定対象としたときの測定データの一例である。血管密度情報は、単位領域(体積または面積)あたりに血管が占める比率(体積比または面積比)であってもよい。血管に関する解析情報は、必ずしも血管密度情報に限られるものではなく、血管の寸法に関する情報や、血流速度に関する情報等の他の計測結果を表す情報であってもよい。
 血管に関する解析結果は、網膜を構成する複数の層のうち、1つの層についての解析結果であってもよいし、いくつかの層をまとめて解析した解析結果であってもよい。
 CPU71は、3次元MCデータを解析することで、血管に関する解析マップを生成および取得する。血管に関する解析マップは、網膜の少なくともいずれかの層における血管に関する解析情報の2次元分布を表す。
 便宜上、以下の説明では、血管に関する解析マップを「血管解析マップ」と称する。
 本実施例では、血管解析マップによって、網膜表層における血管密度の2次元分布が示される。詳細には、血管密度を示す密度マップであってもよいし、各検査日との密度の差分を示す差分マップ、であってもよいし、その他であってもよい。
 図5で示すように、それぞれの解析マップは、等値線マップとして表現されてもよい。等値線マップでは、測定データの個々の値がいくつかの閾値に基づいて段階化され、閾値に相当する測定データを結ぶ線が等値線として表現される。
 等値線マップの表現形式として、等値線で囲まれた閉区間の画素を、測定データに応じた色又は濃度で塗りつぶしたり、塗りつぶしせずに閾値を示す線を主体に構成(つまり、ワイヤーフレームで構成)したり、することが知られている。層厚解析マップが単独で表示される場合と、血管解析マップが単独で表示される場合との間で、それぞれのマップの表現形式は同一であってもよい。
 但し、それぞれのマップのカラーコーディングは互いに異なっていることが好ましい。一例として、本実施例の層厚解析マップは、正常眼データとの違いが大きくなるにつれて、黄緑⇒黄⇒赤の順で色分けされる。また、血管解析マップについては、血管密度が小さくなるにつれて、赤⇒黄⇒黄緑⇒青の順で色分けされる。
 <重畳マップの作成>
 また、CPU71は、層厚解析マップと血管解析マップとの2種類の解析マップに基づいて、重畳マップを生成する。重畳マップでは、網膜表層に関する層厚解析マップと血管解析マップとが重畳されている。なお、マップ間の位置合わせは、例えば、各マップの眼底上の測定位置を示す情報に基づいて、適宜行われる。測定位置を示す情報は、例えば、測定時の固視位置に対する位置情報であってもよいし、ある眼底正面画像を基準とする位置情報であってもよい。
 図5に示す重畳マップでは、血管解析マップについては、等値線で囲まれた閉区間の画素が塗りつぶされたカラーマップによって表現されている。一方、重畳マップでは、層厚解析マップについては、ワイヤーフレームによるカラーマップによって表現されている。一例として、ワイヤーフレームで表現されるカラーマップは、等値線で囲まれた閉区間の画素が塗りつぶされたカラーマップを各閾値で細線化することで、生成されてもよい。本実施例では、層厚解析マップ全体にワイヤーフレームによる表現が適用される。ワイヤーフレームで表現されるカラーマップは、細線化された等値線が、測定データの値(ここでは層厚)に応じて色分けされて表現される。図5に示す重畳マップでは、血管解析マップに対して層厚解析マップがより上位のレイヤーに配置される。上位のレイヤーに配置される層厚解析マップがワイヤーフレームで表現されることで、カラーマップ同士が重畳されていても、それぞれのマップの視認性が損われにくくなる。その結果、それぞれの領域における網膜表層における血管密度と層厚とを照らし合わせることが容易となる。これにより、例えば、網膜表層の層厚減少と循環障害とが生じている箇所において機能異常の発生を推測でき、緑内障の進行状況を確認できる。また、層厚減少と循環障害とが生じている箇所の分布などから、緑内障の進行を把握でき、更には、進行を予測できる可能性がある。
 <視野計の測定結果を重畳>
 また、更に、OCT解析装置1は、視野計による被検眼の測定結果を、第3分布データとして別途取得できる。図5に示すように、CPU71は、視野計による測定結果を、更に、重畳マップ上にマージ可能である。
 <第2実施形態>
 次に、図6を参照して、第2実施形態について説明する。第2実施形態の眼科装置等の構成・処理の少なくとも一部には、前述した眼科装置と同様の構成・処理を採用できる。従って、以下では、前述した実施形態と同様の構成・処理を採用できる点については、説明を省略または簡略化する。
 第2実施形態では、OCT解析装置1のCPU71は、解析処理、立体表現マップ取得処理、MCデータ解析処理、血管マップ取得処理、および重畳処理を実行する。
 解析処理では、CPU71は、前述したように、OCTデータに対して層厚に関する解析を実行する。その結果、眼底組織に関する層厚情報の二次元分布を示す層厚分布データ(第2実施形態では「層厚マップ」)が取得される。本実施形態の層厚マップは、OCTデータに対する解析によって得られた層厚の実測値と、正常眼データ(複数の正常眼における層厚の統計値)との比較結果を示すマップである。詳細には、本実施形態では、神経節細胞複合体(GCC)の層厚について、実測値と正常眼データの乖離の程度の分布を示すマップが取得される。図6に示す例では、正常眼データとの乖離の程度が大きい順に、赤、黄色、緑の色が各領域に付与されている。
 立体表現マップ取得処理では、CPU71は、層厚分布データに基づいて陰影を付けることで、層厚情報の二次元分布に立体感を付与した立体表現マップを生成する。詳細には、CPU71は、層厚分布データ(層厚マップ)のうち、所定の一次元の基準方向(図6に示す例では、図の左下から右上に向かう一次元方向)に進むに従って層厚分布データの値(本実施形態では、実測値と正常眼データとの乖離の程度)が減少する領域の陰影(この例では明度)を、同一の基準方向に進むに従って層厚分布データの値が増加する領域の陰影よりも濃く(この例では、明度を低く)表現する。その結果、立体表現マップを生成する。なお、基準方向が適宜設定できることは言うまでもない。また、前述したように、明度を調整せずに、画素値を調整することで陰影を付けてもよい。
 図6に示すように、色および濃度の少なくともいずれかが層厚分布データの値に応じて変化するのみの層厚マップに比べて、立体表現マップの方が、層厚分布データの値の変化を立体感によって把握し易い。本実施形態では、正常眼データからの乖離の程度が、立体感によって直感的に把握される。
 本実施形態では、CPU71は、基準方向における単位距離当たりの層厚分布データの値の増加量(つまり、値の増加割合)に、明度の高さ(陰影の薄さ)を比例させることで、層厚分布データに立体感を付与している。従って、立体表現マップの立体感がより分かりやすくなる。また、本実施形態では、等値線マップである層厚マップに対して、陰影による立体感がさらに付加されている。従って、ユーザは、陰影による立体感と、等値線の両方によって、層厚情報の分布をより直感的に把握し易くなる。さらに、本実施形態の立体表現マップでは、等値線で囲まれた閉区間の画素が、層厚分布データの値に応じた色又は濃度で塗りつぶされている。よって、ユーザは、陰影による立体感と、等値線と、複数の閉区間の各々に付与された色または濃度(本実施形態では、赤、黄、緑の色)によって、層厚情報の分布をさらに直感的に把握し易くなる。
 MCデータ解析処理および血管マップ取得処理では、CPU71は、前述したMCデータに対して血管に関する解析処理を実行する。さらに、眼底組織のうち層厚分布データと重なる領域の、血管情報の二次元分布を示す血管分布データ(図6の例では血管マップ)が取得される。図6の例では、2つの血管マップが取得されている。左側の第1血管マップは、神経節細胞層(GCL)における深さ方向の中間に位置する上部スラブから、内網状層(IPL)における深さ方向の中間に位置する下部スラブまでの層についてのMCデータから得られる、OCT-Angiographyによる2次元画像である。また、図6における右側の第2血管マップは、内境界膜(ILM)から、GCLにおける深さ方向の中間に位置する下部スラブまでの層についてのMCデータから得られる、OCT-Angiographyによる2次元画像である。
 重畳処理では、立体表現マップに対して、血管マップおよび視感度マップの少なくともいずれかが重畳表示される。図6に示す例では、最下層から順に、カラーの眼底画像、立体表現マップ、第2血管マップ、第1血管マップ、及び視感度マップが、位置合わせされた状態で重畳されている。前述したように、視感度マップは、静的視野計による被検眼の測定結果(視感度)の2次元分布を示す。なお、図6に示す視感度マップは、視細胞の位置と、視細胞に対応する(つまり、視細胞からの信号が伝達される)神経節細胞の位置ずれの方向および距離を規定するモデル(本実施形態では、公知のDrasdoモデル)に基づいて、視野検査における複数の刺激位置の各々に対応する神経節細胞の位置の二次元分布が、視感度マップとして用いられている。よって、ユーザは、立体表現マップおよび血管マップの少なくともいずれかにおいて、刺激位置に対応する神経節細胞の位置を容易に把握することができる。
 <変形例>
 以上、実施形態に基づいて説明したが、本開示は、必ずしも実施例に限定されるものではなく、種々の変形が可能である。
 例えば、実施例として図5には、層厚解析マップ全体がワイヤーフレームで表現された
場合が示されている。しかし、必ずしもこれに限られるものではなく、ワイヤーフレームでの表現は部分的に適用されてもよい。
 例えば、図7では、層厚解析マップのグレーディングの中で、最も菲薄化が進んだ領域(「赤」で色付けされる領域)についてはワイヤーフレームで表現し、残りの領域については等値線で囲まれた閉区間の画素を塗りつぶして表現している。層厚解析マップのユースケースとして、検者は網膜が菲薄化している領域を特に注目するケースが多い。このため、当該領域のみが血管密度マップを透過できることで、検者が注目しやすい領域を効率よく確認しやすくなる。
 また、図8では、層厚解析マップのグレーディングの中で、正常眼データに対して菲薄化している領域(「赤」および「黄」で色付けされる領域)についてはワイヤーフレームで表現し、正常な層厚の領域については非表示としている。正常な層厚の領域でも、血管密度が低い領域が存在する場合があり、その場合は、緑内障以外の異常箇所である可能性がある。図8のような表示態様では、そのような場合に、当該異常箇所を好適に確認しやすい。
 ワイヤーフレームで表現される上位レイヤーの分布マップ(実施例では、層厚解析マップ)において、どの区間(閾値によって区切られる測定データにおける区間)をワイヤーフレームで表現するかについては、検者による操作入力に基づいて適宜切換可能であってもよい。

Claims (9)

  1.  被検眼の組織における第1測定データの2次元分布を表す第1分布データと、被検眼の組織において前記第1測定データとは測定対象が異なる第2測定データの2次元分布であって、前記第1分布データと重なる領域の2次元分布を表す第2分布データと、を取得する測定データ取得ステップと、
     前記第1分布データを等値線で囲まれた閉区間の画素が前記第1測定データの値に応じた色又は濃度で塗りつぶされた等値線マップとして表現し、第2分布データをワイヤーフレームによる等値線マップとして表現して、2つの等値線マップを重畳した重畳マップを生成する、重畳マップ生成ステップと、
    を眼科装置のプロセッサに実行させる眼科情報処理プログラム。
  2.  前記第1分布データおよび前記第2分布データは、眼底を正面から見たときの2次元領域における測定データの分布を表しており、前記第1分布データおよび第2分布データのうち、一方は、被検眼の眼底組織における血管情報の2次元分布を表し、他方は、前記眼底組織に関する層厚情報の2次元分布を表す、請求項1記載の眼科画像処理プログラム。
  3.  前記血管情報は血管密度であり、前記層厚情報は、既知の正常眼データにおける層厚の値と、被検眼における層厚の実測値との比較結果である、請求項2記載の眼科情報処理プログラム。
  4.  前記重畳マップ生成ステップでは、血管密度の分布を等値線で囲まれた閉区間の画素が血管密度に応じた色又は濃度で塗りつぶされた等値線マップと、層厚に関する前記比較結果の分布を表現したワイヤーフレームによる等値線マップと、による重畳マップを生成する請求項3記載の眼科情報処理プログラム。
  5.  前記測定データ取得ステップでは、網膜表層の情報を少なくとも含んだ前記第1分布データおよび前記第2分布データを取得し、前記重畳マップを生成ステップでは、網膜表層についての前記重畳マップを、前記第1分布データおよび前記第2分布データに基づいて生成する請求項2~4の何れかに記載の眼科情報処理プログラム。
  6.  前記取得ステップでは、静的視野計による被検眼の測定データであり、眼底における視感度の2次元分布を表す第3分布データを更に取得し、
     前記重畳マップ生成ステップでは、第3分布データに基づく視感度マップを、前記重畳マップに対して、更に重畳した第2重畳マップを生成する、請求項2~5の何れかに記載の眼科情報処理プログラム。
  7.  被検眼の眼底組織を正面から見たときの、前記眼底組織に関する層厚情報の2次元分布を表す層厚分布データを取得する層厚分布データ取得ステップと、
     前記層厚分布データの値に応じた陰影を用いて、前記層厚情報の2次元分布に立体感を付与した立体表現マップを生成する立体表現マップ生成ステップと、
    を眼科装置のプロセッサに実行させる眼科情報処理プログラム。
  8.  前記眼底組織のうち前記層厚分布データと重なる領域の、血管情報の二次元分布を表す血管分布データを取得する血管分布データ取得ステップと、
     前記血管分布データを等値線で囲まれた閉区間の画素が前記血管分布データの値に応じた色又は濃度で塗りつぶされた血管マップとして表現し、前記立体表現マップと前記血管マップを重畳した重畳マップを生成する重畳マップ生成ステップと、
    をさらに前記眼科装置の前記プロセッサに実行させる、請求項7記載の眼科情報処理プログラム。
  9.  請求項1から8のいずれかに記載の眼科情報処理プログラムを実行する眼科装置。
PCT/JP2021/044572 2021-02-12 2021-12-03 眼科情報処理プログラムおよび眼科装置 WO2022172563A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022581204A JPWO2022172563A1 (ja) 2021-02-12 2021-12-03
US18/364,590 US20230377234A1 (en) 2021-02-12 2023-08-03 Ophthalmic information processing method, ophthalmic apparatus, and storage medium storing ophthalmic information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-020413 2021-02-12
JP2021020413 2021-02-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/364,590 Continuation US20230377234A1 (en) 2021-02-12 2023-08-03 Ophthalmic information processing method, ophthalmic apparatus, and storage medium storing ophthalmic information processing program

Publications (1)

Publication Number Publication Date
WO2022172563A1 true WO2022172563A1 (ja) 2022-08-18

Family

ID=82838616

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044572 WO2022172563A1 (ja) 2021-02-12 2021-12-03 眼科情報処理プログラムおよび眼科装置

Country Status (3)

Country Link
US (1) US20230377234A1 (ja)
JP (1) JPWO2022172563A1 (ja)
WO (1) WO2022172563A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012075640A (ja) * 2010-09-30 2012-04-19 Nidek Co Ltd 眼科観察システム
JP2014217423A (ja) * 2013-05-01 2014-11-20 キヤノン株式会社 光干渉断層装置
JP2018020192A (ja) * 2017-10-06 2018-02-08 キヤノン株式会社 画像処理システム、処理方法及びプログラム
JP2019146683A (ja) * 2018-02-26 2019-09-05 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2019150486A (ja) * 2018-03-06 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2019208845A (ja) * 2018-06-04 2019-12-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US20200394789A1 (en) * 2019-06-12 2020-12-17 Carl Zeiss Meditec Inc Oct-based retinal artery/vein classification

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012075640A (ja) * 2010-09-30 2012-04-19 Nidek Co Ltd 眼科観察システム
JP2014217423A (ja) * 2013-05-01 2014-11-20 キヤノン株式会社 光干渉断層装置
JP2018020192A (ja) * 2017-10-06 2018-02-08 キヤノン株式会社 画像処理システム、処理方法及びプログラム
JP2019146683A (ja) * 2018-02-26 2019-09-05 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2019150486A (ja) * 2018-03-06 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2019208845A (ja) * 2018-06-04 2019-12-12 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US20200394789A1 (en) * 2019-06-12 2020-12-17 Carl Zeiss Meditec Inc Oct-based retinal artery/vein classification

Also Published As

Publication number Publication date
JPWO2022172563A1 (ja) 2022-08-18
US20230377234A1 (en) 2023-11-23

Similar Documents

Publication Publication Date Title
US10152807B2 (en) Signal processing for an optical coherence tomography (OCT) apparatus
JP6726734B2 (ja) 画像解析のためのシステム
EP2786698B1 (en) Ophthalmologic apparatus
JP6624945B2 (ja) 画像形成方法及び装置
EP3216389B1 (en) Optical coherence tomography apparatus, control method for optical coherence tomography apparatus, and non-transitory tangible medium
JP6922152B2 (ja) 眼科解析装置、眼科解析プログラム
US10674909B2 (en) Ophthalmic analysis apparatus and ophthalmic analysis method
US10769789B2 (en) Image processing apparatus and image processing method
JP6627342B2 (ja) Octモーションコントラストデータ解析装置、octモーションコントラストデータ解析プログラム。
US9370301B2 (en) Ophthalmologic apparatus
JP6922151B2 (ja) 眼科解析装置、眼科解析プログラム
US10758122B2 (en) Volume analysis and display of information in optical coherence tomography angiography
US20170119244A1 (en) Oct data processing apparatus and oct data processing program
JP2016055122A (ja) 光コヒーレンストモグラフィー装置、oct解析処理装置、及びプログラム
JP2020049231A (ja) 情報処理装置及び情報処理方法
WO2022172563A1 (ja) 眼科情報処理プログラムおよび眼科装置
JP2019103762A (ja) Octデータ解析装置、およびoctデータ解析プログラム
JP6753052B2 (ja) Octデータ処理装置、およびoctデータ処理プログラム
JP2020044362A (ja) Octモーションコントラストデータ解析装置、octモーションコントラストデータ解析プログラム。
JP6437038B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2024034312A (ja) 眼科情報処理プログラムおよび眼科装置
JP6849780B2 (ja) 眼科装置、表示制御方法およびプログラム
JP2023023278A (ja) 眼科用画像処理プログラムおよび眼科用画像処理装置
JP2017086183A (ja) Octデータ処理装置、およびoctデータ処理プログラム
JP2019103763A (ja) Octデータ解析装置、およびoctデータ解析プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21925807

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022581204

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21925807

Country of ref document: EP

Kind code of ref document: A1