WO2019102740A1 - 眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム - Google Patents

眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2019102740A1
WO2019102740A1 PCT/JP2018/038121 JP2018038121W WO2019102740A1 WO 2019102740 A1 WO2019102740 A1 WO 2019102740A1 JP 2018038121 W JP2018038121 W JP 2018038121W WO 2019102740 A1 WO2019102740 A1 WO 2019102740A1
Authority
WO
WIPO (PCT)
Prior art keywords
atrophy
display
unit
region
image
Prior art date
Application number
PCT/JP2018/038121
Other languages
English (en)
French (fr)
Inventor
寛一 ▲徳▼田
太樹 相見
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to EP18881193.9A priority Critical patent/EP3714768A4/en
Publication of WO2019102740A1 publication Critical patent/WO2019102740A1/ja
Priority to US16/878,631 priority patent/US11832884B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1005Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring distances inside the eye, e.g. thickness of the cornea
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the analysis unit identifies a plurality of layer regions in the A scan direction based on the data; The ratio of the integrated value of the pixel value in the A scan direction of the layer region closer to the sclera than the Bruch's membrane specified by the segmentation processing unit to the integrated value of the pixel value in the A scan direction of the layer region closer to the cornea than the Bruch's membrane And a distribution information generation unit that generates distribution information of the above, and identifies the atrophy region based on the distribution information.
  • the analyzing step generates morphological information that generates morphological information representing the morphology of the atrophic region by analyzing the data.
  • the display step causes the display unit to display an image representing temporal change of the form information generated based on a plurality of the form information.
  • Swept source OCT divides the light from a wavelength sweeping (wavelength scanning) light source into measurement light and reference light, and causes the return light of measurement light that has passed through the object to be measured to interfere with the reference light to generate interference light
  • the interference light is detected by a balanced photodiode or the like, and the detection data collected according to the sweeping of the wavelength and the scanning of the measurement light is subjected to Fourier transformation or the like to form an image.
  • Spectral domain OCT divides light from a low coherence light source into measurement light and reference light, causes return light of measurement light that has passed through the object to be measured to interfere with the reference light, and generates interference light.
  • the spectral distribution is detected by a spectroscope, and the detected spectral distribution is subjected to Fourier transform or the like to form an image.
  • the communication unit 14 receives the control from the control unit 11 and executes communication interface processing for transmitting or receiving information with the ophthalmologic information processing apparatus 100.
  • FIG. 3 shows a functional block diagram of the ophthalmologic information processing apparatus 100.
  • FIG. 4 shows a functional block diagram of the analysis unit 200 of FIG.
  • the ophthalmologic information processing apparatus 100 performs analysis processing on each of a plurality of time-series data of the fundus of the subject's eye collected by the ophthalmologic apparatus 10 on different days.
  • the ophthalmologic information processing apparatus 100 associates the plurality of analysis results obtained by the analysis processing with the subject or the eye to be examined and the examination date (examination date and time), and stores the result in the storage unit 112 described later.
  • the ophthalmologic information processing apparatus 100 according to some embodiments associates each of the obtained plurality of analysis results with the eye to be examined and the examination date, and stores the result in a storage device connected via a predetermined network.
  • the ophthalmologic information processing apparatus 100 displays a plurality of analysis results obtained by the analysis process in time series.
  • the image forming unit 120 receives control from the control unit 110, and forms a B-scan image, a C-scan image, a projection image, a shadowgram, and the like from the three-dimensional OCT data acquired by the ophthalmologic apparatus 10.
  • the image forming unit 120 can form the above-described image as the image forming unit 13 does.
  • the segmentation processing unit 201 specifies a plurality of layer regions in the A scan direction based on the data of the eye to be examined acquired by the ophthalmologic apparatus 10.
  • the segmentation processing unit 201 specifies a plurality of partial data sets corresponding to a plurality of tissues of an eye to be examined by analyzing three-dimensional OCT data.
  • Segmentation processing is image processing for identifying a specific tissue or tissue boundary.
  • the segmentation processing unit 201 obtains the gradient of the pixel value (brightness value) in each A-scan image included in the OCT data, and identifies the position where the gradient is large as the tissue boundary.
  • the A-scan image is one-dimensional image data extending in the depth direction of the fundus.
  • the depth direction of the fundus is defined as, for example, the Z direction, the incident direction of the OCT measurement light, the axial direction, the optical axis direction of the interference optical system, or the like.
  • the distribution information generation unit 203 obtains, for each A scan, a contrast ratio based on the pixel values of the first area and the second area specified by the area specification unit 202, in the fundus plane (plane orthogonal to the A scan direction). Generate two-dimensional distribution information of contrast ratio. In some embodiments, the distribution information generation unit 203 determines the ratio of the integrated value of the pixel values of the first area identified by the area identification unit 202 to the integrated value of the pixel values of the second area for each A scan. Generate distribution information. The distribution information generation unit 203 according to some embodiments contrasts the ratio of the integrated value of the pixel value in the A scan direction of the second area to the integrated value of the pixel value in the A scan direction of the first area for each A scan. It calculates
  • the two-dimensional distribution information of the contrast ratio is hereinafter referred to as a contrast map.
  • the layer thickness distribution information generation unit 205 includes an inner limiting membrane, a nerve fiber layer (NFL), a ganglion cell layer (GCL), an inner plexiform layer (IPL), an inner granular layer (INL), and an outer layer.
  • Reticular layer (OPL), outer granular layer (ONL), outer limiting membrane (ELM), RPE, choroid, sclera, at least one of choroid-sclera interface (CSI), or two or more adjacent layers Generate two-dimensional distribution information of thickness.
  • the information indicating temporal change includes a regression line or regression curve obtained by regression analysis, a p value, a predicted value of an analysis result at a predetermined future time, event information, normal eye data, and the like. It includes information indicating temporal change based on it.
  • the target of analysis processing is designated using the manipulation device 180.
  • the alignment process includes, for example, a process of detecting a feature from both images and a process of aligning both images with respect to both features.
  • the registration processing is processing for identifying the position of an image representing a map-like atrophy region in the front image or the tomogram using position information of the map-like atrophy region in the front image or the tomogram of the fundus And aligning the image representing the identified map-like atrophy region with the frontal image or the tomographic image.
  • Control unit 110 controls each unit of ophthalmic system 1 based on an operation instruction signal corresponding to the operation content of the user on operation device 180.
  • the storage unit 112 stores a database in which examination data of a subject is associated in advance corresponding to the subject ID.
  • the control unit 110 searches the database using the subject ID input in step S1 as a search key, and acquires examination data corresponding to the subject ID.
  • the display control unit 111A causes the display device 190 to display examination data corresponding to the subject ID obtained by searching the database.
  • the examination data includes one or more subject eye images acquired in a past examination.
  • step S6 Identify the atrophy area
  • the control unit 110 causes the analysis unit 200 to execute analysis of the map-like atrophy region to specify the map-like atrophy region. Details of step S6 will be described later.
  • the control unit 110 stores area specifying information for specifying the position and the shape of the map-like atrophy area in the fundus in association with the subject or the eye to be examined and the examination date in the storage unit 112.
  • control unit 110 causes the form information generation unit 204 to calculate the area and outer perimeter of each of the map-like atrophic regions identified in step S6.
  • the morphological information generation unit 204 generates morphological information including the total value of the area of the mapped atrophy region, the total value of the outer perimeter, and the number of the identified mapped atrophy regions.
  • the control unit 110 stores the form information generated in step S7 in the storage unit 112 in association with the subject or the eye to be examined and the examination date together with the area specifying information.
  • the control unit 110 causes the alignment processing unit 210 to perform alignment between the front image of the fundus formed in advance by the image forming unit 120 and the image representing the map-like atrophy region identified in step S6.
  • the display control unit 111A causes the display device 190 to display an image representing the map-like atrophy region superimposed on the front image of the fundus.
  • the front image of the fundus may be a shadowgram ranging from RPE to Bruch's membrane.
  • the display control unit 111A causes the display device 190 to display the form information generated in step S7 in association with the map-like atrophy region corresponding to the form information.
  • step S10 Trend analysis process
  • the control unit 110 causes the analysis unit 200 to execute the trend analysis process.
  • step S10 when the analysis processing result of the data of a predetermined to-be-tested eye is not obtained, specification of the map-like atrophy area in step S6 and form analysis in step S7 may be performed as needed.
  • the analysis unit 200 generates a trend graph of the area and outer perimeter of the mapped atrophy region.
  • step S6 of FIG. 5 Next, an operation example of step S6 of FIG. 5 will be described with reference to FIGS. 6 to 12.
  • FIG. 6 shows a flow chart of an operation example of step S6 of FIG.
  • FIG. 7 shows an operation explanatory diagram of step S22.
  • FIG. 8 shows an operation explanatory diagram of step S23.
  • FIG. 9A shows an operation explanatory view of step S24.
  • FIG. 9B shows an operation explanatory view of step S25.
  • FIG. 10 shows an operation explanatory diagram of step S26. 11 and 12 show an operation explanatory view of step S27.
  • the distribution information generation unit 203 obtains the ratio of the integrated value of the pixel values in the A scan direction of the second area to the integrated value of the pixel values in the A scan direction of the first area as the contrast ratio for each A scan. Two-dimensional distribution information of the contrast ratio is generated as a contrast map (FIG. 8).
  • control unit 110 causes the data processing unit 130 to perform a smoothing process on the contrast map generated in step S23. Focusing on the fact that the change in pixel value between adjacent pixels generally tends to be small, and the noise component superimposed on the pixel value is also similar, a contrast map from which the noise component is removed by smoothing processing can be obtained ( Figure 9A).
  • step S8 the display control unit 111A causes the display device 190 to display an image IMGX representing a map-like atrophy region superimposed on a shadow gram (front image of the fundus).
  • the display control unit 111A can cause the display device 190 to display the form information 350 including the total value of the area of the mapped atrophy region, the total value of the outer perimeter, and the number of the mapped atrophy region.
  • the display control unit 111A causes the display device 190 to display the shape information of each mapped atrophic region in association with the corresponding mapped atrophic region. Thereby, it becomes possible to observe the morphology of each mapped atrophic region in detail.
  • step S8 the display control unit 111A causes the display device 190 to display an image IMY (image of the B-scan cross section) representing a map-like atrophy region superimposed on the B-scan image IMG3 of the fundus.
  • image IMY image of the B-scan cross section
  • FIG. 15 illustrates an example of trend analysis information displayed on the display device 190 in step S11 and step S12 in some embodiments.
  • An ophthalmologic information processing apparatus analyzes the data of the fundus of the eye to be examined acquired by the ophthalmologic apparatus, thereby determining the position or distance of the cartographic atrophy region with respect to the macular region (central fovea) in the fundus. To generate position information representing
  • an ophthalmologic information processing apparatus focusing on differences from the ophthalmologic information processing apparatus according to the above embodiments.
  • the difference between the configuration of the ophthalmologic information processing apparatus according to the present modification and the configuration of the ophthalmologic information processing apparatus 100 described above is an analysis unit.
  • FIG. 16 is a block diagram of a configuration example of the analysis unit 200a according to the modification of the embodiment.
  • the same parts as in FIG. 4 are given the same reference numerals, and the description will be omitted as appropriate.
  • the position information generation unit 206a is a relative position of the representative position of the map-like atrophy region with respect to the representative position of the macular region specified by the analysis unit 200a, position information indicating the distance between both representative positions, and the map-like atrophy region in a predetermined period.
  • the position information representing vector information indicating the movement direction or movement distance of the representative position or vector information indicating the movement direction or movement distance of the representative position of the map-like atrophy region with respect to the representative position of the macular region in a predetermined period is generated.
  • Examples of representative positions of the macular region include the position of the fovea centralis, the position of the center of gravity of the macular region, and the position closest to (or farthest from) the mapped atrophic region at the contour of the macular region.
  • Examples of representative positions of the atrophic atrophy region include the central position of the atrophic atrophy region, the position of the center of gravity, and the position closest to (or farthest from) the macular region (or fovea) at the contour of the atrophic atrophy region.
  • the display control unit 111A causes the display device 190 to display the position information generated by the position information generation unit 206a in association with the corresponding map-like atrophy region.
  • the display control unit 111 ⁇ / b> A causes the display device 190 to display an image (a trend graph of position information) representing a temporal change of the position information.
  • the display control unit 111A superimposes an image IMGX representing a map-like atrophy region and an image IMGZ representing the position (range) of the macular region specified by the analysis unit 200a on a shadowgram (front image of the fundus) IMG2. It is displayed on the display device 190.
  • the image IMGZ may be an image representing the position of the fovea.
  • the display control unit 111A determines the relative position of the map-like atrophy region to the macular region
  • the position information to represent can be displayed on the display device 190.
  • the display control unit 111 ⁇ / b> A causes the display device 190 to display the positional information of each mapped atrophic region in association with the corresponding mapped atrophic region. This makes it possible to observe in detail the position of each mapped atrophic region.
  • the display control unit 111A generates an image IMGY (image of a B-scan cross section) representing a map-like atrophy region and an image IMGZ1 representing the position (range) of the macular region specified by the analysis unit 200a as a B-scan image IMG3 of the fundus. It is superimposed and displayed on the display device 190. Thereby, it becomes possible to observe in detail the position of the map-like atrophic region with respect to the macular region in the B-scan image.
  • IMGY image of a B-scan cross section
  • IMGZ1 representing the position (range) of the macular region specified by the analysis unit 200a
  • Steps S1 to S9 are the same as in FIG.
  • step S31 Acquisition of analysis data
  • the control unit 110 reads out, from the storage unit 112, one or more analysis data (including a shrink region image) for performing the trend analysis.
  • the control unit 110 causes the analysis unit 200 to execute trend analysis processing.
  • identification of the map atrophy region in step S6 and the form analysis in step S7 are executed as necessary.
  • the analysis unit 200 specifies a map-like atrophy region, and generates a trend graph of the area and the outer perimeter of the map-like atrophy region.
  • the display control unit 111A causes the trend graph generated in step S10 to be displayed in a predetermined display area of the display device 190. This is the end of the operation of the ophthalmologic information processing apparatus 100 (end).
  • FIG. 21 shows a block diagram of a configuration example of an ophthalmologic apparatus 10b according to a modification of the embodiment.
  • the same parts as those in FIG. 2 are denoted by the same reference numerals, and the description will be appropriately omitted.
  • the control unit 11 b controls each unit of the ophthalmologic apparatus 10 b.
  • the control unit 11b controls the data collection unit 12, the image forming unit 13, the ophthalmologic information processing unit 15b, the operation unit 16b, and the display unit 17b.
  • the ophthalmologic information processing unit 15 b has the same configuration as the ophthalmologic information processing apparatus 100 and has the same function as the ophthalmologic information processing apparatus 100.
  • the operation unit 16 b has the same configuration as the operation device 180, and has the same function as the operation device 180.
  • the display unit 17 b has the same configuration as the display device 190 and has the same function as the display device 190.
  • the display means displays images representing a plurality of one or more atrophy regions specified based on data of a plurality of fundus oculi different in collection timing, so that the atrophy of map form It becomes possible to easily follow the shape and distribution of the atrophy area such as the area.
  • An ophthalmologic information processing apparatus includes an alignment processing unit (210).
  • the alignment processing unit aligns the fundus image of the subject's eye with an image representing one or more atrophy regions.
  • the display control unit causes the display unit to display a plurality of atrophy region images in which an image representing one or more atrophy regions subjected to alignment by the alignment processing unit is overlaid on the fundus image in time series.
  • the analysis unit specifies a difference with respect to a reference image which is one of a plurality of atrophy area images with respect to at least one atrophy area image of a plurality of atrophy area images.
  • Perform differential identification processing The display control unit causes the display unit to display the region corresponding to the above-mentioned specified difference in the at least one atrophy region image in a distinguishable manner.
  • the analysis unit sequentially identifies a plurality of atrophy area images by specifying the difference of the atrophy area image using the atrophy area image acquired immediately before as a reference image. Perform differential identification processing.
  • the analysis unit specifies the position of the macular region in the fundus based on the above-described data of the fundus.
  • the display control unit overlays an image representing the position of the macular region specified by the analysis unit on the atrophy region image.
  • the analysis unit includes a segmentation processing unit (201) and a distribution information generation unit (203).
  • the segmentation processing unit identifies a plurality of layer regions in the A-scan direction based on the above-described fundus data.
  • the distribution information generation unit includes an integrated value of pixel values in the A scan direction of the layer region on the sclera side specified by the segmentation processing unit and pixel values in the A scan direction of the layer region on the cornea side of the Bruch film. Distribution information (contrast map) of the ratio to the integrated value is generated.
  • the analysis unit identifies the atrophic area based on the distribution information.
  • the atrophy area such as the map atrophy area is identified from the data acquired using the optical coherence tomography, and the image of the identified atrophy area is displayed on the display means in time series. Therefore, while reducing the burden on the subject, it becomes easy to follow the form and distribution of the atrophy region such as the atrophic region.
  • the analysis unit includes a morphological information generation unit (204).
  • the form information generation unit generates form information representing the form of the atrophy region by analyzing the data of the fundus described above.
  • the display control unit causes the display unit to display the plurality of pieces of form information in time series.
  • the display control unit may cause the display means to display the form information in association with the corresponding atrophy region.
  • the display control unit controls at least one of the area of the atrophy area or the outer perimeter of the atrophy area with respect to each of the plurality of atrophy areas specified by the analysis unit. Are displayed on the display means in chronological order.
  • the form information includes the total value of the area of one or more atrophy regions specified by the analysis unit or the total value of the outer perimeter of one or more atrophy regions.
  • the form information includes the number of atrophy regions.
  • the follow-up of the form and distribution of the atrophy area such as the map-like atrophy area becomes easy, and the form of the atrophy area can be observed in detail.
  • An ophthalmologic information processing apparatus includes a designation unit (operation device 180).
  • the designation unit is used to designate the atrophic region identified by the analysis unit.
  • the display control unit causes the display unit to display an image representing temporal change in the form information in the atrophy region designated by the designation unit.
  • An ophthalmologic information processing apparatus includes a designation unit (operation device 180).
  • the designation unit is used to designate the atrophic region identified by the analysis unit.
  • the analysis unit specifies an area corresponding to the designated atrophy area designated by the designation section from at least one of the images representing the plurality of one or more atrophy areas.
  • the display control unit causes the display means to display the designated atrophy region in a distinguishable manner in at least one of the plurality of images representing the one or more atrophy regions.
  • An ophthalmologic information processing apparatus includes a layer thickness distribution information generation unit (205).
  • the layer thickness distribution information generation unit identifies the layer thickness of one or more layer tissues in the A-scan direction based on the data of the fundus described above, and generates distribution information of the identified layer thickness.
  • the display control unit causes the display unit to display the distribution information of the layer thickness generated by the layer thickness distribution information generation unit in time series.
  • An ophthalmologic system includes a data acquisition unit (12) configured to acquire data of the fundus by scanning an eye using optical coherence tomography, a display unit, and any of the above. And the ophthalmic information processing apparatus described above.
  • a map-like atrophy region or the like can be displayed by displaying on the display means an image representing a plurality of one or more atrophy regions specified based on data of a plurality of fundus oculi different in collection timing. It is possible to provide an ophthalmologic system capable of easily observing the form and distribution of the atrophy region of the patient.
  • the display means displays a plurality of atrophy region images overlaid on the fundus image in an image representing the atrophy region such as the map atrophy region, so that the form of the atrophy region and the The follow-up of the distribution is facilitated, and a proper diagnosis of dry age-related macular degeneration can be assisted.
  • a program for realizing an ophthalmologic information processing method can be stored in any computer readable recording medium.
  • the recording medium may be an electronic medium using magnetism, light, magneto-optics, a semiconductor or the like.
  • the recording medium is a magnetic tape, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, a solid state drive, or the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

眼科情報処理装置は、解析部と、表示制御部とを含む。解析部は、光コヒーレンストモグラフィを用いて収集された被検眼の眼底のデータを解析することにより眼底における1以上の萎縮領域を特定する。表示制御部は、収集タイミングが異なる複数のデータに基づいて、解析部により特定された複数の1以上の萎縮領域を表す画像を時系列に表示手段に表示させる。

Description

眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム
 本発明は、眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラムに関する。
 視覚障害の原因疾患の1つに、加齢黄斑変性(Age-related Macular Degeneration:AMD)がある。加齢黄斑変性は、加齢により直接的に又は間接的に黄斑部が障害される疾患である。加齢黄斑変性は、滲出型加齢黄斑変性(exudative AMD)と萎縮型加齢黄斑変性(atrophic AMD)とに分類される。滲出型加齢黄斑変性は、脈絡膜から脈絡膜新生血管が網膜色素上皮層(Retinal Pigment Epithelium:以下、RPE)の下層に侵入したり網膜とRPEとの間に侵入したりすることにより網膜が障害される疾患である。萎縮型加齢黄斑変性は、RPEが徐々に萎縮することで網膜が障害され、視力が徐々に低下する疾患である。
 滲出型加齢黄斑変性に対する有効な治療方法として、光線力学的療法(Photo Dynamic Therapy:PDT)、薬物療法、レーザー凝固などが知られている。これに対して、萎縮型加齢黄斑変性に対する有効な治療方法は、現在のところ十分に確立されていない。従って、萎縮型加齢黄斑変性の状態を把握することは極めて重要である。
 萎縮型加齢黄斑変性には、中心窩を中心とする所定の領域内にいわゆる地図状萎縮(Geographic Atrophy:GA)が見られる。地図状萎縮は、眼底画像、フルオレセイン蛍光眼底造影画像、眼底自発蛍光検査画像などから特定されたり、光コヒーレンストモグラフィを用いて取得された網膜の断層像から特定されたりする(例えば、特許文献1~特許文献3)。特定された地図状萎縮を観察することで、萎縮型加齢黄斑変性の状態を把握することができる(例えば、特許文献4)。また、例えば、特許文献5及び特許文献6には、光コヒーレンストモグラフィを用いて取得されたデータを解析して得られた層厚データのトレンド解析結果を表示する手法が開示されている。
米国特許出願公開第2015/0201829号明細書 特開2015-136626号公報 特開2016-107148号公報 特表2014-505552号公報 特開2014-083266号公報 特開2014-083268号公報
 萎縮型加齢黄斑変性の状態の把握には、地図状萎縮を伴う領域(地図状萎縮領域)の形態(形状、サイズ)や分布を経過観察することが有効である。しかしながら、従来の技術では、地図状萎縮領域の形態や分布を詳細に観察することができず、地図状萎縮領域の形態や分布の時間的変化を容易に把握することができなかった。それにより、萎縮型加齢黄斑変性に対して適確な診断を行うことが困難であった。
 本発明は、このような事情を鑑みてなされたものであり、その目的は、眼底における萎縮領域の形態や分布を容易に経過観察するための新たな技術を提供することにある。
 いくつかの実施形態の第1態様は、光コヒーレンストモグラフィを用いて収集された被検眼の眼底のデータを解析することにより前記眼底における1以上の萎縮領域を特定する解析部と、収集タイミングが異なる複数の前記データに基づいて、前記解析部により特定された複数の前記1以上の萎縮領域を表す画像を時系列に表示手段に表示させる表示制御部と、を含む眼科情報処理装置である。
 いくつかの実施形態の第2態様は、第1態様において、前記被検眼の眼底画像と前記1以上の萎縮領域を表す画像との位置合わせを行う位置合わせ処理部を含み、前記表示制御部は、前記位置合わせ処理部により位置合わせが行われた前記1以上の萎縮領域を表す画像が前記眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に前記表示手段に表示させる。
 いくつかの実施形態の第3態様では、第2態様において、前記解析部は、前記複数の萎縮領域画像の少なくとも1つの萎縮領域画像に対して、前記複数の萎縮領域画像の1つである基準画像に対する差分を特定する差分特定処理を行い、前記表示制御部は、前記少なくとも1つの萎縮領域画像における前記特定された差分に対応する領域を識別可能に前記表示手段に表示させる。
 いくつかの実施形態の第4態様では、第3態様において、前記解析部は、直前に取得された萎縮領域画像を前記基準画像として当該萎縮領域画像の差分を特定することにより前記複数の萎縮領域画像に対して順次に前記差分特定処理を行う。
 いくつかの実施形態の第5態様では、第2態様~第4態様のいずれかにおいて、前記解析部は、前記データに基づいて前記眼底における黄斑部の位置を特定し、前記表示制御部は、前記解析部により特定された前記黄斑部の位置を表す画像を前記萎縮領域画像にオーバーレイ表示させる。
 いくつかの実施形態の第6態様では、第1態様~第5態様のいずれかにおいて、前記解析部は、前記データに基づいてAスキャン方向の複数の層領域を特定するセグメンテーション処理部と、前記セグメンテーション処理部により特定されたブルッフ膜より強膜側の層領域のAスキャン方向の画素値の積算値と、前記ブルッフ膜より角膜側の層領域のAスキャン方向の画素値の積算値との比の分布情報を生成する分布情報生成部と、を含み、前記分布情報に基づいて前記萎縮領域を特定する。
 いくつかの実施形態の第7態様では、第1態様~第6態様のいずれかにおいて、前記解析部は、前記データを解析することにより前記萎縮領域の形態を表す形態情報を生成する形態情報生成部を含み、前記表示制御部は、複数の前記形態情報を時系列に前記表示手段に表示させる。
 いくつかの実施形態の第8態様では、第7態様において、前記形態情報は、前記萎縮領域の面積、外周囲長の少なくとも1つを含む。
 いくつかの実施形態の第9の態様では、第8態様において、前記表示制御部は、前記解析部により特定された複数の前記萎縮領域のそれぞれに対して、前記萎縮領域の面積、又は前記萎縮領域の外周囲長の少なくとも1つを時系列に前記表示手段に表示させる。
 いくつかの実施形態の第10態様では、第8態様又は第9態様において、前記形態情報は、前記解析部により特定された前記1以上の萎縮領域の面積の合計値、又は前記1以上の萎縮領域の外周囲長の合計値を含む。
 いくつかの実施形態の第11態様では、第7態様~第10態様のいずれかにおいて、前記形態情報は、前記萎縮領域の個数を含む。
 いくつかの実施形態の第12態様では、第7態様~第11態様のいずれかにおいて、前記表示制御部は、複数の前記形態情報に基づいて生成された前記形態情報の時間的変化を表す画像を前記表示手段に表示させる。
 いくつかの実施形態の第13態様は、第7態様~第12態様のいずれかにおいて、前記解析部により特定された萎縮領域を指定するための指定部を含み、前記表示制御部は、前記指定部により指定された萎縮領域における前記形態情報の時間的変化を表す画像を前記表示手段に表示させる。
 いくつかの実施形態の第14態様では、第1態様~第13態様のいずれかにおいて、前記解析部は、前記データを解析することにより前記眼底における黄斑部に対する前記萎縮領域の位置又は距離を表す位置情報を生成する位置情報生成部を含み、前記表示制御部は、複数の前記位置情報に基づいて生成された前記位置情報の時間的変化を表す画像を前記表示手段に表示させる。
 いくつかの実施形態の第15態様は、第1態様~第12態様のいずれかにおいて、前記解析部により特定された萎縮領域を指定するための指定部を含み、前記解析部は、前記複数の1以上の萎縮領域を表す画像の少なくとも1つから前記指定部により指定された指定萎縮領域に対応する領域を特定し、前記表示制御部は、前記複数の1以上の萎縮領域を表す画像の少なくとも1つにおいて前記指定萎縮領域を識別可能に前記表示手段に表示させる。
 いくつかの実施形態の第16態様では、第1態様~第15態様のいずれかにおいて、前記解析部は、前記データに基づいてAスキャン方向の1以上の層組織の層厚を特定し、特定された層厚の分布情報を生成する層厚分布情報生成部を含み、前記表示制御部は、前記層厚分布情報生成部により生成された前記層厚の分布情報を時系列に前記表示手段に表示させる。
 いくつかの実施形態の第17態様は、光コヒーレンストモグラフィを用いて前記被検眼をスキャンすることにより前記データを収集するデータ収集部と、前記表示手段と、上記のいずれかに記載の眼科情報処理装置と、を含む眼科システムである。
 いくつかの実施形態の第18態様は、光コヒーレンストモグラフィを用いて収集された被検眼の眼底のデータを解析することにより前記眼底における1以上の萎縮領域を特定する解析ステップと、収集タイミングが異なる複数の前記データに基づいて、前記解析ステップにおいて特定された複数の前記1以上の萎縮領域を表す画像を時系列に表示手段に表示させる表示ステップと、を含む眼科情報処理方法である。
 いくつかの実施形態の第19態様は、第18態様において、前記被検眼の眼底画像と前記1以上の萎縮領域を表す画像との位置合わせを行う位置合わせステップを含み、前記表示ステップは、前記位置合わせステップにおいて位置合わせが行われた前記1以上の萎縮領域を表す画像が前記眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に前記表示手段に表示させる。
 いくつかの実施形態の第20態様では、第18態様又は第19態様において、前記解析ステップは、前記データに基づいてAスキャン方向の複数の層領域を特定するセグメンテーション処理ステップと、前記セグメンテーション処理ステップにおいて特定されたブルッフ膜より強膜側の層領域のAスキャン方向の画素値の積算値と、前記ブルッフ膜より角膜側の層領域のAスキャン方向の画素値の積算値との比の分布情報を生成する分布情報生成ステップと、を含み、前記分布情報に基づいて前記萎縮領域を特定する。
 いくつかの実施形態の第21態様では、第18態様~第20態様のいずれかにおいて、前記解析ステップは、前記データを解析することにより前記萎縮領域の形態を表す形態情報を生成する形態情報生成ステップを含み、前記表示ステップは、複数の前記形態情報に基づいて生成された前記形態情報の時間的変化を表す画像を前記表示手段に表示させる。
 いくつかの実施形態の第22態様は、コンピュータに、上記のいずれかに記載の眼科情報処理方法の各ステップを実行させるプログラムである。
 本発明に係るいくつかの実施形態によれば、眼底における萎縮領域の形態や分布を容易に経過観察するための新たな技術を提供することができるようになる。
実施形態に係る眼科システムの構成の一例を表す概略図である。 実施形態に係る眼科装置の構成の一例を表す概略図である。 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。 実施形態に係る眼科情報処理装置の動作フローの一例を表す概略図である。 実施形態に係る眼科情報処理装置の動作フローの一例を表す概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態の変形例に係る眼科情報処理装置の構成の一例を表す概略図である。 実施形態の変形例に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態の変形例に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態の変形例に係る眼科情報処理装置の動作フローの一例を表す概略図である。 実施形態の変形例に係る眼科情報処理装置の動作を説明するための概略図である。 実施形態の変形例に係る眼科装置の構成の一例を表す概略図である。
 この発明のいくつかの実施形態に係る眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラムの例について、図面を参照しながら詳細に説明する。なお、この明細書で引用する文献に記載された事項や任意の公知技術を実施形態に援用することができる。
 実施形態に係る眼科システムは、眼科情報処理装置を含む。実施形態に係る眼科情報処理方法は、眼科情報処理装置により実行される。実施形態に係る眼科情報処理方法は、プログラムにしたがってコンピュータにより実行可能である。
 実施形態に係る眼科情報処理装置は、眼科装置により光学的に取得された被検眼の眼底のデータに対して所定の解析処理や所定の表示処理を施すことが可能である。いくつかの実施形態に係る眼科装置は、被検眼の眼底の正面画像を取得する機能を備える。被検眼の眼底の正面画像を取得する機能を備えた眼科装置には、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)装置、眼底カメラ、走査型レーザー検眼鏡、スリットランプ顕微鏡、手術用顕微鏡などがある。いくつかの実施形態に係る眼科装置は、被検眼の光学的な特性を測定する機能を備える。被検眼の光学的な特性を測定する機能を備えた眼科装置には、レフラクトメーター、ケラトメーター、眼圧計、ウェーブフロントアナライザー、スペキュラーマイクロスコープ、視野計などがある。いくつかの実施形態に係る眼科装置は、レーザー治療に用いられるレーザー治療装置の機能を備える。
[眼科システム]
 図1に、実施形態に係る眼科システムの構成例のブロック図を示す。実施形態に係る眼科システム1は、眼科装置10と、眼科情報処理装置(眼科画像処理装置、眼科解析装置)100と、操作装置180と、表示装置190とを含む。
 眼科装置10は、被検眼のデータを光学的に収集する。眼科装置10は、被検眼の眼底をスキャンすることにより被検眼の眼底のデータを光学的に収集する。例えば、眼科装置10は、OCTを用いて被検眼の眼底の3次元のOCTデータを取得する。眼科装置10は、取得された被検眼のデータから被検眼の眼底の画像を取得することが可能である。眼底の画像には、眼底の断層像及び正面画像が含まれる。眼底の断層像には、Bスキャン画像などがある。眼底の正面画像には、Cスキャン画像、シャドウグラム、又はプロジェクション画像などがある。眼科装置10は、取得された被検眼のデータを眼科情報処理装置100に送信する。
 いくつかの実施形態では、眼科装置10と眼科情報処理装置100とは、データ通信ネットワークを介して接続される。いくつかの実施形態に係る眼科情報処理装置100は、データ通信ネットワークを介して選択的に接続された複数の眼科装置10の1つからデータを受信する。
 眼科情報処理装置100は、眼科装置10によって異なる日(時間又はタイミング)に収集された被検眼の眼底の時系列の複数のデータそれぞれに対して解析処理を施す。眼科情報処理装置100は、得られた複数の解析結果のそれぞれを被検者又は被検眼と収集日(収集日時)とに関連付けて図示しない記憶部に保存する。いくつかの実施形態に係る眼科情報処理装置100は、得られた複数の解析結果を時系列に表示させる。いくつかの実施形態に係る眼科情報処理装置100は、複数の解析結果から得られる統計情報を生成する。解析結果には、解析処理により得られた情報だけではなく、当該情報を加工することにより得られた情報も含まれる。
 眼科情報処理装置100は、被検眼のデータを解析することにより地図状萎縮領域(萎縮領域)を特定し、特定された地図状萎縮領域を識別可能に表示するための画像を形成する。いくつかの実施形態に係る眼科情報処理装置100は、眼底の正面画像や断層像における地図状萎縮領域を識別可能に表示装置190に表示させる。
 眼科情報処理装置100は、取得された被検眼のデータから形成された眼底の正面画像における地図状萎縮領域に相当する領域をハイライト表示させる。いくつかの実施形態に係る眼科情報処理装置100は、取得された被検眼のデータから眼底の正面画像を形成し、形成された正面画像と特定された地図状萎縮領域との位置合わせを行い、位置合わせが行われた地図状萎縮領域を表す画像を眼底の正面画像にオーバーレイ表示させる。
 眼科情報処理装置100は、取得された被検眼のデータから形成された眼底の断層像における地図状萎縮領域に相当する領域をハイライト表示させる。いくつかの実施形態に係る眼科情報処理装置100は、取得された被検眼のデータから眼底の断層像を形成し、形成された断層像と特定された地図状萎縮領域との位置合わせを行い、位置合わせが行われた地図状萎縮領域を表す画像を眼底の断層像にオーバーレイ表示させる。
 眼科情報処理装置100は、眼底の複数のデータから特定された複数の地図状萎縮領域のそれぞれについて地図状萎縮領域の形態や分布を表すパラメータを求める。パラメータには、各地図状萎縮領域の面積や外周囲長、地図状萎縮領域の面積の合計値や外周囲長の合計値、地図状萎縮領域の個数、所定の領域内を地図状萎縮領域が占有する割合(密度)、基準位置に対する地図状萎縮領域の位置関係を表す情報などがある。いくつかの実施形態に係る眼科情報処理装置100は、求められたパラメータを時系列に表示装置190に表示させる。いくつかの実施形態に係る眼科情報処理装置100は、求められたパラメータの統計情報を表示装置190に表示させる。
 操作装置180及び表示装置190は、ユーザインターフェイス部として情報の表示、情報の入力、操作指示の入力など、眼科情報処理装置100とそのユーザとの間で情報をやりとりするための機能を提供する。操作装置180は、レバー、ボタン、キー、ポインティングデバイス等の操作デバイスを含む。いくつかの実施形態に係る操作装置180は、音で情報を入力するためのマイクロフォンを含む。表示装置190は、フラットパネルディスプレイ等の表示デバイスを含む。いくつかの実施形態では、操作装置180及び表示装置190の機能は、タッチパネルディスプレイのような入力機能を有するデバイスと表示機能を有するデバイスとが一体化されたデバイスにより実現される。いくつかの実施形態では、操作装置180及び表示装置190は、情報の入出力を行うためのグラフィカルユーザインターフェイス(GUI)を含む。
 眼科情報処理装置100は、特定された複数の地図状萎縮領域のうち操作装置180を用いて指定された1以上の地図状萎縮領域の形態や分布を表すパラメータを時系列に表示装置190に表示させる。いくつかの実施形態に係る眼科情報処理装置100は、特定された複数の地図状萎縮領域のうち操作装置180を用いて指定された1以上の地図状萎縮領域の形態や分布を表すパラメータの統計情報を表示装置190に表示させる。
[眼科装置]
 図2に、実施形態に係る眼科装置10の構成例のブロック図を示す。
 眼科装置10には、被検眼のOCTデータを取得するための光学系が設けられている。眼科装置10は、スウェプトソースOCTを実行する機能を備えているが、実施形態はこれに限定されない。例えば、OCTの種別はスウェプトソースOCTには限定されず、スペクトラルドメインOCT等であってもよい。スウェプトソースOCTは、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。
 眼科装置10は、制御部11と、データ収集部12と、画像形成部13と、通信部14とを含む。
 制御部11は、眼科装置10の各部を制御する。特に、制御部11は、データ収集部12、画像形成部13、及び通信部14を制御する。
 データ収集部12は、OCTを用いて被検眼をスキャンすることにより被検眼のデータ(3次元のOCTデータ)を収集する。データ収集部12は、干渉光学系12Aと、スキャン光学系12Bとを含む。
 干渉光学系12Aは、光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼を経由した測定光の戻り光を参照光路を経由した参照光と干渉させて干渉光を生成し、生成された干渉光を検出する。干渉光学系12Aは、ファイバーカプラと、バランスドフォトダイオード等の受光器とを少なくとも含む。ファイバーカプラは、光源からの光を測定光と参照光とに分割し、被検眼を経由した測定光の戻り光と参照光路を経由した参照光と干渉させて干渉光を生成する。受光器は、ファイバーカプラにより生成された干渉光を検出する。干渉光学系12Aは、光源を含んでよい。
 スキャン光学系12Bは、制御部11からの制御を受け、干渉光学系12Aにより生成された測定光を偏向することにより被検眼の眼底における測定光の入射位置を変更する。スキャン光学系12Bは、例えば、被検眼の瞳孔と光学的に略共役な位置に配置された光スキャナを含む。光スキャナは、例えば、測定光を水平方向にスキャンするガルバノミラーと、垂直方向にスキャンするガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、測定光を眼底平面上の任意の方向にスキャンすることができる。
 干渉光学系12Aによる干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号である。
 画像形成部13は、制御部11からの制御を受け、データ収集部12により収集された被検眼のデータに基づいて被検眼の眼底の断層像の画像データを形成する。この処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。このようにして取得される画像データは、複数のAライン(被検眼内における各測定光の経路)における反射強度プロファイルを画像化することにより形成された一群の画像データを含むデータセットである。画質を向上させるために、同じパターンでのスキャンを複数回繰り返して収集された複数のデータセットを重ね合わせる(加算平均する)ことができる。
 画像形成部13は、3次元のOCTデータに各種のレンダリングを施すことで、Bスキャン画像、Cスキャン画像、プロジェクション画像、シャドウグラムなどを形成することができる。Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元のOCTデータから選択することにより形成される。プロジェクション画像は、3次元のOCTデータを所定方向(Z方向、深さ方向、Aスキャン方向)に投影することによって形成される。シャドウグラムは、3次元のOCTデータの一部(例えば特定層に相当する部分データ)を所定方向に投影することによって形成される。
 いくつかの実施形態に係る眼科装置10には、画像形成部13により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施すデータ処理部が設けられる。例えば、データ処理部は、画像の輝度補正や分散補正等の補正処理を実行する。データ処理部は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼のボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。
 制御部11及び画像形成部13のそれぞれは、プロセッサを含む。プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を含む。画像形成部13の機能は、画像形成プロセッサにより実現される。いくつかの実施形態では、制御部11及び画像形成部13の双方の機能が1つのプロセッサにより実現される。いくつかの実施形態では、眼科装置10にデータ処理部が設けられている場合、データ処理部の機能もまたプロセッサにより実現される。
 プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。記憶回路や記憶装置の少なくとも一部がプロセッサに含まれていてよい。また、記憶回路や記憶装置の少なくとも一部がプロセッサの外部に設けられていてよい。
 記憶装置等は、各種のデータを記憶する。記憶装置等に記憶されるデータとしては、データ収集部12により取得されたデータ(測定データ、撮影データ等)や、被検者及び被検眼に関する情報などがある。記憶装置等には、眼科装置10の各部を動作させるための各種のコンピュータプログラムやデータが記憶されていてよい。
 通信部14は、制御部11からの制御を受け、眼科情報処理装置100との間で情報の送信又は受信を行うための通信インターフェース処理を実行する。
 いくつかの実施形態に係る眼科装置10は、画像形成部13により形成された被検眼の画像データを眼科情報処理装置100に送信する。
 いくつかの実施形態に係る眼科装置10には、被検眼の眼底の画像を取得するための眼底カメラ、走査型レーザー検眼鏡、スリットランプ顕微鏡が設けられる。いくつかの実施形態では、眼底カメラにより取得される眼底画像は、フルオレセイン蛍光眼底造影画像又は眼底自発蛍光検査画像である。
[眼科情報処理装置]
 図3及び図4に、実施形態に係る眼科情報処理装置100の構成例のブロック図を示す。図3は、眼科情報処理装置100の機能ブロック図を表す。図4は、図3の解析部200の機能ブロック図を表す。
 眼科情報処理装置100は、眼科装置10によって異なる日に収集された被検眼の眼底の時系列の複数のデータそれぞれに対して解析処理を施す。眼科情報処理装置100は、解析処理により得られた複数の解析結果のそれぞれを被検者又は被検眼と検査日(検査日時)とに関連付けて後述の記憶部112に保存する。いくつかの実施形態に係る眼科情報処理装置100は、得られた複数の解析結果のそれぞれを被検眼と検査日とに関連付けて、所定のネットワークを介して接続された記憶装置に保存する。眼科情報処理装置100は、解析処理により得られた複数の解析結果を時系列に表示させる。
 眼科情報処理装置100は、眼科装置10により取得された被検眼の眼底のデータを解析して眼底における地図状萎縮領域を特定する。眼科情報処理装置100は、眼底の正面画像又は断層像において、特定された地図状萎縮領域を識別可能に表示装置190に表示させる。眼科情報処理装置100は、検査日が異なる複数の眼底のデータに基づいて特定された複数の地図状萎縮領域を表す画像を時系列に表示装置190に表示させる。眼科情報処理装置100は、特定された複数の地図状萎縮領域のそれぞれについて地図状萎縮領域の形態や分布を表すパラメータを求め、求められたパラメータを時系列に表示装置190に表示させる。いくつかの実施形態に係る眼科情報処理装置100は、求められたパラメータの統計情報を表示装置190に表示させる。
 眼科情報処理装置100は、制御部110と、画像形成部120と、データ処理部130と、通信部140とを含む。
 画像形成部120は、制御部110からの制御を受け、眼科装置10により取得された3次元のOCTデータからBスキャン画像、Cスキャン画像、プロジェクション画像、シャドウグラムなどを形成する。画像形成部120は、画像形成部13と同様に上記の画像を形成することが可能である。
 データ処理部130は、画像形成部120により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施す。例えば、データ処理部130は、画像の輝度補正や分散補正等の補正処理を実行する。データ処理部130は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼のボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部130は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。
 データ処理部130は、形成された被検眼の画像に対して所定のデータ処理を施す。データ処理部130は、解析部200と、位置合わせ処理部210とを含む。
 解析部200は、画像形成部120により形成された被検眼の眼底の画像データ(又は眼科装置10により取得された被検眼の眼底の画像データ)に対して所定の解析処理を施す。いくつかの実施形態に係る解析処理には、眼底における地図状萎縮領域の特定処理や、地図状萎縮領域の分布情報の生成処理や、地図状萎縮領域の形態情報の生成処理や、分布情報や形態情報の統計処理や、眼底における層厚の分布情報の生成処理などが含まれる。
 解析部200は、セグメンテーション処理部201と、領域特定部202と、分布情報生成部203と、形態情報生成部204と、層厚分布情報生成部205とを含む。解析部200の各部は、被検眼の眼底の複数のデータのそれぞれに対して以下の処理を行う。
 セグメンテーション処理部201は、眼科装置10により取得された被検眼のデータに基づいてAスキャン方向の複数の層領域を特定する。いくつかの実施形態に係るセグメンテーション処理部201は、3次元のOCTデータを解析することにより、被検眼の複数の組織に相当する複数の部分データセットを特定する。セグメンテーション処理は、特定の組織や組織境界を特定するための画像処理である。例えば、セグメンテーション処理部201は、OCTデータに含まれる各Aスキャン画像における画素値(輝度値)の勾配を求め、勾配が大きい位置を組織境界として特定する。なお、Aスキャン画像は、眼底の深さ方向にのびる1次元画像データである。なお、眼底の深さ方向は、例えば、Z方向、OCT測定光の入射方向、軸方向、干渉光学系の光軸方向などとして定義される。
 典型的な例において、セグメンテーション処理部201は、眼底(網膜、脈絡膜等)及び硝子体を表す3次元のOCTデータを解析することにより、眼底の複数の層組織に相当する複数の部分データセットを特定する。各部分データセットは、層組織の境界によって画成される。部分データセットとして特定される層組織の例として、網膜を構成する層組織がある。網膜を構成する層組織には、内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、RPEがある。セグメンテーション処理部201は、ブルッフ膜、脈絡膜、強膜、硝子体等に相当する部分データセットを特定することができる。いくつかの実施形態に係るセグメンテーション処理部201は、病変部に相当する部分データセットを特定する。病変部の例として、剥離部、浮腫、出血、腫瘍、ドルーゼンなどがある。
 いくつかの実施形態に係るセグメンテーション処理部201は、RPEに対して強膜側の所定のピクセル数分の層組織をブルッフ膜として特定し、当該層組織に相当する部分データセットをブルッフ膜の部分データセットとして取得する。
 領域特定部202は、セグメンテーション処理部201により特定された複数の層組織の部分データセットを解析することにより、地図状萎縮領域を特定するための2つの層組織に相当する領域を特定する。いくつかの実施形態に係る領域特定部202は、ブルッフ膜に相当する領域より強膜側の層組織に対応する第1領域と、内境界膜に相当する領域からRPEに相当する領域までの層組織に対応する第2領域とを特定する。いくつかの実施形態では、第2領域は、ブルッフ膜に相当する領域より角膜側の層組織に対応する領域である。
 分布情報生成部203は、各Aスキャンについて、領域特定部202により特定された第1領域及び第2領域の画素値に基づいてコントラスト比を求め、眼底平面(Aスキャン方向に直交する平面)におけるコントラスト比の2次元の分布情報を生成する。いくつかの実施形態では、分布情報生成部203は、各Aスキャンについて、領域特定部202により特定された第1領域の画素値の積算値と第2領域の画素値の積算値との比の分布情報を生成する。いくつかの実施形態に係る分布情報生成部203は、各Aスキャンについて、第1領域のAスキャン方向の画素値の積算値に対する第2領域のAスキャン方向の画素値の積算値の比をコントラスト比として求め、求められたコントラスト比の2次元の分布情報を生成する。以下、コントラスト比の2次元の分布情報をコントラストマップと表記する。
 解析部200は、分布情報生成部203により生成されたコントラストマップにおいて、コントラスト比が大きい位置を地図状萎縮に起因して信号成分が減衰した位置として特定する。解析部200は、特定された位置に基づいて地図状萎縮領域を特定する。例えば、解析部200は、分布情報生成部203により生成されたコントラストマップにおいて、コントラスト比が所定の閾値以上である位置を含む領域を地図状萎縮領域として特定する。このような地図状萎縮領域を特定する手法に関連する技術が、米国特許出願公開第2015/0201829号明細書、特開2015-136626号公報、又は特開2016-107148号公報に開示されている。
 形態情報生成部204は、特定された地図状萎縮領域の形態を表す形態情報を生成する。形態情報の例として、地図状萎縮領域の面積や外周囲長などがある。形態情報生成部204は、地図状萎縮領域が描出された画像に対して公知の手法を適用することにより地図状萎縮領域の面積や外周囲長を求めることが可能である。いくつかの実施形態に係る形態情報生成部204は、特定された地図状萎縮領域ごとに形態情報を生成する。いくつかの実施形態に係る形態情報生成部204は、特定された地図状萎縮領域ごとの形態パラメータ(面積、外周囲長)の合計値を形態情報として生成する。いくつかの実施形態では、形態情報は、特定された地図状萎縮領域の個数を含む。
 層厚分布情報生成部205は、セグメンテーション処理部201により特定された複数の層組織の部分データセットを解析することにより、各層組織のAスキャン方向の厚さを特定し、眼底平面における各層の層厚の2次元の分布情報を生成する。いくつかの実施形態に係る層厚分布情報生成部205は、操作装置180を用いて指定された1以上の層組織の層厚の2次元の分布情報(Aスキャン方向に直交する平面の分布情報)を生成する。いくつかの実施形態に係る層厚分布情報生成部205は、内境界膜、神経線維層(NFL)、神経節細胞層(GCL)、内網状層(IPL)、内顆粒層(INL)、外網状層(OPL)、外顆粒層(ONL)、外境界膜(ELM)、RPE、脈絡膜、強膜、脈絡膜-強膜境界面(CSI)の少なくとも1つ、又は隣接する2以上の層の層厚の2次元の分布情報を生成する。
 解析部200は、被検眼の眼底の複数のデータのそれぞれに対する上記の解析処理により得られた複数の解析処理結果に基づいてトレンド解析処理を行う。トレンド解析処理には、複数の解析処理結果の時間的変化を示す情報を生成する処理が含まれる。時間的変化を示す情報には、各解析処理結果を時系列にプロットしたグラフや、各解析処理結果を時間軸上にプロットしたグラフや、眼底平面の各位置における解析処理結果の分布を表す解析マップなどがある。いくつかの実施形態では、時間的変化を示す情報には、回帰分析により得られた回帰直線又は回帰曲線、p値、未来の所定の時期おける解析結果の予測値、イベント情報、正常眼データに基づく時間的変化を示す情報などが含まれる。いくつかの実施形態では、解析処理の対象は、操作装置180を用いて指定される。
 位置合わせ処理部210は、画像形成部120によって形成された眼底の正面画像と解析部200によって特定された地図状萎縮領域を表す画像との位置合わせを行う。位置合わせ処理部210は、画像形成部120によって形成された眼底の断層像と解析部200によって特定された地図状萎縮領域を表す画像との位置合わせを行う。位置合わせ処理部210は、画像の拡大、縮小、回転等を行うためのアフィン変換等の公知の処理により画像の位置合わせを行うことが可能である。
 位置合わせ処理は、例えば、双方の画像から特徴部位を検出する処理と、双方の特徴部位を基準として双方の画像を位置合わせする処理とを含む。いくつかの実施形態では、位置合わせ処理は、眼底の正面画像又は断層像における地図状萎縮領域の位置情報を用いて正面画像又は断層像における地図状萎縮領域を表す画像の位置を特定する処理と、特定された地図状萎縮領域を表す画像を正面画像又は断層像に対して位置合わせする処理とを含む。
 通信部140は、制御部110からの制御を受け、眼科情報処理装置100の通信部14との間で情報の送信又は受信を行うための通信インターフェース処理を実行する。
 制御部110は、眼科情報処理装置100の各部を制御する。特に、制御部110は、画像形成部120と、データ処理部130と、通信部140とを制御する。制御部110は、主制御部111と、記憶部112とを含む。主制御部111は、表示制御部111Aを含む。
 表示制御部111Aは、各種の情報を表示装置190に表示させる。例えば、表示制御部111Aは、画像形成部120により形成された被検眼の眼底画像(正面画像、断層像)や、データ処理部130によるデータ処理結果(解析処理結果を含む)の画像を表示装置190に表示させる。特に、表示制御部111Aは、被検眼の眼底画像を表示装置190に表示させ、且つ眼底画像における地図状萎縮領域に対応する領域を識別可能に表示させる。いくつかの実施形態に係る表示制御部111Aは、被検眼の眼底画像を表示装置190に表示させ、且つ眼底画像における地図状萎縮領域に対応する領域をハイライト表示させる。例えば、表示制御部111Aは、地図状萎縮領域又はその背景領域内の画素の輝度がそれ以外の領域の画素の輝度より高くなるように地図状萎縮領域又はその背景領域を表示させる。いくつかの実施形態に係る表示制御部111Aは、位置合わせ処理部210により位置合わせが行われた地図状萎縮領域を表す画像を眼底画像にオーバーレイ表示させる。
 また、表示制御部111Aは、検査日が異なる眼底の複数のデータから特定された地図状萎縮領域を表す画像を時系列に表示装置190に表示させることができる。いくつかの実施形態に係る表示制御部111Aは、位置合わせ処理部210により位置合わせが行われた地図状萎縮領域を表す画像が眼底画像又は断層像にオーバーレイされた複数の萎縮領域画像を時系列に表示装置190に表示させる。
 また、表示制御部111Aは、形態情報生成部204により生成された形態情報を表示装置190に表示させる。いくつかの実施形態に係る表示制御部111Aは、形態情報生成部204により生成された形態情報を当該形態情報に対応する地図状萎縮領域に関連付けて表示装置190に表示させる。いくつかの実施形態に係る表示制御部111Aは、眼底の時系列の複数のデータに基づいて形態情報生成部204により生成された複数の形態情報を時系列に表示装置190に表示させる。いくつかの実施形態に係る表示制御部111Aは、操作装置180を用いて指定された1以上の地図状萎縮領域ごとに当該1以上の地図状萎縮領域に対応した形態情報(各地図状萎縮領域の形態情報、1以上の地図状萎縮領域の形態情報の合計値)を時系列に表示装置190に表示させる。
 制御部110は、操作装置180に対するユーザの操作内容に対応した操作指示信号に基づいて、眼科システム1の各部を制御する。
 制御部110、画像形成部120、及びデータ処理部130のそれぞれは、プロセッサを含む。画像形成部120の機能は、画像形成プロセッサにより実現される。データ処理部130の機能は、データ処理プロセッサにより実現される。いくつかの実施形態では、制御部110、画像形成部120、及びデータ処理部130のうち少なくとも2つの機能が1つのプロセッサにより実現される。
 記憶部112は、各種のデータを記憶する。記憶部112に記憶されるデータとしては、眼科装置10により取得されたデータ(測定データ、撮影データ等)、画像形成部120により形成された画像データ、データ処理部130によるデータ処理結果、被検者及び被検眼に関する情報などがある。記憶部112には、眼科情報処理装置100の各部を動作させるための各種のコンピュータプログラムやデータが記憶されていてよい。
 操作装置180は、「指定部」の一例である。表示装置190は、「表示手段」の一例である。地図状萎縮領域は、「萎縮領域」の一例である。
[動作例]
 いくつかの実施形態に係る眼科情報処理装置100の動作例について説明する。
 図5に、実施形態に係る眼科情報処理装置100の動作の一例を示す。図5は、眼科情報処理装置100の動作例のフロー図を表す。図5では、眼科情報処理装置100(記憶部112)において、眼科装置10により取得された被検眼の3次元のOCTデータが既に保存されているものとする。
(S1:被検者を選択)
 ユーザが操作装置180を用いて被検者IDを入力することにより、被検者を選択する。
(S2:検査データを表示)
 記憶部112には、被検者IDに対応して被検者の検査データがあらかじめ関連付けられたデータベースが記憶されている。制御部110は、ステップS1において入力された被検者IDを検索キーとしてデータベースを検索し、当該被検者IDに対応した検査データを取得する。表示制御部111Aは、データベースを検索することにより得られた当該被検者IDに対応した検査データを表示装置190に表示させる。検査データには、過去の検査において取得された1以上の被検眼画像が含まれる。
(S3:被検眼画像を選択)
 眼科情報処理装置100は、ステップS2において表示装置190に表示された被検者の検査データ中の1以上の被検眼画像から解析対象の被検眼画像を選択させる。被検者は、操作装置180に対して操作を行うことにより、解析対象の被検眼画像を選択する。制御部110は、ユーザによる操作装置180に対する操作内容に対応した操作指示信号の入力を受け付ける。
(S4:表示)
 表示制御部111Aは、ステップS3において入力された操作指示信号に基づいて指定された被検眼画像を選択し、選択された被検眼画像を表示装置190に表示させる。
(S5:領域解析実行?)
 次に、制御部110は、ステップS4において表示された被検眼画像に対して地図状萎縮領域の解析を実行するか否かを判定する。制御部110は、操作装置180に対する解析実行を指示する操作内容に対応した操作指示信号に基づいて地図状萎縮領域の解析を実行するか否かを判定することが可能である。
 地図状萎縮領域の解析を実行すると判定されたとき(S5:Y)、眼科情報処理装置100の動作はステップS6に移行する。地図状萎縮領域の解析を実行しないと判定されたとき(S5:N)、眼科情報処理装置100の動作はステップS9に移行する。
(S6:萎縮領域を特定)
 ステップS5において地図状萎縮領域の解析を実行すると判定されたとき(S5:Y)、制御部110は、解析部200に地図状萎縮領域の解析を実行させることにより地図状萎縮領域を特定させる。ステップS6の詳細については後述する。制御部110は、眼底における地図状萎縮領域の位置や形状を特定するための領域特定情報を被検者又は被検眼と検査日とに関連付けて記憶部112に保存する。
(S7:形態解析)
 続いて、制御部110は、ステップS6において特定された地図状萎縮領域それぞれの面積及び外周囲長を形態情報生成部204に算出させる。形態情報生成部204は、地図状萎縮領域の面積の合計値と、外周囲長の合計値と、特定された地図状萎縮領域の個数とを含む形態情報を生成する。制御部110は、ステップS7において生成された形態情報を上記の領域特定情報と共に被検者又は被検眼と検査日とに関連付けて記憶部112に保存する。
 いくつかの実施形態に係る制御部110は、眼底における各層の層厚の2次元の分布情報を層厚分布情報生成部205に生成させる。制御部110は、ステップS7において生成された分布情報を上記の領域特定情報と共に被検者又は被検眼と検査日とに関連付けて記憶部112に保存する。
(S8:表示)
 次に、制御部110は、画像形成部120によって事前に形成された眼底の正面画像とステップS6において特定された地図状萎縮領域を表す画像との位置合わせを位置合わせ処理部210に行わせる。表示制御部111Aは、当該地図状萎縮領域を表す画像を眼底の正面画像に重畳させて表示装置190に表示させる。ここで、眼底の正面画像は、RPEからブルッフ膜までの範囲のシャドウグラムであってよい。また、表示制御部111Aは、ステップS7において生成された形態情報を当該形態情報に対応する地図状萎縮領域に関連付けて表示装置190に表示させる。
 同様に、制御部110は、画像形成部120によって事前に形成された眼底の断層像とステップS6において特定された地図状萎縮領域を表す画像との位置合わせを位置合わせ処理部210に行わせる。表示制御部111Aは、当該地図状萎縮領域を表す画像を眼底の断層像に重畳させて表示装置190に表示させる。また、表示制御部111Aは、ステップS7において生成された形態情報を当該形態情報に対応する地図状萎縮領域に関連付けて表示装置190に表示させる。以上で眼科情報処理装置100の動作は終了である(エンド)。
(S9:トレンド解析?)
 ステップS5において地図状萎縮領域の解析を実行すると判定されなかったとき(S5:N)、制御部110は、ステップS4において表示された被検眼画像に対してトレンド解析を実行するか否かを判定する。制御部110は、操作装置180に対する解析実行を指示する操作内容に対応した操作指示信号に基づいてトレンド解析を実行するか否かを判定することが可能である。
 トレンド解析を実行すると判定されたとき(S9:Y)、眼科情報処理装置100の動作はステップS10に移行する。トレンド解析を実行しないと判定されたとき(S9:N)、眼科情報処理装置100の動作は終了である(エンド)。
(S10:トレンド解析処理)
 ステップS9においてトレンド解析を実行すると判定されたとき(S9:Y)、制御部110は、トレンド解析処理を解析部200に実行させる。ステップS10では、所定の被検眼のデータの解析処理結果が得られていない場合には、必要に応じてステップS6における地図状萎縮領域の特定及びステップS7における形態解析が実行されてよい。例えば、解析部200は、地図状萎縮領域の面積や外周囲長のトレンドグラフを生成する。
(S11:時系列表示)
 表示制御部111Aは、地図状萎縮領域を表す画像が眼底画像又は断層像にオーバーレイされた複数の萎縮領域画像を時系列に表示装置190の所定の表示領域に表示させる。また、表示制御部111Aは、層厚分布情報生成部205により生成された眼底平面における層厚の複数の2次元の分布情報を時系列に表示装置190の所定の表示領域に表示させる。
(S12:トレンドグラフ表示)
 表示制御部111Aは、ステップS10において生成されたトレンドグラフを表示装置190の所定の表示領域に表示させる。以上で、眼科情報処理装置100の動作は終了である(エンド)。
 次に、図6~図12を参照しつつ図5のステップS6の動作例について説明する。
 図6に、図5のステップS6の動作例のフロー図を示す。図7は、ステップS22の動作説明図を表す。図8は、ステップS23の動作説明図を表す。図9Aは、ステップS24の動作説明図を表す。図9Bは、ステップS25の動作説明図を表す。図10は、ステップS26の動作説明図を表す。図11及び図12は、ステップS27の動作説明図を表す。
(S21:Bスキャン画像を取得)
 上記のようにステップS5において地図状萎縮領域の解析を実行すると判定されたとき(S5:Y)、制御部110は、記憶部112に保存されている被検眼の眼底のデータを読み出し、読み出されたデータに基づいてBスキャン画像を画像形成部120に形成させる。いくつかの実施形態において、ステップS21では、眼科装置10からBスキャン画像が取得される。
(S22:セグメンテーション処理)
 制御部110は、ステップS21において取得されたBスキャン画像に対するセグメンテーション処理をセグメンテーション処理部201に実行させる。セグメンテーション処理部201は、ステップS21において取得されたBスキャン画像に対してAスキャン方向の複数の層領域を特定する。セグメンテーション処理部201は、図7に示すように、Bスキャン画像IMG1において、網膜を構成する、内境界膜300、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、RPE301を特定する。また、セグメンテーション処理部201は、特定されたRPE301に対して強膜側の所定のピクセル数分の層組織をブルッフ膜302として特定する。
(S23:コントラストマップを作成)
 続いて、制御部110は、ステップS22におけるセグメンテーション処理の結果を用いてコントラストマップをデータ処理部130に作成させる。すなわち、領域特定部202は、セグメンテーション処理部201により特定された複数の層組織の部分データセットを解析することにより、ブルッフ膜302に相当する領域より強膜側の層組織に対応する第1領域と、内境界膜300に相当する領域からRPE301に相当する領域までの層組織に対応する第2領域とを特定する。
 分布情報生成部203は、各Aスキャンについて、第1領域のAスキャン方向の画素値の積算値に対する第2領域のAスキャン方向の画素値の積算値の比をコントラスト比として求め、求められたコントラスト比の2次元の分布情報をコントラストマップとして生成する(図8)。
(S24:スムージング処理)
 次に、制御部110は、ステップS23において生成されたコントラストマップに対してスムージング処理をデータ処理部130に実行させる。隣接する画素同士の画素値の変化が一般的に小さい傾向があり、画素値に重畳されるノイズ成分も同様であることに着目し、スムージング処理によりノイズ成分が除去されたコントラストマップが得られる(図9A)。
(S25:2値化処理)
 続いて、制御部110は、ステップS24におけるスムージング処理後コントラストマップに対して2値化処理をデータ処理部130に実行させる。それにより、図9Bに示すような2値化マップが得られる。
(S26:領域を探索)
 制御部110は、ステップS25において得られた2値化マップに対して公知の領域拡張法を適用することにより領域を解析部200に探索させる(図10)。
(S27:輪郭を抽出)
 制御部110は、ステップS26における探索により得られた領域に対して公知の輪郭抽出処理を施すことにより、領域の輪郭を解析部200に抽出させる(図11)。解析部200は、抽出された輪郭に基づいて地図状萎縮領域を特定する(図12)。以上で、図5のステップS6の処理は終了である(エンド)。
 図13に、いくつかの実施形態におけるステップS8において表示装置190に表示される解析情報の一例を示す。
 例えば、ステップS8では、表示制御部111Aは、地図状萎縮領域を表す画像IMGXをシャドウグラム(眼底の正面画像)IMG2に重畳させて表示装置190に表示させる。
 また、表示制御部111Aは、地図状萎縮領域の面積の合計値、外周囲長の合計値、地図状萎縮領域の数を含む形態情報350を表示装置190に表示させることができる。いくつかの実施形態に係る表示制御部111Aは、各地図状萎縮領域の形態情報を対応する地図状萎縮領域に関連付けて表示装置190に表示させる。それにより、各地図状萎縮領域の形態を詳細に観察することができるようになる。
 図14に、いくつかの実施形態におけるステップS8において表示装置190に表示される解析情報の他の例を示す。
 例えば、ステップS8では、表示制御部111Aは、地図状萎縮領域を表す画像IMGY(Bスキャン断面の画像)を眼底のBスキャン画像IMG3に重畳させて表示装置190に表示させる。それにより、Bスキャン画像において地図状萎縮領域の形態を詳細に観察することができるようになる。
 図15に、いくつかの実施形態におけるステップS11及びステップS12において表示装置190に表示されるトレンド解析情報の一例を示す。
 例えば、ステップS11及びステップS12では、表示制御部111Aは、上記のように特定された地図状萎縮領域を表す画像が眼底画像(又は断層像)にオーバーレイされた複数の萎縮領域画像を時系列に表示装置190の第1時系列画像表示領域AR1に表示させる。また、表示制御部111Aは、層厚分布情報生成部205により生成された眼底平面における複数の層厚マップ(層厚の2次元の分布情報)を時系列に表示装置190の第2時系列画像表示領域AR2に表示させる。いくつかの実施形態では、第2時系列画像表示領域AR2に表示された層厚マップは、第1時系列画像表示領域AR1に表示された萎縮領域画像に対応する表示される。例えば、同一検査日の層厚マップ及び萎縮領域画像が上下方向に並ぶように表示される。
 また、表示制御部111Aは、特定された地図状萎縮領域の面積の合計値の時間的変化を表すトレンドグラフGP1と、特定された地図状萎縮領域の外周囲長の合計値の時間的変化を表すトレンドグラフGP2とを表示装置190の解析結果表示領域AR3に表示させる。
 トレンドグラフGP1は、横軸に時間(例えば、被検者の年齢)を表し、縦軸に特定されたすべての地図状萎縮領域の面積の合計値を表す。トレンドグラフGP1には、当該合計値の回帰直線が表示される。いくつかの実施形態では、トレンドグラフGP1には、所望の時期における合計値の予測値が表示される。いくつかの実施形態では、トレンドグラフGP1の横軸のスケール又はグラフの表示開始タイミング(トレンド表示される最初の検査日)は、操作装置180を用いてユーザにより指定される。いくつかの実施形態では、トレンドグラフGP1上のプロット値が操作装置180を用いて指定されたとき、指定されたプロット値に対応する萎縮領域画像又は層厚マップが強調表示される。いくつかの実施形態では、トレンドグラフGP2上のプロット値が操作装置180を用いて指定されたとき、指定されたプロット値に対応するトレンドグラフGP1上のプロット位置が強調表示される。
 トレンドグラフGP2は、横軸に時間(例えば、被検者の年齢)を表し、縦軸に特定されたすべての地図状萎縮領域の外周囲長の合計値を表す。トレンドグラフGP2には、当該合計値の回帰直線が表示される。いくつかの実施形態では、トレンドグラフGP2には、所望の時期における合計値の予測値が表示される。いくつかの実施形態では、トレンドグラフGP2の横軸のスケール又はグラフの表示開始タイミング(トレンド表示される最初の検査日)は、操作装置180を用いてユーザにより指定される。いくつかの実施形態では、トレンドグラフGP2上のプロット値が操作装置180を用いて指定されたとき、指定されたプロット値に対応する萎縮領域画像又は層厚マップが強調表示される。いくつかの実施形態では、トレンドグラフGP1上のプロット値が操作装置180を用いて指定されたとき、指定されたプロット値に対応するトレンドグラフGP2上のプロット位置が強調表示される。
 いくつかの実施形態では、常に同じ表示条件で表示されるように、トレンドグラフGP1に対する表示条件(横軸のスケール、表示開始日)の変更内容は、トレンドグラフGP2に対する表示条件に反映される。
 いくつかの実施形態に係る解析部200は、操作装置180を用いてユーザにより指定された地図状萎縮領域(指定萎縮領域)を特定する。表示制御部111Aは、時系列に表示された複数の萎縮領域画像の少なくとも1つにおいて、当該指定された地図状萎縮領域を識別可能に表示装置190に表示させる。
 いくつかの実施形態に係る表示制御部111Aは、操作装置180を用いてユーザにより指定された地図状萎縮領域における形態情報の時間的変化を表す画像(トレンドグラフなど)を表示装置190に表示させる。
<変形例>
 いくつかの実施形態に係る構成は、上記の構成に限定されるものではない。
〔第1変形例〕
 萎縮型加齢黄斑変性の診断には、黄斑部(中心窩)に対する地図状萎縮の相対位置が有効である。いくつかの実施形態の変形例に係る眼科情報処理装置は、眼科装置により取得された被検眼の眼底のデータを解析することにより眼底における黄斑部(中心窩)に対する地図状萎縮領域の位置又は距離を表す位置情報を生成する。
 以下、いくつかの実施形態の変形例に係る眼科情報処理装置について、上記の実施形態に係る眼科情報処理装置との相違点を中心に説明する。本変形例に係る眼科情報処理装置の構成が上記の眼科情報処理装置100の構成と異なる点は、解析部である。
 図16に、実施形態の変形例に係る解析部200aの構成例のブロック図を示す。図16において、図4と同様の部分には同一符号を付し、適宜説明を省略する。
 本変形例において、図3に示すデータ処理部130における解析部200に代えて、図16に示す変形例に係る解析部200aが設けられる。解析部200aが解析部200と異なる点は、解析部200に対して位置情報生成部206aが追加されている点である。
 解析部200aは、被検眼の3次元のOCTデータを公知の手法により解析することにより中心窩に相当する領域を特定し、中心窩を中心とする所定の半径の領域を黄斑部として特定する。
 位置情報生成部206aは、解析部200aにより特定された黄斑部の代表位置に対する地図状萎縮領域の代表位置の相対位置、双方の代表位置の距離を表す位置情報、所定期間における地図状萎縮領域の代表位置の移動方向や移動距離を示すベクトル情報、又は所定期間における黄斑部の代表位置に対する地図状萎縮領域の代表位置の移動方向や移動距離を示すベクトル情報を表す位置情報を生成する。黄斑部の代表位置の例として、中心窩の位置、黄斑部の重心位置、黄斑部の輪郭部において地図状萎縮領域に最も近い(或いは最も遠い)位置などがある。地図状萎縮領域の代表位置の例として、地図状萎縮領域の中心位置、重心位置、地図状萎縮領域の輪郭部において黄斑部(又は中心窩)に最も近い(或いは最も遠い)位置などがある。いくつかの実施形態の変形例に係る表示制御部111Aは、位置情報生成部206aにより生成された位置情報を対応する地図状萎縮領域に関連付けて表示装置190に表示させる。
 いくつかの実施形態に係る表示制御部111Aは、位置情報の時間的変化を表す画像(位置情報のトレンドグラフ)を表示装置190に表示させる。
 図17に、実施形態の変形例において表示装置190に表示される解析情報の一例を示す。
 例えば、表示制御部111Aは、地図状萎縮領域を表す画像IMGXと解析部200aにより特定された黄斑部の位置(範囲)を表す画像IMGZとをシャドウグラム(眼底の正面画像)IMG2に重畳させて表示装置190に表示させる。画像IMGZは、中心窩の位置を表す画像であってよい。
 また、表示制御部111Aは、地図状萎縮領域の面積の合計値、外周囲長の合計値、地図状萎縮領域の数を含む形態情報に加えて、黄斑部に対する地図状萎縮領域の相対位置を表す位置情報を表示装置190に表示させることができる。いくつかの実施形態に係る表示制御部111Aは、各地図状萎縮領域の位置情報を対応する地図状萎縮領域に関連付けて表示装置190に表示させる。それにより、各地図状萎縮領域の位置を詳細に観察することができるようになる。
 図18に、実施形態の変形例において表示装置190に表示される解析情報の他の例を示す。
 例えば、表示制御部111Aは、地図状萎縮領域を表す画像IMGY(Bスキャン断面の画像)と解析部200aにより特定された黄斑部の位置(範囲)を表す画像IMGZ1を眼底のBスキャン画像IMG3に重畳させて表示装置190に表示させる。それにより、Bスキャン画像において黄斑部に対する地図状萎縮領域の位置を詳細に観察することができるようになる。
〔第2変形例〕
 いくつかの実施形態に係る眼科情報処理装置100は、1以上の萎縮領域画像について基準となる萎縮領域画像に対する差分を識別可能に表示装置190に表示させる。
 以下、いくつかの実施形態の変形例に係る眼科情報処理装置について、上記の実施形態に係る眼科情報処理装置との相違点を中心に説明する。本変形例に係る眼科情報処理装置の構成が上記の眼科情報処理装置100の構成と異なる点は、解析部である。
 本変形例に係る解析部は、複数の萎縮領域画像の少なくとも1つの萎縮領域画像に対して、複数の萎縮領域画像の1つである基準画像に対する差分を特定する差分特定処理を行う。本変形例に係る表示制御部は、上記の少なくとも1つの萎縮領域画像における上記の差分に対応する領域を識別可能に表示装置190に表示させる。いくつかの実施形態に係る変形例では、基準画像は、最先の検査日において取得された被検眼の眼底のデータを用いて生成された萎縮領域画像である。
 図19に、本変形例に係る眼科情報処理装置の動作例のフロー図を示す。図19において、図5と同様の部分には同一符号を付し、適宜説明を省略する。図19においても、図5と同様に、眼科情報処理装置(記憶部112)において、眼科装置により取得された被検眼の3次元のOCTデータが既に保存されているものとする。
 ステップS1~ステップS9は、図5と同様である。
(S31:解析データの取得)
 ステップS9においてトレンド解析を実行すると判定されたとき(S9:Y)、制御部110は、トレンド解析を行うための1以上の解析データ(萎縮領域画像を含む)を記憶部112から読み出す。ステップS31では、ステップS10と同様に、制御部110は、トレンド解析処理を解析部200に実行させる。また、ステップS10と同様に、所定の被検眼のデータの解析処理結果が得られていない場合には、必要に応じてステップS6における地図状萎縮領域の特定及びステップS7における形態解析が実行されてよい。例えば、解析部200は、地図状萎縮領域の特定や地図状萎縮領域の面積や外周囲長のトレンドグラフを生成する。
(S32:基準画像との差分を特定)
 次に、制御部110は、最先の検査日に取得された被検眼の眼底のデータを用いて特定された地図状萎縮領域画像を表す画像が眼底画像又は断層像にオーバーレイされた萎縮領域画像を基準画像として特定する。制御部110は、ステップS31において取得された解析データに含まれる萎縮領域画像に対して基準画像に対する差分特定処理を解析部に実行させる。
(S33:次の解析データ?)
 次の解析データがあるとき(S33:Y)、眼科情報処理装置100動作はステップS31に移行する。次の解析データがないとき(S33:N)、眼科情報処理装置100の動作はステップS34に移行する。
 いくつかの実施形態に係る変形例では、ステップS32において、ステップS31において差分特定処理対象の萎縮領域画像の直前に取得された萎縮領域画像を基準画像とする。それにより、解析部は、直前に取得された萎縮領域画像を基準画像として当該萎縮領域画像の差分を特定することにより複数の萎縮領域画像に対して順次に上記の差分特定処理を行うことができる。
(S34:差分領域の識別処理)
 ステップS33において次の解析データがないとき(S33:N)、制御部110は、ステップS32において特定された差分領域の識別処理をデータ処理部等に行わせる。例えば、データ処理部は、当該差分領域が識別表示されるように当該差分領域の画素値を変更するように差分領域に対応する画像データを変更する。
(S35:時系列表示)
 表示制御部111Aは、ステップS34において差分領域に対して識別処理が施された地図状萎縮領域を表す画像が眼底画像又は断層像にオーバーレイされた複数の萎縮領域画像を時系列に表示装置190の所定の表示領域に表示させる。また、表示制御部111Aは、層厚分布情報生成部205により生成された眼底平面における層厚の複数の2次元の分布情報を時系列に表示装置190の所定の表示領域に表示させる。
(S36:トレンドグラフ表示)
 表示制御部111Aは、ステップS10において生成されたトレンドグラフを表示装置190の所定の表示領域に表示させる。以上で、眼科情報処理装置100の動作は終了である(エンド)。
 図20に、いくつかの実施形態の変形例における萎縮領域画像の一例を示す。図20において、図13と同様の部分には同一符号を付し、適宜説明を省略する。
 例えば、表示制御部111Aは、地図状萎縮領域を表す画像IMGX1をシャドウグラム(眼底の正面画像)IMG2に重畳させて表示装置190に表示させる。地図状萎縮領域を表す画像IMGX1には、基準画像に対する差分領域IMGWが識別可能に描出される。
 また、表示制御部111Aは、地図状萎縮領域の面積の合計値、外周囲長の合計値、地図状萎縮領域の数を含む形態情報350を表示装置190に表示させることができる。いくつかの実施形態に係る表示制御部111Aは、各地図状萎縮領域の形態情報を対応する地図状萎縮領域に関連付けて表示装置190に表示させる。それにより、各地図状萎縮領域の形態を詳細に観察することができるようになる。また、基準画像に対する差分領域の形状を詳細に把握することができるようになる。
〔第3変形例〕
 いくつかの実施形態に係る眼科装置は、眼科装置10の機能に加えて、眼科情報処理装置100の機能、操作装置180の機能、及び表示装置190の機能の少なくとも1つを備える。
 以下、いくつかの実施形態の変形例に係る眼科装置について、上記の実施形態に係る眼科装置との相違点を中心に説明する。
 図21に、実施形態の変形例に係る眼科装置10bの構成例のブロック図を示す。図21において、図2と同様の部分には同一符号を付し、適宜説明を省略する。
 本変形例に係る眼科装置10bの構成が上記の実施形態に係る眼科装置10の構成と異なる点は、眼科装置10bが、眼科情報処理装置100の機能と、操作装置180の機能と、表示装置190の機能とを備えている点である。眼科装置10bは、制御部11bと、データ収集部12と、画像形成部13と、眼科情報処理部15bと、操作部16bと、表示部17bとを含む。
 制御部11bは、眼科装置10bの各部を制御する。特に、制御部11bは、データ収集部12と、画像形成部13と、眼科情報処理部15bと、操作部16bと、表示部17bとを制御する。
 眼科情報処理部15bは、眼科情報処理装置100と同様の構成を有し、眼科情報処理装置100と同様の機能を備えている。操作部16bは、操作装置180と同様の構成を有し、操作装置180と同様の機能を備えている。表示部17bは、表示装置190と同様の構成を有し、表示装置190と同様の機能を備えている。
 本変形例によれば、コンパクトな構成で、地図状萎縮領域の形態や分布を詳細に観察することが可能な眼科装置を提供することができる。
<効果>
 以下、いくつかの実施形態に係る眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラムの効果について説明する。
 いくつかの実施形態に係る眼科情報処理装置(100)は、解析部(200、200a)と、表示制御部(111A)とを含む。解析部は、光コヒーレンストモグラフィを用いて収集された被検眼の眼底のデータを解析することにより眼底における1以上の萎縮領域(地図状萎縮領域)を特定する。表示制御部は、収集タイミングが異なる複数のデータに基づいて、解析部により特定された複数の1以上の萎縮領域を表す画像を時系列に表示手段(表示装置190)に表示させる。
 このような構成によれば、収集タイミングが異なる複数の眼底のデータに基づいて特定された複数の1以上の萎縮領域を表す画像を時系列に表示手段に表示させるようにしたので、地図状萎縮領域などの萎縮領域の形態や分布を容易に経過観察することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置は、位置合わせ処理部(210)を含む。位置合わせ処理部は、被検眼の眼底画像と1以上の萎縮領域を表す画像との位置合わせを行う。表示制御部は、位置合わせ処理部により位置合わせが行われた1以上の萎縮領域を表す画像が眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に表示手段に表示させる。
 このような構成によれば、地図状萎縮領域などの萎縮領域を表す画像が眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に表示手段に表示させるようにしたので、萎縮領域の形態や分布の経過観察が容易になり、萎縮型加齢黄斑変性に対する適確な診断を補助することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、解析部は、複数の萎縮領域画像の少なくとも1つの萎縮領域画像に対して、複数の萎縮領域画像の1つである基準画像に対する差分を特定する差分特定処理を行う。表示制御部は、少なくとも1つの萎縮領域画像における上記の特定された差分に対応する領域を識別可能に表示手段に表示させる。
 このような構成によれば、萎縮領域画像において基準画像に対する差分を識別可能に表示手段に表示させるようにしたので、萎縮領域の形態や分布の変化を容易に把握することができるようになる。それにより、萎縮型加齢黄斑変性に対する適確な診断を補助することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、解析部は、直前に取得された萎縮領域画像を基準画像として当該萎縮領域画像の差分を特定することにより複数の萎縮領域画像に対して順次に差分特定処理を行う。
 このような構成によれば、複数の萎縮領域画像において、直前の萎縮領域画像に対する差分を識別可能に表示手段に表示させるようにしたので、萎縮領域の形態や分布の変化を容易に把握することができるようになる。それにより、萎縮型加齢黄斑変性に対する適確な診断を補助することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、解析部は、上記の眼底のデータに基づいて眼底における黄斑部の位置を特定する。表示制御部は、解析部により特定された黄斑部の位置を表す画像を萎縮領域画像にオーバーレイ表示させる。
 このような構成によれば、萎縮型加齢黄斑変性の進行度を容易に把握することができるため、進行する萎縮型加齢黄斑変性に対する適確な診断を補助することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、解析部は、セグメンテーション処理部(201)と、分布情報生成部(203)とを含む。セグメンテーション処理部は、上記の眼底のデータに基づいてAスキャン方向の複数の層領域を特定する。分布情報生成部は、セグメンテーション処理部により特定されたブルッフ膜より強膜側の層領域のAスキャン方向の画素値の積算値と、ブルッフ膜より角膜側の層領域のAスキャン方向の画素値の積算値との比の分布情報(コントラストマップ)を生成する。解析部は、分布情報に基づいて萎縮領域を特定する。
 このような構成によれば、光コヒーレンストモグラフィを用いて取得されたデータから地図状萎縮領域などの萎縮領域を特定し、特定された萎縮領域の画像を時系列に表示手段に表示させるようにしたので、被検者の負担を軽減しつつ、地図状萎縮領域などの萎縮領域の形態や分布の経過観察が容易になる。
 いくつかの実施形態に係る眼科情報処理装置では、解析部は、形態情報生成部(204)を含む。形態情報生成部は、上記の眼底のデータを解析することにより萎縮領域の形態を表す形態情報を生成する。表示制御部は、複数の形態情報を時系列に表示手段に表示させる。
 このような構成によれば、地図状萎縮領域などの萎縮領域の形態や分布の経過観察が容易になり、萎縮領域の形態を詳細に観察することができるようになる。表示制御部は、形態情報を対応する萎縮領域に関連付けて表示手段に表示させてもよい。
 いくつかの実施形態に係る眼科情報処理装置では、形態情報は、萎縮領域の面積、外周囲長の少なくとも1つを含む。
 このような構成によれば、萎縮領域の面積や外周囲長の時間的変化を表示させるようにしたので、萎縮領域の形態や分布の詳細な経過観察が容易になる。
 いくつかの実施形態に係る眼科情報処理装置では、表示制御部は、解析部により特定された複数の萎縮領域のそれぞれに対して、萎縮領域の面積、又は萎縮領域の外周囲長の少なくとも1つを時系列に表示手段に表示させる。
 このような構成によれば、個々の地図状萎縮領域などの萎縮領域の形態や分布の経過観察が容易になり、萎縮領域の形態を詳細に観察することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、形態情報は、解析部により特定された1以上の萎縮領域の面積の合計値、又は1以上の萎縮領域の外周囲長の合計値を含む。
 このような構成によれば、萎縮領域の形態や分布の経過観察を定量的に、且つ詳細に観察することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、形態情報は、萎縮領域の個数を含む。
 このような構成によれば、萎縮領域の形態や分布の経過観察を定量的に、且つ詳細に観察することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、表示制御部は、複数の形態情報に基づいて生成された形態情報の時間的変化を表す画像を表示手段に表示させる。
 このような構成によれば、地図状萎縮領域などの萎縮領域の形態や分布の経過観察が容易になり、萎縮領域の形態を詳細に観察することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置は、指定部(操作装置180)を含む。指定部は、解析部により特定された萎縮領域を指定するために用いられる。表示制御部は、指定部により指定された萎縮領域における形態情報の時間的変化を表す画像を表示手段に表示させる。
 このような構成によれば、指定部により指定された萎縮領域の形態情報の時間的変化を容易に把握することができるので、着目する萎縮領域に対する適確な診断を補助することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置では、解析部は、位置情報生成部(206a)を含む。位置情報生成部は、上記の眼底のデータを解析することにより眼底における黄斑部に対する萎縮領域の位置又は距離を表す位置情報を生成する。表示制御部は、複数の位置情報に基づいて生成された位置情報の時間的変化を表す画像を表示手段に表示させる。
 このような構成によれば、黄斑部と萎縮領域との位置関係の変化を容易に把握することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置は、指定部(操作装置180)を含む。指定部は、解析部により特定された萎縮領域を指定するために用いられる。解析部は、複数の1以上の萎縮領域を表す画像の少なくとも1つから指定部により指定された指定萎縮領域に対応する領域を特定する。表示制御部は、複数の1以上の萎縮領域を表す画像の少なくとも1つにおいて指定萎縮領域を識別可能に表示手段に表示させる。
 このような構成によれば、複数の萎縮領域画像において、指定部を用いて指定された萎縮領域だけを識別表示させることができるようになる。それにより、所望の萎縮領域に着目して形態や分布の変化を把握することができるようになる。
 いくつかの実施形態に係る眼科情報処理装置は、層厚分布情報生成部(205)を含む。層厚分布情報生成部は、上記の眼底のデータに基づいてAスキャン方向の1以上の層組織の層厚を特定し、特定された層厚の分布情報を生成する。表示制御部は、層厚分布情報生成部により生成された層厚の分布情報を時系列に表示手段に表示させる。
 このような構成によれば、眼底における層厚の分布の経過観察が容易になり、層厚の分布の変化を詳細に観察することができるようになる。
 いくつかの実施形態に係る眼科システムは、光コヒーレンストモグラフィを用いて被検眼をスキャンすることにより上記の眼底のデータを収集するデータ収集部(12)と、表示手段と、上記のいずれかに記載の眼科情報処理装置と、を含む。
 このような構成によれば、収集タイミングが異なる複数の眼底のデータに基づいて特定された複数の1以上の萎縮領域を表す画像を時系列に表示手段に表示させることで、地図状萎縮領域などの萎縮領域の形態や分布を容易に経過観察することが可能な眼科システムを提供することができるようになる。
 いくつかの実施形態に係る眼科情報処理方法は、解析ステップと、表示ステップとを含む。解析ステップは、光コヒーレンストモグラフィを用いて収集された被検眼の眼底のデータを解析することにより眼底における1以上の萎縮領域を特定する。表示ステップは、収集タイミングが異なる複数の眼底のデータに基づいて、解析ステップにおいて特定された複数の1以上の萎縮領域を表す画像を時系列に表示手段(表示装置190)に表示させる。
 このような構成によれば、収集タイミングが異なる複数の眼底のデータに基づいて特定された複数の1以上の萎縮領域を表す画像を時系列に表示手段に表示させるようにしたので、地図状萎縮領域などの萎縮領域の形態や分布を容易に経過観察することができるようになる。
 いくつかの実施形態に係る眼科情報処理方法は、位置合わせステップを含む。位置合わせステップは、被検眼の眼底画像と1以上の萎縮領域を表す画像との位置合わせを行う。表示ステップは、位置合わせステップにおいて位置合わせが行われた1以上の萎縮領域を表す画像が眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に表示手段に表示させる。
 このような構成によれば、地図状萎縮領域などの萎縮領域を表す画像が眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に表示手段に表示させるようにしたので、萎縮領域の形態や分布の経過観察が容易になり、萎縮型加齢黄斑変性に対する適確な診断を補助することができるようになる。
 いくつかの実施形態に係る眼科情報処理方法では、解析ステップは、セグメンテーション処理ステップと、分布情報生成ステップとを含む。セグメンテーション処理ステップは、上記の眼底のデータに基づいてAスキャン方向の複数の層領域を特定する。分布情報生成ステップは、セグメンテーション処理ステップにおいて特定されたブルッフ膜より強膜側の層領域のAスキャン方向の画素値の積算値と、ブルッフ膜より角膜側の層領域のAスキャン方向の画素値の積算値との比の分布情報(コントラストマップ)を生成する。解析ステップは、分布情報に基づいて萎縮領域を特定する。
 このような構成によれば、光コヒーレンストモグラフィを用いて取得されたデータから地図状萎縮領域などの萎縮領域を特定し、特定された萎縮領域の画像を時系列に表示手段に表示させるようにしたので、被検者の負担を軽減しつつ、地図状萎縮領域などの萎縮領域の形態や分布の経過観察が容易になる。
 いくつかの実施形態に係る眼科情報処理方法では、解析ステップは、上記の眼底のデータを解析することにより萎縮領域の形態を表す形態情報を生成する。表示ステップは、複数の形態情報に基づいて生成された形態情報の時間的変化を表す画像を表示手段に表示させる。
 このような構成によれば、地図状萎縮領域などの萎縮領域の形態や分布の経過観察が容易になり、萎縮領域の形態を詳細に観察することができるようになる。
 いくつかの実施形態に係るプログラムは、コンピュータに、上記のいずれかに記載の眼科情報処理方法の各ステップを実行させる。
 このような構成によれば、コンピュータに収集タイミングが異なる複数の眼底のデータに基づいて特定された複数の1以上の萎縮領域を表す画像を時系列に表示手段に表示させるようにしたので、地図状萎縮領域などの萎縮領域の形態や分布を容易に経過観察するためのプログラムを提供することができるようになる。
 いくつかの実施形態に係る眼科情報処理方法を実現するためのプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。記録媒体は、磁気、光、光磁気、半導体などを利用した電子媒体であってよい。典型的には、記録媒体は、磁気テープ、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ、ソリッドステートドライブなどである。
 また、インターネットやLAN等のネットワークを通じてコンピュータプログラムを送受信することも可能である。
 以上に説明した態様は、この発明を実施するための例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を施すことが可能である。
1 眼科システム
10、10b 眼科装置
11、11b、110 制御部
12 データ収集部
12A 干渉光学系
12B スキャン光学系
13、120 画像形成部
14、140 通信部
15b 眼科情報処理部
16b 操作部
17b 表示部
100 眼科情報処理装置
111 主制御部
111A 表示制御部
112 記憶部
130 データ処理部
180 操作装置
190 表示装置
200、200a 解析部
201 セグメンテーション処理部
202 領域特定部
203 分布情報生成部
204 形態情報生成部
205 層厚分布情報生成部
206a 位置情報生成部
210 位置合わせ処理部

Claims (22)

  1.  光コヒーレンストモグラフィを用いて収集された被検眼の眼底のデータを解析することにより前記眼底における1以上の萎縮領域を特定する解析部と、
     収集タイミングが異なる複数の前記データに基づいて、前記解析部により特定された複数の前記1以上の萎縮領域を表す画像を時系列に表示手段に表示させる表示制御部と、
     を含む眼科情報処理装置。
  2.  前記被検眼の眼底画像と前記1以上の萎縮領域を表す画像との位置合わせを行う位置合わせ処理部を含み、
     前記表示制御部は、前記位置合わせ処理部により位置合わせが行われた前記1以上の萎縮領域を表す画像が前記眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に前記表示手段に表示させる
     ことを特徴とする請求項1に記載の眼科情報処理装置。
  3.  前記解析部は、前記複数の萎縮領域画像の少なくとも1つの萎縮領域画像に対して、前記複数の萎縮領域画像の1つである基準画像に対する差分を特定する差分特定処理を行い、
     前記表示制御部は、前記少なくとも1つの萎縮領域画像における前記特定された差分に対応する領域を識別可能に前記表示手段に表示させる
     ことを特徴とする請求項2に記載の眼科情報処理装置。
  4.  前記解析部は、直前に取得された萎縮領域画像を前記基準画像として当該萎縮領域画像の差分を特定することにより前記複数の萎縮領域画像に対して順次に前記差分特定処理を行う
     ことを特徴とする請求項3に記載の眼科情報処理装置。
  5.  前記解析部は、前記データに基づいて前記眼底における黄斑部の位置を特定し、
     前記表示制御部は、前記解析部により特定された前記黄斑部の位置を表す画像を前記萎縮領域画像にオーバーレイ表示させる
     ことを特徴とする請求項2~請求項4のいずれか一項に記載の眼科情報処理装置。
  6.  前記解析部は、
     前記データに基づいてAスキャン方向の複数の層領域を特定するセグメンテーション処理部と、
     前記セグメンテーション処理部により特定されたブルッフ膜より強膜側の層領域のAスキャン方向の画素値の積算値と、前記ブルッフ膜より角膜側の層領域のAスキャン方向の画素値の積算値との比の分布情報を生成する分布情報生成部と、
     を含み、
     前記分布情報に基づいて前記萎縮領域を特定する
     ことを特徴とする請求項1~請求項5のいずれか一項に記載の眼科情報処理装置。
  7.  前記解析部は、前記データを解析することにより前記萎縮領域の形態を表す形態情報を生成する形態情報生成部を含み、
     前記表示制御部は、複数の前記形態情報を時系列に前記表示手段に表示させる
     ことを特徴とする請求項1~請求項6のいずれか一項に記載の眼科情報処理装置。
  8.  前記形態情報は、前記萎縮領域の面積、外周囲長の少なくとも1つを含む
     ことを特徴とする請求項7に記載の眼科情報処理装置。
  9.  前記表示制御部は、前記解析部により特定された複数の前記萎縮領域のそれぞれに対して、前記萎縮領域の面積、又は前記萎縮領域の外周囲長の少なくとも1つを時系列に前記表示手段に表示させる
     ことを特徴とする請求項8に記載の眼科情報処理装置。
  10.  前記形態情報は、前記解析部により特定された前記1以上の萎縮領域の面積の合計値、又は前記1以上の萎縮領域の外周囲長の合計値を含む
     ことを特徴とする請求項8又は請求項9に記載の眼科情報処理装置。
  11.  前記形態情報は、前記萎縮領域の個数を含む
     ことを特徴とする請求項7~請求項10のいずれか一項に記載の眼科情報処理装置。
  12.  前記表示制御部は、複数の前記形態情報に基づいて生成された前記形態情報の時間的変化を表す画像を前記表示手段に表示させる
     ことを特徴とする請求項7~請求項11のいずれか一項に記載の眼科情報処理装置。
  13.  前記解析部により特定された萎縮領域を指定するための指定部を含み、
     前記表示制御部は、前記指定部により指定された萎縮領域における前記形態情報の時間的変化を表す画像を前記表示手段に表示させる
     ことを特徴とする請求項7~請求項12のいずれか一項に記載の眼科情報処理装置。
  14.  前記解析部は、前記データを解析することにより前記眼底における黄斑部に対する前記萎縮領域の位置又は距離を表す位置情報を生成する位置情報生成部を含み、
     前記表示制御部は、複数の前記位置情報に基づいて生成された前記位置情報の時間的変化を表す画像を前記表示手段に表示させる
     ことを特徴とする請求項1~請求項13のいずれか一項に記載の眼科情報処理装置。
  15.  前記解析部により特定された萎縮領域を指定するための指定部を含み、
     前記解析部は、前記複数の1以上の萎縮領域を表す画像の少なくとも1つから前記指定部により指定された指定萎縮領域に対応する領域を特定し、
     前記表示制御部は、前記複数の1以上の萎縮領域を表す画像の少なくとも1つにおいて前記指定萎縮領域を識別可能に前記表示手段に表示させる
     ことを特徴とする請求項1~請求項12のいずれか一項に記載の眼科情報処理装置。
  16.  前記解析部は、前記データに基づいてAスキャン方向の1以上の層組織の層厚を特定し、特定された層厚の分布情報を生成する層厚分布情報生成部を含み、
     前記表示制御部は、前記層厚分布情報生成部により生成された前記層厚の分布情報を時系列に前記表示手段に表示させる
     ことを特徴とする請求項1~請求項15のいずれか一項に記載の眼科情報処理装置。
  17.  光コヒーレンストモグラフィを用いて前記被検眼をスキャンすることにより前記データを収集するデータ収集部と、
     前記表示手段と、
     請求項1~請求項16のいずれか一項に記載の眼科情報処理装置と、
     を含む眼科システム。
  18.  光コヒーレンストモグラフィを用いて収集された被検眼の眼底のデータを解析することにより前記眼底における1以上の萎縮領域を特定する解析ステップと、
     収集タイミングが異なる複数の前記データに基づいて、前記解析ステップにおいて特定された複数の前記1以上の萎縮領域を表す画像を時系列に表示手段に表示させる表示ステップと、
     を含む眼科情報処理方法。
  19.  前記被検眼の眼底画像と前記1以上の萎縮領域を表す画像との位置合わせを行う位置合わせステップを含み、
     前記表示ステップは、前記位置合わせステップにおいて位置合わせが行われた前記1以上の萎縮領域を表す画像が前記眼底画像にオーバーレイされた複数の萎縮領域画像を時系列に前記表示手段に表示させる
     ことを特徴とする請求項18に記載の眼科情報処理方法。
  20.  前記解析ステップは、
     前記データに基づいてAスキャン方向の複数の層領域を特定するセグメンテーション処理ステップと、
     前記セグメンテーション処理ステップにおいて特定されたブルッフ膜より強膜側の層領域のAスキャン方向の画素値の積算値と、前記ブルッフ膜より角膜側の層領域のAスキャン方向の画素値の積算値との比の分布情報を生成する分布情報生成ステップと、
     を含み、
     前記分布情報に基づいて前記萎縮領域を特定する
     ことを特徴とする請求項18又は請求項19に記載の眼科情報処理方法。
  21.  前記解析ステップは、前記データを解析することにより前記萎縮領域の形態を表す形態情報を生成する形態情報生成ステップを含み、
     前記表示ステップは、複数の前記形態情報に基づいて生成された前記形態情報の時間的変化を表す画像を前記表示手段に表示させる
     ことを特徴とする請求項18~請求項20のいずれか一項に記載の眼科情報処理方法。
  22.  コンピュータに、請求項18~請求項21のいずれか一項に記載の眼科情報処理方法の各ステップを実行させることを特徴とするプログラム。
PCT/JP2018/038121 2017-11-24 2018-10-12 眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム WO2019102740A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP18881193.9A EP3714768A4 (en) 2017-11-24 2018-10-12 OPHTHALMIC INFORMATION PROCESSING DEVICE, OPHTHALMIC SYSTEM, OPHTHALMIC INFORMATION PROCESSING, AND PROGRAM
US16/878,631 US11832884B2 (en) 2017-11-24 2020-05-20 Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017225888A JP7126818B2 (ja) 2017-11-24 2017-11-24 眼科情報処理装置、眼科システム、眼科情報処理装置の作動方法、及びプログラム
JP2017-225888 2017-11-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/878,631 Continuation US11832884B2 (en) 2017-11-24 2020-05-20 Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and recording medium

Publications (1)

Publication Number Publication Date
WO2019102740A1 true WO2019102740A1 (ja) 2019-05-31

Family

ID=66631441

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038121 WO2019102740A1 (ja) 2017-11-24 2018-10-12 眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US11832884B2 (ja)
EP (1) EP3714768A4 (ja)
JP (1) JP7126818B2 (ja)
WO (1) WO2019102740A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019034231A1 (en) * 2017-08-14 2019-02-21 Optos Plc TRACKING RETINAL POSITION

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013031527A (ja) * 2011-08-01 2013-02-14 Canon Inc 眼科診断支援装置および方法
JP2014505552A (ja) 2011-01-28 2014-03-06 オプトビュー,インコーポレーテッド 光干渉断層法の正面鉛直断面ビューを使用する網膜疾患のコンピュータ援用診断
JP2014083268A (ja) 2012-10-24 2014-05-12 Nidek Co Ltd 眼科解析装置、及び眼科解析プログラム
JP2014083266A (ja) 2012-10-24 2014-05-12 Nidek Co Ltd 眼科解析装置、及び眼科解析プログラム
JP2015029559A (ja) * 2013-07-31 2015-02-16 キヤノン株式会社 撮影装置及び撮影方法
US20150201829A1 (en) 2014-01-21 2015-07-23 Kabushiki Kaisha Topcon Geographic atrophy identification and measurement
US20160284103A1 (en) * 2015-03-26 2016-09-29 Eyekor, Llc Image analysis

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5993001A (en) * 1997-06-05 1999-11-30 Joslin Diabetes Center, Inc. Stereoscopic imaging system for retinal examination with remote examination unit
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
JP5148928B2 (ja) * 2007-05-31 2013-02-20 株式会社トプコン 眼底検査装置及びプログラム
EP4201304A1 (en) 2012-10-24 2023-06-28 Nidek Co., Ltd. Ophthalmic analysis apparatus
US20140276025A1 (en) * 2013-03-14 2014-09-18 Carl Zeiss Meditec, Inc. Multimodal integration of ocular data acquisition and analysis
WO2016110917A1 (en) * 2015-01-07 2016-07-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method for polarization-sensitive optical coherence tomography
US10117568B2 (en) * 2015-01-15 2018-11-06 Kabushiki Kaisha Topcon Geographic atrophy identification and measurement
JP6843521B2 (ja) * 2016-04-28 2021-03-17 キヤノン株式会社 画像処理装置及び画像処理方法
JP6378795B2 (ja) * 2017-02-27 2018-08-22 国立大学法人東北大学 眼科撮影装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014505552A (ja) 2011-01-28 2014-03-06 オプトビュー,インコーポレーテッド 光干渉断層法の正面鉛直断面ビューを使用する網膜疾患のコンピュータ援用診断
JP2013031527A (ja) * 2011-08-01 2013-02-14 Canon Inc 眼科診断支援装置および方法
JP2014083268A (ja) 2012-10-24 2014-05-12 Nidek Co Ltd 眼科解析装置、及び眼科解析プログラム
JP2014083266A (ja) 2012-10-24 2014-05-12 Nidek Co Ltd 眼科解析装置、及び眼科解析プログラム
JP2015029559A (ja) * 2013-07-31 2015-02-16 キヤノン株式会社 撮影装置及び撮影方法
US20150201829A1 (en) 2014-01-21 2015-07-23 Kabushiki Kaisha Topcon Geographic atrophy identification and measurement
JP2015136626A (ja) 2014-01-21 2015-07-30 株式会社トプコン 地図状萎縮の同定及び測定
JP2016107148A (ja) 2014-01-21 2016-06-20 株式会社トプコン 眼科画像処理装置
US20160284103A1 (en) * 2015-03-26 2016-09-29 Eyekor, Llc Image analysis

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3714768A4

Also Published As

Publication number Publication date
JP2019092920A (ja) 2019-06-20
US11832884B2 (en) 2023-12-05
EP3714768A4 (en) 2021-07-28
JP7126818B2 (ja) 2022-08-29
EP3714768A1 (en) 2020-09-30
US20200275834A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP5697733B2 (ja) 3次元光コヒーレンストモグラフィを用いた視神経障害の検出
JP5913392B2 (ja) 神経障害解析装置
JP6843521B2 (ja) 画像処理装置及び画像処理方法
JP6685706B2 (ja) 画像処理装置及び画像処理方法
JP7009265B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2015160105A (ja) 画像処理装置、画像処理方法及びプログラム
JP7220509B2 (ja) 眼科装置及び眼科画像処理方法
JP7199477B2 (ja) 眼科情報処理装置、眼科システム、眼科情報処理装置の作動方法、及びプログラム
JP2023133539A (ja) 眼科情報処理装置及び眼科撮影装置
WO2019102740A1 (ja) 眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム
JP7457315B2 (ja) 情報処理装置、推論モデル生成方法、情報処理方法、及びプログラム
JP6976147B2 (ja) 眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム
JP7246862B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP7162479B2 (ja) 眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム
JP7384656B2 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP7297133B2 (ja) 眼科情報処理装置及び眼科撮影装置
JP2021087817A (ja) 画像処理装置及び画像処理方法
JP2022111263A (ja) 画像処理装置、画像処理方法及びプログラム
JP2017131551A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18881193

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018881193

Country of ref document: EP

Effective date: 20200624