WO2010119596A1 - 医用画像処理装置及びその制御方法 - Google Patents

医用画像処理装置及びその制御方法 Download PDF

Info

Publication number
WO2010119596A1
WO2010119596A1 PCT/JP2010/000729 JP2010000729W WO2010119596A1 WO 2010119596 A1 WO2010119596 A1 WO 2010119596A1 JP 2010000729 W JP2010000729 W JP 2010000729W WO 2010119596 A1 WO2010119596 A1 WO 2010119596A1
Authority
WO
WIPO (PCT)
Prior art keywords
visual field
measurement result
layer thickness
fundus camera
field measurement
Prior art date
Application number
PCT/JP2010/000729
Other languages
English (en)
French (fr)
Inventor
米沢恵子
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to US12/854,049 priority Critical patent/US9451878B2/en
Publication of WO2010119596A1 publication Critical patent/WO2010119596A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/4893Nerves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present invention relates to a medical image processing apparatus and a control method thereof.
  • OCT optical coherence tomography
  • Patent Document 1 abnormalities around the optic nerve head and optic nerve fiber defects obtained from visual field abnormality data from a perimeter and fundus camera images are listed using fundus coordinates defined based on the running of nerve fibers. . Further, Patent Document 2 proposes a perimeter that can specify a position for visual field measurement on a fundus camera image, and by using the perimeter, it is possible to obtain visual field sensitivity at a position that appears to be abnormal in the fundus camera image. .
  • Patent Documents 1 and 2 list abnormal information obtained from fundus camera images and perimeters, but do not mention the relationship with OCT.
  • a relationship is known in which a structural abnormality is first detected and then a functional abnormality obtained from a perimeter is detected.
  • structural abnormalities can also be detected from findings on the fundus camera image, OCT can capture early changes in layer thickness and three-dimensional structural changes more accurately.
  • diagnosis support in which such OCT findings are associated with perimetry or fundus camera image findings.
  • the present invention has been made in view of the above problems, and integrates the tomographic image of the retina obtained from OCT and the visual function information obtained from the perimeter to provide information on effective glaucoma. Objective.
  • a medical image processing apparatus comprising presentation means for presenting information representing glaucoma of the eye to be examined.
  • information about effective glaucoma can be provided by integrating the tomographic image of the retina obtained from the OCT and the information on the visual function obtained from the perimeter.
  • the accompanying drawings are included in the specification, constitute a part thereof, show an embodiment of the present invention, and are used to explain the principle of the present invention together with the description.
  • the figure which shows the structure of the medical image processing apparatus which concerns on 1st Embodiment. 5 is a flowchart showing a processing procedure of the information processing apparatus according to the first embodiment.
  • the figure explaining the layer structure of a retina The figure explaining the state which registered the fundus camera image, visual field measurement result, and OCT projection image which concern on 1st Embodiment.
  • FIG. 10 is a flowchart showing visual field / fundus correspondence processing according to the second embodiment.
  • 9 is a flowchart showing visual field / fundus / OCT correspondence processing according to the second embodiment.
  • the medical image processing apparatus includes, for example, an information processing apparatus 10 and a diagnosis support apparatus 15.
  • the information processing apparatus 10 and the diagnosis support apparatus 15 are connected to the eye information acquisition apparatus 20 and the data server 40 via a local area network (LAN) 30. Connection with these devices is performed via an interface such as Ethernet (registered trademark), USB, IEEE 1394, or the like.
  • LAN local area network
  • the data server 40 includes a case database 41 that collects glaucoma cases.
  • the case database 41 stores glaucoma cases with different degrees of progression from initial glaucoma to late glaucoma.
  • the to-be-inspected eye information acquisition device 20 is a generic name for a group of devices that acquire measurement data of a fundus camera, an optical coherence tomography (OCT), or a perimeter.
  • OCT optical coherence tomography
  • the eye information acquisition device 20 performs imaging of the eye to be examined and measurement of visual field sensitivity in response to an operation by an operator (not shown), and obtains the obtained image and other information as the diagnosis support device 15 and the data server 40. Send to.
  • FIG. 1 is a diagram illustrating a functional configuration of the information processing apparatus 10 according to the preprocessing stage of the present embodiment.
  • the eye information acquisition unit 110 acquires the examination result of the eye to be examined, and the input result acquisition unit 120 acquires input from an operator (not shown).
  • the registration unit 160 performs an association process between the examination results of the eye to be examined, and the visual field / OCT association unit 170 associates the visual field sensitivity with the layer thickness based on the association result in the registration unit 160.
  • the integrated analysis unit 180 sets a reference for determining whether or not the subject is glaucoma based on the result associated with the visual field / OCT association unit 170.
  • the storage unit 130 stores the examination results obtained from the eye information obtaining unit 110, the inputs obtained from the input result obtaining unit 120, and the analysis results obtained by the registration unit 160 and the integrated analysis unit 180.
  • the display unit 140 displays the content stored in the storage unit 130 on a monitor or the like (not shown), and the result output unit 150 transmits the content stored in the storage unit 130 to the data server 40.
  • FIG. 2 is a diagram illustrating a functional configuration of the diagnosis support apparatus 15 according to the diagnosis support process.
  • An information processing result acquisition unit 215 is added to the functional configuration of the information processing apparatus 10 in FIG. 1, and the integrated analysis unit 180 is replaced with an integrated information presentation unit.
  • the information processing result acquisition unit 215 acquires a processing result in the information processing apparatus.
  • the integrated information presentation unit 280 sets presentation information for diagnosis support for the case input by the eye information acquisition unit 110 to be examined.
  • the eye information acquisition unit 110 to be examined acquires a fundus camera image, a visual field measurement result, and an OCT image of the same subject from the case database 41 in the data server 40 (S410). Then, the acquired information is transmitted to the storage unit 130.
  • the registration unit 160 acquires a visual field measurement result and a fundus camera image from the storage unit 130.
  • visual field measurement refers to measuring the response of a subject to bright spots having different sizes, luminances, and positions shown on the subject eye.
  • the Humphrey perimeter which is a static perimeter
  • the OCTopus perimeter and the Goldmann perimeter, which is a dynamic perimeter
  • For detection of visual field abnormalities in early glaucoma examination with a static perimeter is effective, and various glaucoma examination programs are available, but the types of perimeter and measurement programs are limited to the examples shown here. It is not something.
  • the optic disc and the macula are detected from the fundus camera image.
  • a technique for detecting the optic disc in the fundus camera image for example, a technique using blood vessels is known.
  • the position of the nipple is detected by using the feature that the blood vessel network extending in the retina converges on the optic nerve head.
  • the detection of the macular part there is known a method of detecting using the feature that the fovea is a peak and the luminance is lower than that of the peripheral part.
  • the measurement point of the obtained visual field measurement result is associated with the position on the fundus camera image (S420).
  • the fixation center that is the center of visual field measurement is associated with the fovea that is the center of the macula
  • the blind spot position is associated with the optic disc
  • the scale of the position of the fundus camera image and the visual field measurement result is matched.
  • Match the position of the fundus camera image with the visual field measurement result by associating the position of the macula and optic nerve head detected from the fundus camera image with the fixation center and blind spot position obtained from the visual field measurement result, respectively.
  • the visual field measurement result is associated with the fundus camera image.
  • the registration unit 160 performs OCT image processing (S430). Specifically, the registration unit 160 acquires an OCT tomogram from the storage unit 130 and extracts a retinal layer from the tomogram.
  • FIG. 5 shows a schematic diagram of the retinal layer structure around the macula.
  • the inner boundary membrane 3, the nerve fiber layer boundary 4, and the retinal pigment epithelium layer boundary 5 are detected from the tomogram, and the thickness T1 of the nerve fiber layer and the thickness T2 of the entire retinal layer are obtained.
  • the layer of interest is not limited to these two types.
  • the three-dimensional tomographic image to be processed is considered as a set of two-dimensional tomographic images (B / scan images), and the following two-dimensional image processing is executed for each two-dimensional tomographic image.
  • smoothing filter processing is performed on the two-dimensional tomographic image of interest to remove noise components.
  • edge components are detected from the tomogram, and some line segments are extracted as layer boundary candidates based on the connectivity.
  • the uppermost line segment is selected as the inner boundary film 3 from these candidates.
  • the line segment immediately below the inner boundary membrane 3 is selected as the nerve fiber layer boundary 4.
  • the bottom line segment is selected as the retinal pigment epithelium layer boundary 5.
  • the detection accuracy may be improved by applying a dynamic contour method such as a Snake or a level set method using these line segments as initial values.
  • a layer boundary may be detected using a technique such as graph cut. Note that the boundary detection using the dynamic contour method or the graph cut may be performed three-dimensionally for a three-dimensional tomographic image, or the three-dimensional tomographic image to be processed is considered as a set of two-dimensional tomographic images. The two-dimensional tomographic image may be applied two-dimensionally. Note that the method for detecting the layer boundary is not limited to these, and any method may be used as long as the layer boundary can be detected from the tomographic image of the eye.
  • the registration unit 160 further quantifies the thickness of the nerve fiber layer and the thickness of the entire retinal layer based on the detected layer boundary.
  • the thickness T1 of the nerve fiber layer is calculated by obtaining the difference in z coordinate between the nerve fiber layer boundary 4 and the inner boundary film 3 at each coordinate point on the xy plane.
  • the thickness T2 of the entire retinal layer is calculated.
  • the processing proceeds using the thickness of the nerve fiber layer that more clearly shows glaucomatous changes. Therefore, the layer thickness means the thickness of the nerve fiber layer.
  • the retina is known to have a plurality of layer structures, and the display of the layer thickness in the present proposal is not limited to the nerve fiber layer.
  • the registration unit 160 further detects the coordinates of the fovea using the inner boundary film 3. Specifically, a point at which the z coordinate of the detected inner boundary film 3 is maximum near the center of the tomographic image is defined as the fovea. Then, these results obtained in S430 are output to the storage unit 130.
  • the registration unit 160 registers the distribution of the layer thickness of the nerve fiber layer obtained from the OCT tomogram in S430 to the visual field measurement result and the fundus camera image associated in S420 (S440).
  • An image obtained by integrating the pixel values of the corresponding coordinates of z on the xy plane is created for the OCT three-dimensional tomographic image.
  • the two-dimensional image created in this way is called an OCT projection image, and the OCT projection image is registered on the fundus camera image.
  • the visual field sensitivity information associated with the fundus camera image and the layer thickness information of the nerve fiber layer associated with the OCT projection image are obtained. Can be associated.
  • the visual field / OCT associating unit 170 normalizes the layer thickness of the OCT image registered in S440 using the average distribution value of normal examples of the OCT layer thickness (S450).
  • the average distribution value of normal cases is a layer thickness distribution obtained by superimposing OCT tomograms of a plurality of normal cases and averaging them at each position.
  • the layer thickness at each position is normalized with the average value of normal examples being 1.
  • normalization is performed by excluding the fovea.
  • the OCT / field matching unit 170 associates the normalized layer thickness with the field measurement result associated in S440 with the corresponding region.
  • the region is obtained by dividing the OCT imaging range and the range in which visual field measurement is performed, and each pixel is the minimum.
  • FIG. 6 shows an example of a result obtained by registering an imaging region obtained by imaging the periphery of the macula by OCT, a fundus camera image, and a visual field measurement result.
  • An example in which the OCT imaging region is divided is also shown.
  • an example is shown in which the OCT imaging region of the macular region is divided into 11 ⁇ 11, and the average layer thickness and visual field sensitivity in each region are calculated and shown in the graph.
  • region segmentation a characteristic is used in which nerve fibers run without crossing up and down with respect to a line connecting the macula and the optic nerve head.
  • a straight line connecting the central macular portion and the optic papilla is considered, the X axis is considered to be parallel to the straight line, and the Y axis is assumed to be vertical, and the center is placed in the central fovea of the central macular region.
  • Region division is also performed along the X and Y axes.
  • the average of the layer thickness is the average value in each region of the layer thickness distribution obtained from OCT in S430, and the average value of the visual field sensitivity is calculated as follows from the value of the visual field sensitivity measurement point. To do.
  • the value of the visual field sensitivity f (x, y) at a certain point (x, y) is the surrounding points (x1, y1), (x1, y2), (x2, y1), (x2) where the visual field measurement is performed. , Y2) is calculated as shown in Equation 1. The positional relationship of each point is shown in FIG.
  • the visual field sensitivity measurement points do not coincide with the grid points of the area division in FIG.
  • the visual field sensitivity at each point is obtained by averaging the visual field sensitivity values obtained at the respective points within the region. Then, the thickness of the nerve fiber layer and the visual field sensitivity are associated with each other and stored in the storage unit 130.
  • the OCT / field-of-view association unit 170 determines whether there are any remaining cases in the case database 41 (S460). If there is a remainder, the process returns to S410 and the above process is repeated. When the above process is performed on all cases in the case database 41, the process proceeds to S470.
  • the integrated analysis unit 180 generates a reference for determining whether or not the subject is glaucoma based on the change in the layer thickness and the change in the visual field sensitivity associated in S450.
  • the integrated analysis unit 180 includes a graph creation unit 182, a cell division unit 184, and a color arrangement setting unit 186.
  • the graph creating unit 182 creates a graph representing the relationship between the layer thickness of the divided area set by the visual field / OCT associating unit 170 and the visual field sensitivity value, and outputs the graph to the cell dividing unit 184.
  • the cell dividing unit 184 divides the graph area created by the graph creating unit 182 into a plurality of cells according to the layer thickness value and the visual field sensitivity value, and outputs them to the color arrangement setting unit 186.
  • the color arrangement setting unit 186 sets a color used for display for each cell divided by the cell dividing unit 184.
  • the integrated analysis unit 180 selects one of the divided areas set in S450 (S910). And the value of the layer thickness and visual field sensitivity in the said area
  • the graph creating unit 182 graphs the values of the layer thickness and the visual field sensitivity acquired in S910, with the layer thickness on the horizontal axis and the visual field sensitivity on the vertical axis (S920). An example of the graph created here is shown in FIG.
  • the cell dividing unit 184 divides the graph area created in S920 according to the layer thickness value and the visual field sensitivity value (S930). The purpose of this is to separate the selected area into a case where the change in visual field sensitivity is slight and a change should be detected by the layer thickness, and a case where the change in the visual field is obvious and the change should be detected by the visual field sensitivity. .
  • the visual field sensitivity is divided every 5 dB of sensitivity reduction, and the layer thickness is divided every time the layer thickness change is reduced by 10%.
  • the division method is not limited to the above method.
  • the division value and range depend on the perimeter to be used, its presentation information, the segmentation range in OCT image processing, and so on, and therefore must be determined accordingly.
  • the relationship between the change in layer thickness and the reduction in visual field sensitivity varies depending on the region, and it is known that the decrease in the layer thickness required for the equivalent reduction in visual field sensitivity is particularly large at locations close to the macula. Therefore, the cell division method here differs depending on the region to be selected.
  • the color arrangement setting unit 186 sets a color used for display for each cell divided in S930 (S940). As a method of color arrangement, a case where the color is set so as to become darker as the degree of progress proceeds can be considered.
  • FIG. 11 shows a schematic diagram when the cell division in S930 and the color scheme setting in S940 are performed.
  • the method shown in gray scale for both the layer thickness and the visual field sensitivity is adopted.
  • gray scale for the layer thickness and color gradation for the visual field sensitivity it is possible to use gray scale for the layer thickness and color gradation for the visual field sensitivity. In that case, it is possible to clearly indicate a region where the visual field sensitivity is reduced.
  • the color scheme setting unit 186 sets a region indicating the layer thickness and visual field sensitivity that deviates from glaucoma according to the cell division performed in S930. Specifically, as shown in black in FIG. 11, this corresponds to the case where the visual field sensitivity is lowered despite the layer thickness. This may simply be a variation in measurement, but at the same time it may show signs of a disease different from glaucoma. In this way, a cell that can be determined to deviate from glaucoma is set, and a color scheme that can be clearly distinguished from other cells is set for the cell.
  • FIG. 12 shows a case of polar coordinate display using the 90% point of the layer thickness and the visual field sensitivity decrease of ⁇ 30 db as the origin.
  • the angle ⁇ represents the angle from the vertical axis indicating the 90% layer thickness point
  • the radius vector R represents the distance from the origin.
  • the hue is changed by ⁇ and the brightness is changed by R.
  • the color scheme is set as follows using the HSV hue system, assuming that the color changes from blue to red when glaucoma progresses, and changes from bright to black when glaucoma deviates.
  • the integrated analysis unit 180 determines whether or not all of the divided areas set in S450 have been selected in S910 (S950). If there is an area that has not yet been selected, the process returns to S910. If all areas have been selected, the integrated analysis process in S470 is terminated.
  • the integrated analysis unit 180 stores the analysis result in the storage unit 130 and also stores it in the data server 40 through the result output unit 150 (S480).
  • the input result acquisition unit 120 acquires information for identifying the eye to be examined such as a patient ID from the outside (S1310). Then, the eye information acquisition unit 110 acquires a fundus camera image, a visual field measurement result, and an OCT image corresponding to the patient ID from the eye information acquisition device 20 based on the information for identifying the eye. Then, the acquired information is transmitted to the storage unit 130.
  • the registration unit 160 registers the fundus camera image, visual field measurement result, and OCT image acquired in S1310 using the same method as in S410 / S440 (S1320 / S1340). Then, these results obtained in S440 are transmitted to the storage unit 130.
  • the information processing result acquisition unit 215 acquires the association information for each region of the visual field sensitivity and the layer thickness, which is integratedly analyzed with respect to the cases in the case database, stored in the data server 40 in S480 (S1350). Then, the acquired information is transmitted to the storage unit 130.
  • the visual field / OCT association unit 170 associates the visual field sensitivity with the layer thickness of the nerve fiber layer using the fundus camera image, the visual field measurement result, and the OCT image registered in S1240 (S1360). Here, the same method as in S450 is used.
  • the integrated information presentation unit 280 performs integrated information presentation processing (S1370). Here, the integrated information presentation unit 280 compares the visual field / layer thickness association result for the eye to be examined obtained in S1250 with the integrated analysis result acquired in S1260.
  • the integrated information presentation unit 280 selects one of the divided areas set in S1350 (S1410). Then, the graph and the color scheme setting created for the values of the layer thickness and the visual field sensitivity in the region, which are integrated and analyzed in S480, are acquired from the storage unit 130.
  • the integrated information presentation unit 280 acquires from the storage unit 130 the relationship between the layer thickness and the visual field in the region of the eye to be examined obtained in S1360.
  • the graph and the color scheme setting for the area acquired in S1410 are compared, and the color scheme set for the relationship between the layer thickness and the field of view is acquired (S1420). Then, these results obtained in S1420 are transmitted to the storage unit 130.
  • the integrated information presentation unit 280 determines whether or not all of the divided areas set in S450 have been selected in S1410 (S1430). If there is an area that has not yet been selected, the process returns to S1410. If all areas have been selected, the process proceeds to S1440.
  • the integrated information presentation unit 280 outputs to the display unit 140 an image in which the area is filled according to the color scheme for each area determined in S1420.
  • the region presents an image of the fundus camera. An example of the image shown at this time is shown in FIG.
  • the integrated information presentation unit 280 outputs an alert to the display unit 140 that there is a region that is not glaucoma when the color scheme for each region corresponds to a region that is not glaucoma in S940.
  • the integrated information presentation unit 280 stores the result obtained in S1370 in the storage unit 130.
  • the layer thickness of the nerve fiber layer obtained from the OCT image and the visual field sensitivity value obtained by the perimeter can be associated with the fundus camera image.
  • the progress degree is indicated by a color change, and when it deviates from the glaucomatous pattern, an alert is presented.
  • the second embodiment is a case where the contents of the first embodiment are applied to an OCT imaging apparatus.
  • OCT imaging is performed on an eye to be examined for fundus imaging and visual field measurement, the relationship between the layer thickness of the nerve fiber layer and visual field sensitivity is clearly shown after OCT imaging. As a result, the operator can determine whether there is an area that needs to be re-imaged.
  • FIG. 16 is a diagram showing a functional configuration of the diagnosis support apparatus 15 according to the present embodiment.
  • the contents of the registration unit 1660, the visual field / OCT association unit 1670, and the integrated information presentation unit 1680 are changed with respect to the diagnosis support apparatus of the first embodiment shown in FIG.
  • the measurement result acquired by the eye information acquisition unit 110 is obtained by capturing and storing the fundus camera image and the visual field measurement result, but the OCT tomogram is obtained according to the operator's request.
  • the eye information obtaining apparatus 20 To obtain from the eye information obtaining apparatus 20.
  • the registration unit 1660 acquires the fundus camera image that has already been captured and the field-of-view measurement result that has already been measured, and associates the field-of-view measurement result with the fundus camera image (S1710).
  • the field sensitivity data is presented on the SLO by associating with a scanning laser ophthalmoscope (SLO) image continuously captured by the OCT imaging apparatus.
  • SLO scanning laser ophthalmoscope
  • the registration unit 1660 acquires an OCT image captured by the eye information acquisition device 20 and performs image processing on the OCT image to acquire the thickness of the nerve fiber layer.
  • the visual field / OCT associating unit 1670 associates the acquired layer thickness with the visual field sensitivity acquired in S1710 (S1720).
  • the integrated information presentation unit 1680 displays the relationship between the associated layer thickness and visual field sensitivity with a color scheme that clearly indicates glaucoma by comparing the analysis result based on the case database acquired from the information processing result acquisition unit 215. Presented to unit 140. This presentation is also associated with SLO images that are continuously captured by the eye information acquisition unit 110 and presented on the SLO.
  • the input result acquisition unit 120 acquires the input result input by the operator, and determines whether or not to save the processing result performed in S1720 (S1730). In the case of saving, the data is saved in the storage unit 130 in S1740. When not saving, it progresses to S1750.
  • the input result acquisition unit 120 acquires the input result input by the operator, and determines whether or not to end the process. In the case of ending, the result stored in the storage unit 130 is stored in the data server 40 through the result output unit 150 and all the processes are ended. If not, the process returns to S1720.
  • the input result acquisition unit 120 acquires information for identifying the eye to be examined such as a patient ID from the outside (S1810). Then, the eye information acquisition unit 110 acquires the fundus camera image and visual field measurement result corresponding to the patient ID from the data server 40 based on the information for identifying the eye to be examined. Then, the acquired information is transmitted to the storage unit 130.
  • the registration unit 1660 acquires a visual field measurement result and a fundus camera image from the storage unit 130. Then, the visual field measurement result is associated with the fundus camera image using the same method as in S1320 (S1820). These obtained results are stored in the storage unit 130.
  • the to-be-inspected eye information acquiring unit 110 requests the tomographic imaging apparatus of the to-be-inspected eye information acquiring apparatus 20 to transmit a scanning laser ophthalmoscope (SLO) image, and acquires the transmitted SLO image (S1830). Then, the acquired information is transmitted to the storage unit 130.
  • SLO scanning laser ophthalmoscope
  • the registration unit 1660 registers the fundus camera image associated with the visual field measurement result in S1820 to the SLO image stored in the storage unit 130 (S1840). Then, the display unit 140 displays an image presenting the visual field measurement result on the SLO image.
  • the input result acquisition unit 120 acquires an input result input by the operator, and determines whether or not to end the process (S1850). If there is no input for ending here, it is determined not to end, and the process returns to S1830.
  • the process of S1710 is a process of presenting the visual field measurement result on the SLO images continuously transmitted from the eye information acquisition apparatus 20, and the input result acquisition unit 120 receives an end input or the OCT. This is continued until an imaging instruction is input.
  • the information processing result acquisition unit 215 acquires association information for each region of visual field sensitivity and layer thickness, which is integratedly analyzed with respect to cases in the case database, stored in the data server 40 in S480 (S1910). Then, the acquired information is transmitted to the storage unit 130.
  • the eye information acquisition unit 110 to be examined requests the eye information acquisition device 20 to transmit an OCT image and acquires an OCT image (S1920). Then, the acquired information is transmitted to the storage unit 130.
  • the registration unit 1660 obtains an OCT tomogram from the storage unit 130, and extracts a nerve fiber layer from the tomogram using the same method as in S1330 (S1930).
  • the registration unit 1660 registers the OCT image acquired in S1920 in the fundus camera image and the visual field measurement result using the same method as in S1340 (S1940).
  • the visual field / OCT associating unit 1670 associates the visual field sensitivity with the layer thickness of the nerve fiber layer using the fundus camera image, the visual field measurement result, and the OCT image registered in S1940 (S1950). Here, the same method as in S450 is used.
  • the integrated information presentation unit 1680 performs integrated information presentation processing (S1960).
  • the integrated information presentation unit 1680 compares the visual field / layer thickness association result for the eye to be examined obtained in S1950 with the integrated analysis result acquired in S1910.
  • information presentation by a color scheme clearly indicating whether the relationship between the visual field and the layer thickness is glaucoma or an alert presentation when a region that is not glaucoma is included is included. Done.
  • the eye information acquisition unit 110 requests the eye information acquisition device 20 to transmit an SLO image, and acquires the transmitted SLO image (S1970). Then, the acquired information is transmitted to the storage unit 130.
  • the registration unit 1660 registers the integrated information presentation result obtained in S1960 on the SLO image stored in the storage unit 130 using the same method as in S1840 (S1980). Then, these results are transmitted to the storage unit 130, and at the same time, the result of S1980 indicating the relationship between the layer thickness and the visual field sensitivity is displayed on the SLO image via the display unit 140.
  • the input result acquisition unit 120 acquires the input result input by the operator and determines whether or not to end the process (S1990).
  • S1990 like S1850, if there is no input to end, it is determined not to end, and the process returns to S1970.
  • the process of S1720 is a process of presenting the result of S1980 indicating the relationship between the layer thickness and the visual field sensitivity on the SLO image continuously transmitted from the eye information acquisition apparatus 20 to the input result acquisition unit 120. The process continues until the end is input or the result saving instruction is input.
  • the above embodiment when imaging OCT, it is possible to determine and image an OCT imaging area while confirming an area having an abnormal field of view on the SLO. Furthermore, from the result of imaging the OCT, it can be determined whether the relationship between the change in the visual field sensitivity and the change in the layer thickness is in accordance with the glaucomatous pattern. It is possible to select and perform OCT imaging.
  • the functions of the information processing apparatus 10 and the diagnosis support apparatus 15 in the above-described embodiment can be realized by software on a computer.
  • FIG. 20 is a diagram illustrating a basic configuration of a computer for realizing the functions of the respective units of the information processing apparatus 10 and the diagnosis support apparatus 15 with software.
  • the CPU 1001 controls the entire computer using programs and data stored in the RAM 1002 and the ROM 1003. Further, the execution of software corresponding to each part of the information processing apparatus 10 is controlled to realize the function of each part.
  • the RAM 1002 includes an area for temporarily storing programs and data loaded from the external storage device 1004 and a work area required for the CPU 1001 to perform various processes.
  • the function of the storage unit 130 is realized by the RAM 1002.
  • the ROM 1003 generally stores a computer BIOS and setting data.
  • the external storage device 1004 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores an operating system, a program executed by the CPU 1001, and the like. Information known in the description of the present embodiment is stored here, and is loaded into the RAM 1002 as necessary.
  • the monitor 1005 is composed of a liquid crystal display or the like. For example, the content output by the display unit 140 can be displayed.
  • a keyboard 1006 and a mouse 1007 are input devices, and an operator can give various instructions to the information processing apparatus 10 by using these devices.
  • the functions of the eye information acquisition unit 110 and the input result acquisition unit 120 are realized via these input devices.
  • the interface 1008 is for exchanging various types of data between the information processing apparatus 10 and an external device, and includes an IEEE 1394, USB, Ethernet (registered trademark) port, or the like. Data acquired via the interface 1008 is taken into the RAM 1002. For example, the function of the result output unit 150 is realized via the interface 1008. Each component described above is connected to each other by a bus 1009.
  • the present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 光干渉断層計(OCT;Optical Coherence Tomography)から得られる網膜の断層像と視野計から得られる視機能の情報を統合し、効果的な緑内障性に関する情報を提供することができる医用画像処理装置。この医用画像処理装置は、眼底カメラ画像上に視野計測結果を対応付ける(S420)。次に、OCT断層像から被検眼の網膜層における神経線維層の厚みを表す層厚の分布を、視野計測結果が対応付けられた眼底カメラ画像上にレジストレーションする(S440)。その後、眼底カメラ画像上にレジストレーションされた層厚の分布及び視野計測結果に基づいて、被検眼の緑内障性を表す情報を提示する(S470)。

Description

医用画像処理装置及びその制御方法
 本発明は、医用画像処理装置及びその制御方法に関する。
 近年、診断に用いられるモダリティ数の増加に伴い、複数モダリティからの情報を総合的に判断して診断が行われるようになっている。例えば眼科においては、以前から使われてきた眼底カメラや視野計に加えて、光干渉断層計(OCT;Optical Coherence Tomography)が臨床現場に導入され、網膜の断層像という新たな知見を与えている。
 このようにモダリティ数が増加するに従い、各モダリティが提供する情報の関係を明確化する必要が生じている。例えば特許文献1では、視野計からの視野異常データと眼底カメラ画像から得られる視神経乳頭周囲の異常や視神経繊維欠損を、神経線維の走行に基づき定義された眼底座標を用いて一覧提示している。さらに特許文献2では、眼底カメラ画像上で視野測定の箇所を指定できる視野計が提案されており、該視野計を用いれば、眼底カメラ画像で異常と思われる箇所の視野感度を得ることができる。
特開平7-136122号公報 特開2000-262472号公報
 しかしながら特許文献1、2では眼底カメラ画像と視野計から得られる異常情報を一覧提示しているが、OCTとの関連については言及されていない。また緑内障においては、まず構造異常が検出され、その後、視野計より得られる機能異常が検出されるという関係が知られている。構造異常は眼底カメラ画像上の所見からも検出できるが、OCTは早期の層厚の変化や3次元の構造変化をより的確に捉えることができる。このようなOCT所見を、視野計や眼底カメラ画像所見と関連付けた診断支援は行われていない。
 本発明は、上記の課題に鑑みてなされたものであり、OCTから得られる網膜の断層像と視野計から得られる視機能の情報を統合し、効果的な緑内障性に関する情報を提供することを目的とする。
 本発明の一側面によれば、光干渉断層計により得られた被検眼のOCT断層像、眼底カメラにより得られた眼底カメラ画像、視野計により得られた視野計測結果を取得する取得手段と、前記眼底カメラ画像上に前記視野計測結果を対応付ける対応付け手段と、前記OCT断層像から、前記被検眼の網膜層における神経線維層の厚みを表す層厚の分布を検出する検出手段と、前記層厚の分布を、前記視野計測結果が対応付けられた前記眼底カメラ画像上にレジストレーションするレジストレーション手段と、前記眼底カメラ画像上にレジストレーションされた前記層厚の分布及び前記視野計測結果に基づいて、被検眼の緑内障性を表す情報を提示する提示手段とを有することを特徴とする医用画像処理装置が提供される。
 本発明によれば、OCTから得られる網膜の断層像と視野計から得られる視機能の情報を統合し、効果的な緑内障性に関する情報を提供することができる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
第1実施形態に係る情報処理装置の機能構成を示す図。 第1実施形態に係る診断支援装置の機能構成を示す図。 第1実施形態に係る医用画像処理装置の構成を示す図。 第1実施形態に係る情報処理装置の処理手順を示すフローチャート。 網膜の層構造を説明する図。 第1実施形態に係る眼底カメラ画像、視野計測結果、OCT投影像をレジストレーションした状態を説明する図。 第1実施形態に係る視野感度の測定点以外での値を計算する場合の位置関係を示した図。 第1実施形態に係る統合解析部の機能構成の詳細を示す図。 第1実施形態に係る統合解析処理手順を示すフローチャート。 第1実施形態に係る緑内障性の層厚と視野感度の関係をグラフ化した図。 第1実施形態に係る層厚と視野感度の関係をグラフ化した場合に、該グラフを領域分割して配色を決める状態を説明する図。 第1実施形態に係る層厚と視野感度の関係をグラフ化した場合に、該グラフを極座標表示によって配色を決める状態を説明する図。 第1実施形態に係る診断支援装置の処理手順を示すフローチャート。 第1実施形態に係る統合情報提示処理を示すフローチャート。 第1実施形態に係る眼底カメラ上に緑内障性パターンを考慮して配色した結果を示す図。 第2実施形態に係る診断支援装置の機能構成を示す図。 第2実施形態に係る診断支援装置の処理手順を示すフローチャート。 第2実施形態に係る視野・眼底対応処理を示すフローチャート。 第2実施形態に係る視野・眼底・OCT対応処理を示すフローチャート。 実施形態の機能を実現するコンピュータの構成例を示す図。
 以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決手段として必須のものであるとは限らない。
 (第1実施形態)
 図3に示すように、本実施形態における医用画像処理装置は、例えば情報処理装置10及び診断支援装置15を含む。情報処理装置10及び診断支援装置15は、ローカル・エリア・ネットワーク(LAN)30を介して、被検眼情報取得装置20及びデータサーバ40と接続されている。これらの機器との接続は、例えばイーサネット(登録商標)、USB、IEEE1394等のインターフェイスを介して行われる。また、インターネット等の外部ネットワークを介して接続される構成であってもよい。データサーバ40には、緑内障症例を集めた症例データベース41が含まれている。症例データベース41には、初期緑内障から後期緑内障まで進行度の異なる緑内障の症例が格納されている。
 被検眼情報取得装置20は、眼底カメラや光干渉断層計(OCT)、視野計の計測データを取得する装置群の総称である。被検眼情報取得装置20は、不図示の操作者による操作に応じて、不図示の被検眼の撮影や視野感度の測定を行い、得られた画像その他の情報を診断支援装置15やデータサーバ40へと送信する。
 本実施形態における情報処理は、実際の診断に先立って行われる前処理段階と、その結果を用いた診断支援処理から構成される。図1は、本実施形態の前処理段階に係る情報処理装置10の機能構成を示す図である。被検眼情報取得部110は、被検眼の検査結果を取得し、入力結果取得部120は不図示の操作者からの入力を取得する。レジストレーション部160は被検眼の検査結果間の関連付け処理を行い、視野・OCT対応付け部170は、レジストレーション部160での関連付け結果に基づいて視野感度と層厚の対応付けを行う。統合解析部180は視野・OCT対応付け部170で関連付けされた結果に基づいて、緑内障性であるか否かを判断する基準を設定する。記憶部130は被検眼情報取得部110から得られた検査結果や入力結果取得部120から得られた入力、レジストレーション部160及び統合解析部180で求められた解析結果を保存する。表示部140は記憶部130に保存された内容を、不図示のモニタ等に表示し、結果出力部150は記憶部130に保存された内容を、データサーバへ40と送信する。
 図2は、診断支援処理に係る診断支援装置15の機能構成を示す図である。図1の情報処理装置10の機能構成に対して、情報処理結果取得部215が付加され、統合解析部180が統合情報提示部に置き換えられている。情報処理結果取得部215は、情報処理装置における処理の結果を取得する。統合情報提示部280は、被検眼情報取得部110により入力された症例に対して、診断支援となる提示情報を設定する。
 次に、図4のフローチャートを参照して、情報処理装置10を緑内障の診断支援システムに適用した際の、情報処理装置10が実行する前処理段階での具体的な処理手順を説明する。被検眼情報取得部110は、データサーバ40内の症例データベース41より、同一被験者の眼底カメラ画像、視野計測結果、OCT画像を取得する(S410)。そして、取得した情報を記憶部130へと送信する。
 レジストレーション部160は、記憶部130から視野計測結果と眼底カメラ画像を取得する。ここで視野計測とは、被験眼に示された大きさや輝度、位置の異なる輝点に対する被験者の応答を計測するものをいう。例えば、静的視野計であるHumphrey視野計やOCTopus視野計、動的視野計であるGoldmann視野計などが知られている。初期緑内障における視野異常の検出には、静的視野計による検査が有効とされ、さまざまな緑内障検査用のプログラムも用意されているが、視野計の種類や測定プログラムはここで示す例に限定されるものではない。
 まずは眼底カメラ画像から、視神経乳頭部と、黄斑部を検出する。眼底カメラ画像内で視神経乳頭を検出する手法としては、例えば血管を用いた手法が知られている。網膜内に広がる血管網が、視神経乳頭部に収束する特徴を用いて乳頭位置を検出する。また黄斑部の検出に関しては、中心窩をピークとして周辺部に比べて輝度が小さくなる特徴と用いて検出する手法が知られている。
 次に、得られた視野計測結果の測定点を眼底カメラ画像上の位置に関連付ける(S420)。具体的には、視野計測の中心となる固視中心を黄斑の中心である中心窩に対応付け、盲点位置を視神経乳頭に対応付けて、眼底カメラ画像と視野計測結果の位置の尺度を合わせる。上記眼底カメラ画像から検出された黄斑部と視神経乳頭部の位置と、視野計測結果から得られる固視中心及び盲点位置とをそれぞれ対応させ、眼底カメラ画像と視野計測結果の位置の尺度を合わせることで、眼底カメラ画像上に、視野計測結果を対応付ける。求められたこれらの結果に記憶部130に格納される。
 次に、レジストレーション部160はOCT画像処理を行う(S430)。具体的には、レジストレーション部160は、記憶部130からOCT断層像を取得し、該断層像に対して網膜層の抽出を行う。
 図5に、黄斑周辺の網膜層構造の模式図を示す。ここでは内境界膜3、神経線維層境界4、及び網膜色素上皮層境界5を断層像から検出し、神経線維層の厚みT1、及び網膜層全体の厚みT2を求める。ただし、着目する層についてはこの2種類に限定されるものではない。
 以下、層の境界検出を行う具体的な処理の方法を説明する。ここでは、処理対象である3次元断層像を2次元断層像(B・scan像)の集合と考え、夫々の2次元断層像に対して以下の2次元画像処理を実行する。まず、注目する2次元断層像に平滑化フィルタ処理を行い、ノイズ成分を除去する。そして、断層像からエッジ成分を検出し、その連結性に基づいて何本かの線分を層境界の候補として抽出する。そして、これらの候補の中から、一番上の線分を内境界膜3として選択する。また、内境界膜3の直下にある線分を、神経線維層境界4として選択する。さらに、一番下の線分を、網膜色素上皮層境界5として選択する。
 さらに、これらの線分を初期値として、Snakeやレベルセット法等の動的輪郭法を適用することで、検出精度の向上を図ってもよい。また、グラフカットのような手法を用いて層の境界を検出してもよい。なお、動的輪郭法やグラフカットを用いた境界検出は、3次元断層像を対象として3次元的に行ってもよいし、処理対象である3次元断層像を2次元断層像の集合と考え、夫々の2次元断層像に対して2次元的に適用してもよい。なお、層の境界を検出する方法はこれらに限定されるものではなく、眼部の断層像から層の境界を検出可能な方法であれば、いずれの方法を用いてもよい。
 レジストレーション部160は、さらに、検出した層の境界に基づいて、神経線維層の厚みと、網膜層全体の厚みを定量化する。まず、xy平面上の各座標点において、神経線維層境界4と内境界膜3とのz座標の差を求めることで、神経線維層の厚みT1を計算する。同様に、網膜色素上皮層境界5と内境界膜3とのz座標の差を求めることで、網膜層全体の厚みのT2を計算する。
 以下では、緑内障性変化をより端的に示す神経線維層の厚さを用いて処理を進める。よって層厚という場合には、神経線維層の厚さを意味することとする。しかし網膜は複数の層構造をなすことが知られており、本提案における層厚の表示は、神経繊維層に限定されるものではない。
 レジストレーション部160は、さらに、内境界膜3を利用して中心窩の座標を検出する。具体的には、検出した内境界膜3のz座標が断層像の中心付近において最大となる点を中心窩とする。そして、S430において求められたこれらの結果を記憶部130へと出力する。
 レジストレーション部160は、S420で対応付けられた視野計測結果と眼底カメラ画像に、S430でOCT断層像より求められた神経線維層の層厚の分布をレジストレーションする(S440)。
 OCTの3次元断層像に対して、それをxy平面上に、対応するzの各座標のピクセル値を積算した画像を作成する。このようにして作成された2次元画像を、OCT投影像とよび、該OCT投影像を眼底カメラ画像上にレジストレーションする。
 OCT投影像を眼底カメラ画像にレジストレーションする手法としては、双方の画像から血管を抽出し、血管同士の位置合わせを行うことで2種類の画像をレジストレーションする手法が知られている。さらに、S420で検出された眼底カメラ画像の黄斑部と、S430によって検出されたOCTの黄斑部の位置も合うようにレジストレーションを行う。そして、S440で求められたこれらの結果を記憶部130へと出力する。
 このようにしてOCT投影像を眼底カメラ画像上にレジストレーションすることにより、眼底カメラ画像上に対応付けられた視野感度情報と、OCT投影像上に対応付けられた神経線維層の層厚情報を対応付けることができる。
 視野・OCT対応付け部170は、OCT層厚の正常例の平均分布値を用いて、S440でレジストレーションされたOCT画像の層厚を正規化する(S450)。
 また正常例の平均分布値とは、複数の正常症例のOCT断層像を重ね合わせ、各位置で平均することにより得られる層厚分布のことである。ここではS440でレジストレーションされたOCT画像の層厚に対して、各位置での層厚を、正常例の平均値を1として正規化する。但し、黄斑中心部の中心窩部分では、神経線維層はほとんど厚さがなくなるので、中心窩は除外して正規化を行う。
 次に、OCT・視野対応付け部170は、正規化された層厚と、対応する領域にS440において関連付けられた視野計測結果を対応付ける。ここで領域とは、OCT撮像範囲でかつ視野計測が行われている範囲を分割して得られるもので、最小では各ピクセルとなる。
 図6に、OCTで黄斑周辺を撮像した撮像領域と、眼底カメラ画像と、視野計測結果とがレジストレーションされた結果の一例を示す。またOCT撮像領域内を領域分割した例も示す。ここでは黄斑部のOCT撮像領域を11x11に分割した例を示していて、各領域における平均の層厚と視野感度を計算してグラフに示す。
 ここで領域分割を行う際に、神経線維の走行が、黄斑部と視神経乳頭部を結ぶ線に対し上下で交わらずに走行している特性を利用する。具体的には、黄斑中央部と視神経乳頭部を結ぶ直線を考え、その直線と平行になるようにX軸、垂直となるようにY軸を考え、その中心を黄斑中央部の中心窩におく座標系を設定する。領域分割も、該X軸、Y軸に沿って行う。
 またここで層厚の平均は、S430によってOCTより求められた層厚分布の各領域内の平均値であり、視野感度の平均値は、視野感度の計測点の値から、以下のように計算する。
 ある点(x,y)における視野感度f(x,y)の値とは、視野計測が行われた周囲の点(x1,y1)、(x1,y2)、(x2,y1)、(x2,y2)の値を用いて式1のように計算する。各点の位置関係を図7に示す。
Figure JPOXMLDOC01-appb-I000001
 ここで視野感度の計測点は、図7における領域分割の格子点と一致するものではない。このように求められた各点における視野感度の値を、領域内で平均することで各領域における視野感度を求める。そして、領域ごとに、神経線維層の厚さと視野感度を対応付け、記憶部130に保存する。
 OCT・視野対応付け部170は、症例データベース41の症例に残りがあるかどうかを判断する(S460)。残りがある場合には、S410に戻って上記処理を繰り返す。症例データベース41内の症例すべてに対して上記処理を行ったときは、S470の処理に進む。
 S470において、統合解析部180は、S450で対応付けされた層厚変化と視野感度の変化をもとに、緑内障的であるか否かを判断する基準を生成する。
 図8に示すように、統合解析部180は、グラフ作成部182、セル分割部184、配色設定部186で構成される。このような構成において、グラフ作成部182は視野・OCT対応付け部170で設定された分割領域の層厚と視野感度の値との関係を表すグラフを作成し、セル分割部184に出力する。セル分割部184では、グラフ作成部182で作成されたグラフ領域を、層厚の値、及び視野感度の値に応じて複数のセルに分割し、配色設定部186に出力する。配色設定部186では、セル分割部184で分割されたセルごとに、表示の際に用いる色を設定する。
 次に、図9のフローチャートを参照して、S470における処理の詳細を説明する。統合解析部180は、S450で設定された分割領域の一つを選択する(S910)。そして、S450において対応付けられた、症例データベース41内のすべての症例に対する、該領域における層厚と視野感度の値を記憶部130より取得する。
 グラフ作成部182は、S910で取得された層厚及び視野感度の値を、層厚を横軸に、視野感度を縦軸としてグラフ化する(S920)。ここで作成されたグラフの例を図10に示す。
 セル分割部184は、S920で作成されたグラフ領域を、層厚の値及び視野感度の値に応じて分割する(S930)。これは該選択された領域に関して、視野感度の低下が軽微で、層厚によって変化を捉えるべき症例と、視野の変化が顕在化し、視野感度によって変化を捉えるべき症例に分離することを目的としている。ここでは、視野感度に関しては、5dbの感度低下ごとに分割し、層厚に関しては層厚変化が10%減少するごとに分割する。但し、分割の仕方は上記の方法に限定されるものではない。
 分割の値や範囲は用いる視野計やその提示情報、OCT画像処理におけるセグメンテーションの範囲等にも依存するため、それらに応じて決める必要がある。また層厚の変化と視野感度の低下の関係は領域によって異なり、特に黄斑に近い箇所では同等の視野感度低下に必要となる層厚の減退が大きくなることが知られている。よってここでのセル分割の仕方は選択する領域によって異なる。
 配色設定部186は、S930において分割されたセルごとに、表示の際に用いる色を設定する(S940)。配色の仕方としては、進行の度合いが進むごとに濃い色となるように設定する場合などが考えられる。
 図11にS930によるセル分割とS940による配色設定を行った場合の概略図を示す。ここでは、層厚、視野感度ともにグレースケールで示す方法を採用する。但し、層厚はグレースケール、視野感度はカラーグラデーションを用いることも可能である。その場合は視野感度の低下が現れている領域を明示することができる。
 また配色設定部186は、S930で行われたセル分割に応じて、緑内障性から逸脱する層厚と視野感度を示す領域を設定する。具体的には、図11において黒で塗りつぶして示したように、層厚があるにもかかわらず、視野感度が低下する場合が該当する。これは単純に測定のばらつきである可能性もあるが、同時に緑内障とは異なる疾患の兆候を示す場合も考えられる。このように、緑内障性から逸脱すると判断できるセルを設定し、他のセルと明確に区別できるような配色を該セルに対して設定する。
 この他にも、緑内障の進行度を示すと同時に、緑内障性から逸脱しているか否かを明示できる配色設定の仕方はいろいろ考えることができる。例えば、層厚の90%点と視野感度低下-30db点を原点とした極座標表示の場合を図12に示す。ここで、角度θは層厚90%点を示す縦軸からの角度を示し、動径Rは原点からの距離を示す。層厚及び視野感度の尺度を、計測点の分布がR=1を中心に分布するように調節することで、緑内障の進行度を角度θで、緑内障性からの逸脱度を動径Rの1からの逸脱度で示すことができる。
 例えばθによって色相を変え、Rによって明度を変える場合を考える。緑内障が進行すると青から赤へ変化し、緑内障性から逸脱すると明るい色彩から黒に変化するように表示するとして、HSV色相系を用いて以下のように配色を設定する。
   色相=240+240θ/π     (式2)
   明度=256-256|Rー1|   (式3)
 このような配色を設定することで、緑内障の進行度及び逸脱度をともに連続的に明示することが可能になる。
 統合解析部180は、S450において設定された分割領域の中で、すべての領域がS910によって選択されたか否かを判定する(S950)。まだ選択されていない領域が存在すればS910に戻り、すべての領域が選択されている場合には、S470の統合解析処理を終了する。
 統合解析部180は、上記解析結果を記憶部130に保存するとともに、結果出力部150を通じて、データサーバ40に保存する(S480)。
 次に、図13のフローチャートを参照して、診断支援装置15を緑内障の診断支援システムに適用した際の、診断支援処理の具体的な処理手順を説明する。
 入力結果取得部120は、患者IDなど被検眼を同定する情報を外部から取得する(S1310)。そして、被検眼情報取得部110は、この被検眼を同定する情報に基づいて、該患者IDに対応する眼底カメラ画像、視野計測結果、OCT画像を被検眼情報取得装置20から取得する。そして、取得した情報を記憶部130へと送信する。
 レジストレーション部160は、S1310で取得した眼底カメラ画像、視野計測結果、OCT画像をS410・S440と同様の手法を用いてレジストレーションする(S1320・S1340)。そして、S440で求められたこれらの結果を記憶部130へと送信する。
 情報処理結果取得部215は、S480でデータサーバ40に保存された、症例データベースの症例に関して統合解析された、視野感度と層厚の領域ごとの対応付け情報を取得する(S1350)。そして、取得した情報を記憶部130へと送信する。
 視野・OCT対応付け部170は、S1240でレジストレーションされた眼底カメラ画像、視野計測結果、OCT画像を用いて、視野感度と神経線維層の層厚との対応付けを行う(S1360)。ここではS450と同様の手法が用いられる。
 統合情報提示部280は統合情報提示処理を行う(S1370)。ここで、統合情報提示部280は、S1250で求められた被検眼に対する視野・層厚の関連付け結果を、S1260において取得された統合解析結果と比較する。
 ここで、図14のフローチャートを参照して、S1370における統合情報処理の詳細を説明する。統合情報提示部280は、S1350で設定された分割領域の一つを選択する(S1410)。そして、S480で統合解析された、該領域における層厚と視野感度の値に対して作成されたグラフ及び配色設定を、記憶部130より取得する。
 統合情報提示部280は、S1360で求められた被検眼の、該領域における層厚と視野の関係を記憶部130より取得する。S1410において取得された、該領域に対するグラフ及び配色設定と比較を行い、該層厚と視野の関係に対して設定されている配色を取得する(S1420)。そして、S1420で求められたこれらの結果を記憶部130へと送信する。
 統合情報提示部280は、S450で設定された分割領域の中で、すべての領域がS1410によって選択されたか否かを判定する(S1430)。まだ選択されていない領域が存在すればS1410に戻り、すべての領域が選択された場合には、S1440へ進む。
 S1440では、統合情報提示部280は、S1420において決定された各領域に対する配色に従って領域を塗りつぶした画像を表示部140へ出力する。ここでS1420において配色が決められていない場合(例えば視野感度の低下が5dbよりも小さい場合や層厚の減退が80%よりも小さい場合)、その領域は眼底カメラの画像を提示する。このとき示される画像の例を図15に示す。
 また統合情報提示部280は、上記各領域に対する配色が、S940で緑内障性ではないとされる領域に対応する場合に、緑内障性ではない領域があるというアラートを表示部140へ出力する。
 S1380において、統合情報提示部280は、S1370により得られた結果を記憶部130に保存する。
 以上の実施形態によれば、OCT画像より得られる神経線維層の層厚と、視野計により得られる視野感度の値を、眼底カメラ画像とともに関連付けることができる。そして層厚の変化と視野感度の変化が、緑内障性のパターンに沿う場合にはその進行度合いが色の変化で示され、緑内障性のパターンからはずれる場合には、アラートが提示される。これにより、利用者となる医師が診断を行う際に、異なるモダリティから得られた情報の対応関係が明確化されると同時に、緑内障性のパターンとの関連も明示することができる。
 (第2実施形態)
 第2実施形態は、第1実施形態の内容をOCTの撮像装置に応用した場合である。眼底撮影及び視野計測がされている被検眼に対してOCTの撮像を行う場合に、OCT撮像後に神経線維層の層厚と視野感度の関係を明示する。これにより、操作者が、再撮像が必要な領域が存在するかを判断することができる。
 図16は、本実施形態に係る診断支援装置15の機能構成を示す図である。図2に示した第1実施形態の診断支援装置に対して、レジストレーション部1660、視野・OCT対応付け部1670、統合情報提示部1680の内容が変更されている。また本実施形態において、被検眼情報取得部110で取得する計測結果は、眼底カメラ画像と視野計測結果はすでに撮像され、保存された結果を取得するが、OCT断層像は操作者の要求に応じて被検眼情報取得装置20より取得する。
 次に、図17のフローチャートを参照して、本実施形態の診断支援装置による、OCTの撮像に際して緑内障の診断支援を行う具体的な処理手順を説明する。
 レジストレーション部1660は、すでに撮像されている眼底カメラ画像及びすでに計測されている視野計測結果を取得し、眼底カメラ画像上に視野計測結果を対応付ける(S1710)。そしてOCT撮像装置において連続的に撮像されている走査レーザー検眼鏡(scanning laser ophthalmoscope:SLO)画像とも対応付けを行うことにより、SLO上に視野感度のデータを提示する。
 レジストレーション部1660は、被検眼情報取得装置20において撮像されたOCT画像を取得し、該OCT画像に対して画像処理を行い神経線維層の厚みを取得する。そして視野・OCT対応付け部1670は、上記取得された層厚と、S1710で取得された視野感度との対応付けを行う(S1720)。
 さらに統合情報提示部1680は、対応付けされた層厚と視野感度の関係を、情報処理結果取得部215より取得された症例データベースに基づく解析結果と比較して、緑内障性を明示する配色で表示部140に提示する。この提示は被検眼情報取得部110において連続的に撮像されているSLO画像にも対応付けされ、SLO上に提示される。
 入力結果取得部120は、操作者によって入力される入力結果を取得し、S1720で行われた処理結果を保存するか否かを判断する(S1730)。保存する場合には、S1740において、記憶部130に保存される。保存しない場合には、S1750に進む。
 S1750において、入力結果取得部120は、操作者によって入力される入力結果を取得し、処理を終了するか否かを判断する。終了する場合には、記憶部130に保存されている結果を、結果出力部150を通じてデータサーバ40に保存すると共に、すべての処理を終了する。終了しない場合には、S1720に戻る。
 次に、S1710の具体的内容に関して、図18のフローチャートを参照して詳細に説明する。入力結果取得部120は、患者IDなど被検眼を同定する情報を外部から取得する(S1810)。そして、被検眼情報取得部110は、この被検眼を同定する情報に基づいて、該患者IDに対応する眼底カメラ画像、視野計測結果をデータサーバ40から取得する。そして、取得した情報を記憶部130へと送信する。
 レジストレーション部1660は、記憶部130から視野計測結果と眼底カメラ画像を取得する。そしてS1320と同様の手法を用いて眼底カメラ画像上に視野計測結果を対応付ける(S1820)。求められたこれらの結果は記憶部130に格納される。
 被検眼情報取得部110は、被検眼情報取得装置20の断層像撮像装置に走査レーザー検眼鏡(scanning laser ophthalmoscope:SLO)画像の送信を要求し、送信されるSLO像を取得する(S1830)。そして、取得した情報を記憶部130へと送信する。
 レジストレーション部1660は、記憶部130に保存されたSLO画像に、S1820で視野計測結果を対応付けられた眼底カメラ画像をレジストレーションする(S1840)。そして、SLO画像上に視野計測結果を提示した画像を、表示部140により表示する。
 入力結果取得部120は、操作者によって入力される入力結果を取得し、処理を終了するか否かを判断する(S1850)。ここで終了するという入力がない場合には、終了しないと判断し、S1830に戻る。これよりS1710の処理は、被検眼情報取得装置20より連続的に送信されるSLO像上に、視野計測結果を提示する処理を、入力結果取得部120に終了の入力がなされるか、もしくはOCTの撮像指示が入力されるまで継続する。
 次に、S1720の具体的内容に関して、図19のフローチャートを参照して詳細に説明する。情報処理結果取得部215は、S480においてデータサーバ40に保存された、症例データベースの症例に関して統合解析された、視野感度と層厚の領域ごとの対応付け情報を取得する(S1910)。そして、取得した情報を記憶部130へと送信する。
 被検眼情報取得部110は、被検眼情報取得装置20にOCT画像の送信を要求し、OCT像を取得する(S1920)。そして取得した情報を記憶部130へと送信する。
 レジストレーション部1660は、記憶部130からOCT断層像を取得し、該断層像に対してS1330と同様の手法を用いて神経線維層の抽出を行う(S1930)。レジストレーション部1660は、S1340と同様の手法を用いて、眼底カメラ画像、視野計測結果にS1920で取得されたOCT像のレジストレーションを行う(S1940)。
 視野・OCT対応付け部1670は、S1940によってレジストレーションされた眼底カメラ画像、視野計測結果、OCT画像を用いて、視野感度と神経線維層の層厚との対応付けを行う(S1950)。ここではS450と同様の手法が用いられる。
 統合情報提示部1680は統合情報提示処理を行う(S1960)。ここで統合情報提示部1680は、S1950において求められた被検眼に対する視野・層厚の関連付け結果を、S1910において取得された統合解析結果と比較する。ここではS1370と同様の手法を用いて、視野と層厚の関係が緑内障性であるか否かを明示する配色による情報提示や、緑内障性ではないと考えられる領域が含まれる場合のアラート提示が行われる。
 被検眼情報取得部110は、被検眼情報取得装置20にSLO画像の送信を要求し、送信されるSLO像を取得する(S1970)。そして、取得した情報を記憶部130へと送信する。
 レジストレーション部1660は、記憶部130に保存されたSLO画像に、S1960で求められた統合情報提示結果を、S1840と同様の手法を用いてレジストレーションする(S1980)。そして、これらの結果を記憶部130へと送信すると同時に、SLO画像上に層厚と視野感度の関係を示したS1980の結果を、表示部140を介して表示する。
 入力結果取得部120は、操作者によって入力される入力結果を取得し、処理を終了するか否かを判断する(S1990)。ここでS1990は、S1850と同様、終了するという入力がない場合には、終了しないと判断し、S1970に戻る。これよりS1720の処理は、被検眼情報取得装置20より連続的に送信されるSLO像上に、層厚と視野感度の関係を示したS1980の結果を提示する処理を、入力結果取得部120に終了の入力がなされるか、もしくは結果保存の指示が入力されるまで継続する。
 以上の実施形態によれば、OCTを撮像する際に、SLO上で視野に異常がある領域を確認しながらOCTの撮像領域を決定し、撮像することができる。さらに、OCTを撮像した結果から、視野感度の変化と層厚の変化の関係が、緑内障性のパターンに沿っているか否かを判断することができ、その結果をもとに、再度、領域を選択してOCTの撮像を行うことができる。
 なお、上述の実施形態における情報処理装置10及び診断支援装置15の機能は、コンピュータ上でソフトウェアで実現可能である。
 図20は、情報処理装置10及び診断支援装置15の各部の機能をソフトウェアで実現するためのコンピュータの基本構成を示す図である。CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、情報処理装置10の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。
 RAM1002は、外部記憶装置1004からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。記憶部130の機能はRAM1002によって実現される。
 ROM1003は、一般にコンピュータのBIOSや設定データなどが格納されている。外部記憶装置1004は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにオペレーティングシステムやCPU1001が実行するプログラム等を保存する。また本実施形態の説明において既知としている情報はここに保存されており、必要に応じてRAM1002にロードされる。
 モニタ1005は、液晶ディスプレイなどにより構成されている。例えば、表示部140が出力する内容を表示することができる。キーボード1006、マウス1007は入力デバイスであり、操作者はこれらを用いて、各種の指示を情報処理装置10に与えることができる。被検眼情報取得部110や入力結果取得部120の機能は、これらの入力デバイスを介して実現される。
 インターフェイス1008は、情報処理装置10と外部の機器との間で各種データのやりとりを行うためのものであり、IEEE1394やUSB、イーサネット(登録商標)ポート等によって構成される。インターフェイス1008を介して取得したデータは、RAM1002に取り込まれる。例えば結果出力部150の機能は、インターフェイス1008を介して実現される。上述した各構成要素は、バス1009によって相互に接続される。
 (その他の実施形態)
 また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
 本願は、2009年4月16日提出の日本国特許出願特願2009-100374を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。

Claims (4)

  1.  光干渉断層計により得られた被検眼のOCT断層像、眼底カメラにより得られた眼底カメラ画像、視野計により得られた視野計測結果を取得する取得手段と、
     前記眼底カメラ画像上に前記視野計測結果を対応付ける対応付け手段と、
     前記OCT断層像から、前記被検眼の網膜層における神経線維層の厚みを表す層厚の分布を検出する検出手段と、
     前記層厚の分布を、前記視野計測結果が対応付けられた前記眼底カメラ画像上にレジストレーションするレジストレーション手段と、
     前記眼底カメラ画像上にレジストレーションされた前記層厚の分布及び前記視野計測結果に基づいて、被検眼の緑内障性を表す情報を提示する提示手段と、
     を有することを特徴とする医用画像処理装置。
  2.  前記提示手段は、
       前記層厚と前記視野計測結果との関係を表すグラフを作成するグラフ作成手段と、
       前記グラフ作成手段により作成されたグラフの領域を、前記層厚及び前記視野計測結果に応じて複数のセルに分割するセル分割手段と、
       前記セル分割手段により分割されたセルごとに表示に用いる色を設定する配色設定手段と、
     を含むことを特徴とする請求項1に記載の医用画像処理装置。
  3.  医用画像処理装置の制御方法であって、
     取得手段が、光干渉断層計により得られた被検眼のOCT断層像、眼底カメラにより得られた眼底カメラ画像、視野計により得られた視野計測結果を取得する取得ステップと、
     対応付手段が、前記眼底カメラ画像上に前記視野計測結果を対応付ける対応付けステップと、
     検出手段が、前記OCT断層像から、前記被検眼の網膜層における神経線維層の厚みを表す層厚の分布を検出する検出ステップと、
     レジストレーション手段が、前記層厚の分布を、前記視野計測結果が対応付けられた前記眼底カメラ画像上にレジストレーションするレジストレーションステップと、
     提示手段が、前記眼底カメラ画像上にレジストレーションされた前記層厚の分布及び前記視野計測結果に基づいて、被検眼の緑内障性を表す情報を提示する提示ステップと、
     を有することを特徴とする医用画像処理装置の制御方法。
  4.  コンピュータを、請求項1又は2に記載の医用画像処理装置が有する各手段として機能させるためのプログラム。
PCT/JP2010/000729 2009-04-16 2010-02-08 医用画像処理装置及びその制御方法 WO2010119596A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/854,049 US9451878B2 (en) 2009-04-16 2010-08-10 Medical image processing apparatus for examining an eye to determine the stage of glaucoma

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-100374 2009-04-16
JP2009100374A JP5543126B2 (ja) 2009-04-16 2009-04-16 医用画像処理装置及びその制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/854,049 Continuation US9451878B2 (en) 2009-04-16 2010-08-10 Medical image processing apparatus for examining an eye to determine the stage of glaucoma

Publications (1)

Publication Number Publication Date
WO2010119596A1 true WO2010119596A1 (ja) 2010-10-21

Family

ID=42982271

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000729 WO2010119596A1 (ja) 2009-04-16 2010-02-08 医用画像処理装置及びその制御方法

Country Status (3)

Country Link
US (1) US9451878B2 (ja)
JP (1) JP5543126B2 (ja)
WO (1) WO2010119596A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100714A (ja) * 2010-11-05 2012-05-31 Nidek Co Ltd 眼科装置
JP2012100713A (ja) * 2010-11-05 2012-05-31 Nidek Co Ltd 眼科装置
JP2013066702A (ja) * 2011-09-06 2013-04-18 Canon Inc 画像処理装置および画像処理方法
JPWO2012025983A1 (ja) * 2010-08-24 2013-10-28 興和株式会社 視野検査システム
US8931904B2 (en) 2010-11-05 2015-01-13 Nidek Co., Ltd. Control method of a fundus examination apparatus
CN104933715A (zh) * 2015-06-16 2015-09-23 山东大学(威海) 一种应用于视网膜眼底图像的配准方法
CN105374028A (zh) * 2015-10-12 2016-03-02 中国科学院上海光学精密机械研究所 光学相干层析成像视网膜图像分层的方法
JP2016509913A (ja) * 2013-03-14 2016-04-04 カール ツアイス メディテック アクチエンゲゼルシャフト 眼科診断データの取得、表示、および分析のための改善されたユーザ・インターフェース
CN106447663A (zh) * 2016-09-30 2017-02-22 深圳市莫廷影像技术有限公司 一种去除重影的眼科oct图像高清配准方法及装置
CN108510446A (zh) * 2018-04-10 2018-09-07 四川和生视界医药技术开发有限公司 视网膜图像的叠加方法及视网膜图像的叠加装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080312552A1 (en) * 2007-06-18 2008-12-18 Qienyuan Zhou Method to detect change in tissue measurements
JP5543126B2 (ja) * 2009-04-16 2014-07-09 キヤノン株式会社 医用画像処理装置及びその制御方法
US20110190657A1 (en) * 2009-08-10 2011-08-04 Carl Zeiss Meditec, Inc. Glaucoma combinatorial analysis
WO2012141240A1 (ja) * 2011-04-13 2012-10-18 興和株式会社 視野計
US9357911B2 (en) 2011-05-09 2016-06-07 Carl Zeiss Meditec, Inc. Integration and fusion of data from diagnostic measurements for glaucoma detection and progression analysis
JP2013119019A (ja) * 2011-12-09 2013-06-17 Nidek Co Ltd 視機能評価装置及び視機能評価プログラム
JP6226510B2 (ja) * 2012-01-27 2017-11-08 キヤノン株式会社 画像処理システム、処理方法及びプログラム
JP6084315B2 (ja) * 2012-02-28 2017-02-22 株式会社トプコン 眼底観察装置
US20140160263A1 (en) * 2012-11-30 2014-06-12 Kabushiki Kaisha Topcon Data visualization method and apparatus utilizing receiver operating characteristic analysis
JP6241040B2 (ja) 2013-01-23 2017-12-06 株式会社ニデック 眼科解析装置、及び眼科解析プログラム
JP6429447B2 (ja) * 2013-10-24 2018-11-28 キヤノン株式会社 情報処理装置、比較方法、位置合わせ方法及びプログラム
WO2015154094A1 (en) * 2014-04-05 2015-10-08 Zand Jason M Apparatus, systems, and methods for mapping of tissue oxygenation
JP5956518B2 (ja) * 2014-07-17 2016-07-27 国立大学法人東北大学 眼科解析装置及び眼科撮影装置
JP6011668B2 (ja) * 2015-03-30 2016-10-19 株式会社ニデック 眼科装置
US9872647B2 (en) * 2015-04-17 2018-01-23 The Curators Of The University Of Missouri Detection of early stage alzheimer's disease and mild cognitive impairment
JP2016093510A (ja) * 2015-11-18 2016-05-26 株式会社ニデック 眼底光凝固レーザ装置
EP3213668B1 (en) 2016-03-03 2021-07-28 Nidek Co., Ltd. Ophthalmic image processing apparatus
JP6988058B2 (ja) * 2016-03-03 2022-01-05 株式会社ニデック 眼科画像処理装置、眼科画像処理プログラム
US9968251B2 (en) 2016-09-30 2018-05-15 Carl Zeiss Meditec, Inc. Combined structure-function guided progression analysis
CN110930446B (zh) * 2018-08-31 2024-03-19 福州依影健康科技有限公司 一种眼底图像定量分析的前置处理方法及存储设备
US11432719B2 (en) * 2019-03-14 2022-09-06 Oregon Health & Science University Visual field simulation using optical coherence tomography and optical coherence tomographic angiography

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07136122A (ja) * 1993-09-21 1995-05-30 Topcon Corp 眼底疾患解析装置
JP2000262472A (ja) * 1999-03-19 2000-09-26 Kowa Co 視野計
JP2008518740A (ja) * 2004-11-08 2008-06-05 オプトビュー,インコーポレーテッド 総合的眼診断用光学装置および方法
JP2009034480A (ja) * 2007-07-31 2009-02-19 Topcon Corp 眼科情報処理装置及び眼科検査装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5868134A (en) * 1993-09-21 1999-02-09 Kabushiki Kaisha Topcon Retinal disease analyzer
US6027216A (en) * 1997-10-21 2000-02-22 The Johns University School Of Medicine Eye fixation monitor and tracker
WO2004036182A2 (en) * 2002-10-17 2004-04-29 Control Delivery Systems, Inc. Methods for monitoring treatment of disease
JP2008538612A (ja) * 2005-04-22 2008-10-30 ザ ジェネラル ホスピタル コーポレイション スペクトルドメイン偏光感受型光コヒーレンストモグラフィを提供することの可能な構成、システム、及び方法
US8129105B2 (en) * 2006-04-13 2012-03-06 Ralph Zuckerman Method and apparatus for the non-invasive measurement of tissue function and metabolism by determination of steady-state fluorescence anisotropy
JP5048284B2 (ja) * 2006-07-31 2012-10-17 株式会社ニデック 眼科装置
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
US7670001B2 (en) * 2007-04-25 2010-03-02 Richard Spaide Reflectance measurement of macular pigment using multispectral imaging
JP5073361B2 (ja) * 2007-05-15 2012-11-14 隆志 曽根 画像処理装置、画像処理システム、画像処理方法
US8474978B2 (en) * 2007-06-15 2013-07-02 University Of Southern California Pattern analysis of retinal maps for the diagnosis of optic nerve diseases by optical coherence tomography
DE102007052282A1 (de) * 2007-11-02 2009-05-07 Carl Zeiss Meditec Ag Verfahren und Vorrichtung zum Ermitteln und Darstellen von medizinischen Informationen
US8081808B2 (en) * 2007-11-08 2011-12-20 Topcon Medical Systems, Inc. Retinal thickness measurement by combined fundus image and three-dimensional optical coherence tomography
US8401246B2 (en) * 2007-11-08 2013-03-19 Topcon Medical Systems, Inc. Mapping of retinal parameters from combined fundus image and three-dimensional optical coherence tomography
JP5543126B2 (ja) * 2009-04-16 2014-07-09 キヤノン株式会社 医用画像処理装置及びその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07136122A (ja) * 1993-09-21 1995-05-30 Topcon Corp 眼底疾患解析装置
JP2000262472A (ja) * 1999-03-19 2000-09-26 Kowa Co 視野計
JP2008518740A (ja) * 2004-11-08 2008-06-05 オプトビュー,インコーポレーテッド 総合的眼診断用光学装置および方法
JP2009034480A (ja) * 2007-07-31 2009-02-19 Topcon Corp 眼科情報処理装置及び眼科検査装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012025983A1 (ja) * 2010-08-24 2013-10-28 興和株式会社 視野検査システム
JP5563087B2 (ja) * 2010-08-24 2014-07-30 興和株式会社 視野検査システム
JP2012100713A (ja) * 2010-11-05 2012-05-31 Nidek Co Ltd 眼科装置
US8931904B2 (en) 2010-11-05 2015-01-13 Nidek Co., Ltd. Control method of a fundus examination apparatus
JP2012100714A (ja) * 2010-11-05 2012-05-31 Nidek Co Ltd 眼科装置
US9649022B2 (en) 2010-11-05 2017-05-16 Nidek Co., Ltd. Control method of a fundus examination apparatus
JP2013066702A (ja) * 2011-09-06 2013-04-18 Canon Inc 画像処理装置および画像処理方法
JP2016509913A (ja) * 2013-03-14 2016-04-04 カール ツアイス メディテック アクチエンゲゼルシャフト 眼科診断データの取得、表示、および分析のための改善されたユーザ・インターフェース
CN104933715A (zh) * 2015-06-16 2015-09-23 山东大学(威海) 一种应用于视网膜眼底图像的配准方法
CN105374028A (zh) * 2015-10-12 2016-03-02 中国科学院上海光学精密机械研究所 光学相干层析成像视网膜图像分层的方法
CN106447663A (zh) * 2016-09-30 2017-02-22 深圳市莫廷影像技术有限公司 一种去除重影的眼科oct图像高清配准方法及装置
CN108510446A (zh) * 2018-04-10 2018-09-07 四川和生视界医药技术开发有限公司 视网膜图像的叠加方法及视网膜图像的叠加装置
CN108510446B (zh) * 2018-04-10 2023-03-14 四川和生视界医药技术开发有限公司 视网膜图像的叠加方法及视网膜图像的叠加装置

Also Published As

Publication number Publication date
JP5543126B2 (ja) 2014-07-09
US9451878B2 (en) 2016-09-27
US20110046480A1 (en) 2011-02-24
JP2010246779A (ja) 2010-11-04

Similar Documents

Publication Publication Date Title
JP5543126B2 (ja) 医用画像処理装置及びその制御方法
JP5955163B2 (ja) 画像処理装置および画像処理方法
JP4810562B2 (ja) 画像処理装置、画像処理方法
JP5698465B2 (ja) 眼科装置、表示制御方法及びプログラム
JP5733962B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
JP4850927B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP5631339B2 (ja) 画像処理装置、画像処理方法、眼科装置、眼科システム及びコンピュータプログラム
WO2005087087A1 (ja) 眼底部解析装置および眼底部解析方法
JP2017518123A (ja) 自動網膜特徴検出を用いる眼科撮像システム
JP2012161595A (ja) 画像処理装置、画像処理方法
JP2006263127A (ja) 眼底画像診断支援システム、及び眼底画像診断支援プログラム
JP5474011B2 (ja) 眼科システム、眼科装置、断層像取得方法、およびプログラム
JP5714083B2 (ja) 眼科装置、眼科用処理装置、眼科システム、断層画像取得方法、眼科用処理方法及びプログラム
JP6307141B2 (ja) 眼科装置、眼科システム、眼科装置の制御方法およびプログラム
JP6735886B2 (ja) 眼科装置、眼科システム、眼科装置の制御方法およびプログラム
JP5017486B2 (ja) 画像処理装置及び画像処理方法
JP6041920B2 (ja) 眼科システム、制御装置、表示制御方法およびプログラム
JP6033478B2 (ja) 眼科装置、層厚比較方法およびプログラム
JP5236094B2 (ja) 画像処理装置、画像処理方法
JP5677492B2 (ja) 画像処理装置、画像処理方法
JP6568614B2 (ja) 眼科装置、眼科システム、眼科装置の制御方法およびプログラム
JP6223527B2 (ja) 眼科装置、層厚比較方法およびプログラム
Stanga et al. The role of ultra-widefield imaging with navigated central and peripheral cross-sectional and three-dimensional swept source optical coherence tomography in ophthalmology: Clinical applications
JP2012035136A (ja) 眼科装置
JP2012011258A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10764183

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10764183

Country of ref document: EP

Kind code of ref document: A1