WO2013054590A1 - 眼底画像解析装置、眼底画像解析方法及びプログラム - Google Patents

眼底画像解析装置、眼底画像解析方法及びプログラム Download PDF

Info

Publication number
WO2013054590A1
WO2013054590A1 PCT/JP2012/070870 JP2012070870W WO2013054590A1 WO 2013054590 A1 WO2013054590 A1 WO 2013054590A1 JP 2012070870 W JP2012070870 W JP 2012070870W WO 2013054590 A1 WO2013054590 A1 WO 2013054590A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
fundus image
fundus
image
correction
Prior art date
Application number
PCT/JP2012/070870
Other languages
English (en)
French (fr)
Inventor
育男 森田
京子 大野
無価 森山
茂出木 敏雄
近藤 純一
高橋 洋一
Original Assignee
国立大学法人東京医科歯科大学
大日本印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東京医科歯科大学, 大日本印刷株式会社 filed Critical 国立大学法人東京医科歯科大学
Publication of WO2013054590A1 publication Critical patent/WO2013054590A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present invention relates to fundus image analysis technology, and more particularly, to a fundus image analysis apparatus that analyzes temporal changes in intensity myopia.
  • Patent Document 2 “Image superposition method”, NTT
  • feature points that do not have any problem even if they are used as reference points are prioritized, and feature points that are not suitable for use as reference points are registered in a database for each image modality (eg, fundus camera image). Alignment is performed using several feature points with high priority.
  • Patent Document 3 “Personal Authentication Method Using Retina Image”, Iwasaki Gakuen
  • Patent Document 4 Optical Image Processing Method and Storage Medium
  • Canon In Patent Document 4 there is a difference in illumination conditions or illumination unevenness by analyzing a low frequency component of an image and performing shading correction.
  • a method for enabling comparison between images is proposed.
  • Patent Document 5 “Fundus image processing device”, Nidek In Patent Document 5, as a temporal change analysis of the nipple, a radial distance ratio C / D from the center of the nipple of the cup line where the disc line on the outer edge of the nipple and the blood vessel are recessed
  • R is the width of DC
  • Patent Document 3 since it is premised on the overlapping of images acquired by the same image modality (fundus camera), it cannot be applied when different cameras are used.
  • the nipple In the retina authentication of Patent Document 3, there is a high possibility that the nipple is set as a reference feature point.
  • the pathological condition such as intense myopia
  • the variation of the nipple may be the largest, and the reference feature
  • the priorities regarding the selection of points are not fixed, and there is a problem that they are difficult to apply when they change with the progress of the disease state.
  • the method proposed in Patent Document 4 can analyze the degree of growth of the vitiligo that is the main target.
  • each fundus image is monochromeized so that the nipple and blood vessel patterns are clear, and the two images are superimposed so that consistency can be confirmed on the screen.
  • An ophthalmologist or the like can select where the reference is to be made through trial and error.
  • one of a plurality of fundus image data is set as reference fundus image data, and the magnification, angle, and position are determined separately for each fundus image data other than the reference fundus image.
  • Each correction parameter is set, and based on the respective correction parameters, vertical and horizontal magnification correction, angle correction, and position correction are performed to generate one or more corrected fundus image data, and the reference fundus image
  • a composite image creating unit that creates a color composite image by combining the reference fundus image data and the selected corrected fundus image data by performing the same image processing on the data and the corrected fundus image data to convert the data into a monochrome image; ,
  • a correction parameter determination unit that determines each correction parameter of the degree and position for each fundus image data, and a correction fundus image data generation unit that generates at least one correction fundus image data based on the determined correction parameter
  • a fundus oculi image analysis device characterized by comprising the following. Furthermore, an image digitizing unit that creates digital image data from an analog image among a plurality of fundus images, and a region corresponding to the fundus is trimmed for each digital image data, and is configured with a predetermined number of pixels It is preferable to include a fundus image pre-processing unit that performs scaling processing with the same vertical and horizontal magnification parameters so as to become image data, and converts the fundus image data to a uniform size.
  • the fundus image pre-processing unit displays the digital image data on a screen, and designates a region corresponding to the fundus on a displayed image with a specific figure, thereby setting the vertical and horizontal same magnification parameters of the scaling process.
  • the fundus image matching unit displays each of the reference fundus image data and the corrected fundus image data on a display screen, displays a figure substantially along the outline of the eyeball, and the size of the area of the figure is the same. It is preferable to set the correction parameter for the vertical / horizontal magnification by adjusting so as to be.
  • the fundus image matching unit displays the reference fundus image data and the corrected fundus image data on a screen, and displays the first and second images respectively at corresponding positions on both displayed images. It is preferable that the angle rotated by the operation unit is set as an angle correction parameter by instructing the operation unit to rotate so that the parallelism of the reference lines is the same.
  • the fundus image matching unit displays the reference fundus image data and the corrected fundus image data on a screen, and displays the first and second images respectively at corresponding positions on both displayed images. It is preferable that the position moved by the operation unit is set as a correction parameter for the position by instructing the operation unit to move the reference point so that the reference point becomes the same position.
  • the composite image creating unit selects any one or two primary colors from among the three RGB primary colors, selects two different primary color sets, and converts one of the selected primary color sets into a monochrome image.
  • the composite image creating unit preferably performs gray scale conversion, negative / positive inversion, and gradation expansion processing as the predetermined image processing.
  • the fundus image matching unit may perform angle correction after magnification correction.
  • one of a plurality of fundus image data is set as reference fundus image data, and the magnification, angle, and angle for each fundus image data other than the reference fundus image are determined.
  • a fundus image matching step that sets each correction parameter for position, performs magnification correction (by vertical and horizontal), angle correction, and position correction based on the correction parameters, and creates one or more corrected fundus image data;
  • Composite image creation for converting the reference fundus image data and the corrected fundus image data into a monochrome image by applying the same image processing to the reference fundus image data and the corrected fundus image data, and generating a color composite image by combining the reference fundus image data and the corrected fundus image data
  • a correction parameter determining step for determining each of the vertical, horizontal and horizontal magnification, angle, and position correction parameters for each fundus image data, and corrected fundus image data for creating at least one corrected fundus image data based on the determined correction parameters
  • a fundus image analysis method comprising: a creating step.
  • the present invention may be a program for causing a computer to execute the fundus image analysis method described above, or a computer-readable recording medium for recording the program.
  • the image matching method proposed in the present invention can be realized by inexpensive general-purpose personal computer software, and does not require the addition of a special graphics board such as a GPU. Also, if the image input system is an inexpensive film scanner, various fundus photographs taken in the past can be input, and images from existing fundus cameras can be captured as they are. Moreover, even if the imaging conditions of images taken in the past are unknown, they can be matched to each other as long as film and image data remain.
  • the present invention can realize a temporal change analysis of “intensity myopia” using fundus photographs of the same patient scattered and stored in various medical institutions without investing in large-scale hardware facilities.
  • This specification includes the contents described in the specification and / or drawings of Japanese Patent Application No. 2011-226307, which is the basis of the priority of the present application.
  • FIG. 1 is a functional block diagram showing a configuration example of an image analysis apparatus (time-series collation apparatus) according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an overview of a time-series image analysis method using fundus camera images using the image analysis technique according to the present embodiment.
  • FIG. 3 is a diagram showing a state of the unification processing of the sizes of all images.
  • FIG. 4 is a flowchart showing the flow of matching processing for all the processing target images based on the reference image when the reference image is an image of the latest age.
  • FIG. 5 is a flowchart showing details of image matching processing by the fundus image matching unit, and shows a flow of image data matching processing of two images.
  • FIG. 1 is a functional block diagram showing a configuration example of an image analysis apparatus (time-series collation apparatus) according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an overview of a time-series image analysis method using fundus camera images using the image analysis technique according to the
  • FIG. 6 is a diagram showing details of the image matching process, in which the entire eyeball is displayed on the screen and shows the contents of the magnification correction process.
  • FIG. 7A is a diagram illustrating an example of interactive processing for magnification correction.
  • FIG. 7B is a diagram illustrating an example of interactive processing for magnification correction.
  • FIG. 8 is a diagram showing an example of the content of the angle correction processing of the image A and the image C in which the magnifications of the eyeballs are matched by the method of FIG. 6 or FIGS. 7A and 7B.
  • FIG. 9 is a diagram illustrating an example of interactive processing for angle correction.
  • FIG. 10 is a diagram illustrating an example of interactive processing for angle correction.
  • FIG. 9 is a diagram illustrating an example of interactive processing for angle correction.
  • FIG. 11 is a diagram illustrating the contents of the position correction process in the matching process of two images.
  • FIG. 12 is a diagram illustrating a state in which the position correction is performed on the reference image A ′ and the input image 2D ′ so that both positions are the same.
  • FIG. 13 is a diagram showing details of the overlay display (S3-3-6) in FIG.
  • FIG. 14 is a diagram showing details of the overlay display (S3-3-6) in FIG. 5, and is a diagram following FIG.
  • FIG. 15 is a diagram illustrating details of processing of overlay display of two images (step S3-3-6).
  • FIG. 16 is a diagram illustrating an example of a time-series fundus photograph.
  • FIG. 16 is a diagram illustrating an example of a time-series fundus photograph.
  • FIG. 17 is a photograph taken with a film camera in 1989 and the latest image of 2010, the upper is a raw photograph, and the lower is a photograph corrected for magnification and angle based on the latest image of 2010.
  • the middle photo is the overlay image.
  • FIG. 18 is a diagram showing an example of the alignment processing operation of the two-screen fundus camera image, which is a screen for designating numerical values of magnification and angle (rotation).
  • FIG. 19 is a diagram showing an example of alignment processing operation (2: interactive correction) of a two-screen fundus camera image.
  • the first image on the left is a 2010 L image
  • the middle overlay image is a red image.
  • the second image on the right is an L image from 1989
  • the middle overlay image is a green image.
  • FIG. 20 is a diagram showing an example of the alignment processing operation (3: automatic correction) of the two-screen fundus camera image, and is a diagram showing a state in which rhombus marking is performed at two feature points corresponding to the left and right images.
  • FIG. 21 is a diagram showing a matching operation operation example (4) of the two-screen fundus camera image. For automatic position correction based on markings such as rhombuses (or a cross mark or the like) at two feature points corresponding to the left and right images. It is a figure which shows a mode.
  • FIG. 20 is a diagram showing an example of the alignment processing operation (3: automatic correction) of the two-screen fundus camera image, and is a diagram showing a state in which rhombus marking is performed at two feature points corresponding to the left and right images.
  • FIG. 22 is a diagram showing an operation example (5) of matching processing for a two-screen fundus camera image, and is a diagram displaying an overlay image after automatic position correction.
  • FIG. 23 is a diagram illustrating an example of a time-series fundus camera image after the end of the matching process.
  • FIG. 24 is a diagram illustrating an example of time-series image analysis after completion of matching, and is a diagram illustrating an enlarged photograph of the affected area based on FIG. 23 and the like.
  • FIG. 25 is a diagram illustrating a time-series image analysis example (2) after the end of the control processing.
  • FIG. 1 is a functional block diagram showing an example of the configuration of an image analysis apparatus (time series collation apparatus) according to this embodiment.
  • an image analysis apparatus including a time-series image collation apparatus
  • an image analysis apparatus includes an image digitizing unit 3 that digitizes a fundus image, and a fundus image that performs trimming of the fundus image, unification of sizes, and the like.
  • the processing unit 5 the fundus image matching unit 7 for matching the image of the fundus image serving as a reference and the fundus image to be analyzed, and the composite image creating unit 11 for synthesizing the matched images.
  • This image analysis apparatus 1 includes a time-series collation device for fundus images for analyzing temporal changes of a plurality of fundus images taken in color or monochrome at different times for the same subject using a fundus camera. .
  • the image digitizing unit 3 digitizes a fundus image recorded on a film medium among a plurality of fundus images, and creates digital image data.
  • the fundus image pre-processing unit 5 trims a region corresponding to the fundus for each digital image data, performs a scaling process with the same vertical and horizontal magnification parameters so as to be image data composed of a predetermined number of pixels, Is converted into unified fundus image data.
  • the fundus image matching unit 7 sets at least one of the plurality of digitally converted fundus image data as reference fundus image data, and performs vertical and horizontal magnifications for each fundus image data other than the reference fundus image.
  • Each correction parameter of angle and position is set, and magnification correction, angle correction, and position correction are performed for each aspect, and one or more corrected fundus image data is created.
  • the composite image creating unit 11 performs predetermined image processing on each of the reference fundus image data and the one or more corrected fundus image data to convert it into a monochrome image, and the reference fundus image data and one selected corrected fundus A color composite image is created by combining the image data.
  • the correction parameter determination unit 15 Based on the color composite image created by the composite image creation unit 11, the correction parameter determination unit 15 appropriately repeats the processing of the fundus image matching unit 7 and the composite image creation unit 11, and calculates the magnification, angle, and position for each aspect. Each correction parameter is determined for each fundus image data.
  • the corrected fundus image data creation unit 17 creates one or more corrected fundus image data based on the determined correction parameters.
  • the image analysis apparatus 1 actually includes a CPU 1a that performs processing, an application program that describes a processing algorithm, a storage unit 19 that stores data such as parameters obtained by the processing, an input unit 21 such as image data,
  • a CPU 1a that performs processing
  • an application program that describes a processing algorithm
  • a storage unit 19 that stores data such as parameters obtained by the processing
  • an input unit 21 such as image data
  • PC personal computer
  • not all the functional units are indispensable.
  • the image digitizing unit can be replaced by another scanner device, and the input unit 21 and the output unit 23 are also provided separately from the main body. Also good.
  • FIG. 2 is a diagram showing an overview of a time-series image analysis method using fundus camera images using the image analysis technique according to the present embodiment. In the image analysis method shown in FIG. 2, a plurality of time-series fundus photographs are prepared.
  • the fundus photograph may be a mixture of analog film, digital image data, and the like.
  • a film medium or a digital image printed on the medium (hereinafter referred to as “medium image”) is extracted from the image data of the same fundus photograph.
  • the medium digitizing unit 3 converts this medium image into digital image data using a film scanner or the like. Thereby, all the image data is converted into digital image data.
  • the fundus image preprocessing unit 5 unifies the vertical sizes of all digital image data.
  • FIG. 3 is a diagram showing a state of the unification processing of the sizes of all images. First. It is assumed that an original image (4823 ⁇ 3784 pixels) after scanning at the upper left is obtained.
  • the fundus image pre-processing unit 5 performs trimming by excluding the portion other than the fundus photographic part from the original image. Actually, processing that removes the peripheral portion may be performed. Then, a trimmed image as shown in the upper right is obtained (4823 ⁇ 3784 pixels). Next, as shown in the lower right diagram, the fundus image preprocessing unit 5 performs image enlargement / reduction processing in order to unify the number of pixels of the image.
  • the vertical length is unified to 1024 pixels.
  • the number of horizontal pixels 1139 changes depending on the unification of the vertical direction.
  • the fundus image matching unit 7 performs, for example, matching processing of, for example, all images of the same fundus photograph with reference to the latest age image. Since the image of the latest age is considered to be the most stable technically, the image of the latest age is used as an example as an example, but if it is a stable image, it can be used. An alignment process based on two or more images may be performed. This process will be described later.
  • step S4 the correction parameter determination unit 15 or the like measures and determines the parameter, length, area, and angle (blood vessel, nipple diameter, etc.) of the corresponding characteristic portion of each image.
  • FIG. 4 is a flowchart showing the flow of matching processing for all the processing target images based on the reference image when the reference image is an image of the latest age.
  • step S3-1 time-sequential 1,..., N fundus image data (after unifying the vertical size of the image, the Nth image is set as the latest image) is prepared.
  • step S3-3 the fundus image matching unit 7 determines that the N fundus image data and the Pth fundus Performs alignment processing with image data.
  • step S3-4 P is incremented by 1.
  • step S3-5 P ⁇ N is determined. If No, the process ends (End). If Yes, step S3-3 is reached. Return to and continue processing.
  • step S3-3 the alignment condition parameter obtained in the alignment process and the P-th corrected (after alignment) image data after the alignment process are output to the output unit 23.
  • FIG. 5 is a flowchart showing details of the image matching process (step S3-3) by the fundus image matching unit 7, and shows the flow of the image data matching process of two images.
  • the fundus image matching unit 7 performs matching processing using two pieces of image data digitized by the image digitizing unit 3 and pre-processed by the fundus image pre-processing unit 5 as shown in FIG.
  • two pieces of input image data are acquired (step S3-3-1), and magnification correction is performed in step S3-3-2.
  • angle correction is performed in step S3-3-3.
  • step S3-3-4 two feature points are designated, and position correction is performed in step S3-3-5.
  • the order of these three types of corrections S3-3-2, S3-3-3, and S3-3-5 greatly affects operability and correction accuracy, and thus must be performed in an optimal order.
  • the position correction of S3-3-5 does not cause a significant difference in accuracy at any stage, but it is better to perform it last in terms of operability.
  • S3-3-2 and S3-3-3 have a significant difference in accuracy depending on the order.
  • Factors that require correction include (1) change in the subject itself and (2) change in camera shooting conditions.
  • the correction order is basically (2) correction for changes in camera shooting conditions, (1 ) The order of correction for variations in the subject itself.
  • changes in the subject itself include enlargement / reduction of the eyeball, rotation of the eyeball (rotation around the eye axis), and rotation of the eyeball around the X axis or Y axis.
  • the enlargement / reduction of the eyeball causes an enlargement in the rear part in the direction of the eye axis, so that the magnification and the angle are hardly affected.
  • the rotation of the eyeball around the X axis or the Y axis affects the vertical / horizontal magnification of the captured image, but (2) the influence is small compared to the camera magnification in the variation of the camera imaging conditions.
  • step S3-3-6 the composite image creation unit 11 performs overlay display of two images.
  • step S3-3-7 it is confirmed whether or not they are matched. If No, the process returns to step S3-3-2.
  • step S3- In 3-8 the matched image data and magnification / angle / position parameters are output.
  • the corrected image can be created by the corrected fundus image data creation unit 17 based on the original image and the correction parameters.
  • FIG. 6 is a diagram showing details of the image matching process (step S3-3-2), in which the entire eyeball is displayed on the screen, and shows the contents of the magnification correction process. Based on the image of the eyeball 21a of the input image 1 (reference image) (A) and the image of the eyeball 21b of the input image 2 (B), magnification correction is performed using the following equation.
  • magnification factors sx and sy obtained as 200% in the X direction and 125% in the Y direction.
  • magnification factors sx and sy are stored in the memory together with the image.
  • 7A and 7B are diagrams illustrating an example of interactive processing for magnification correction.
  • XY coordinates are defined on the display screen as software, and when a figure or the like is drawn on the display screen, the position coordinates of the figure are stored in the memory by the vertex or the like of the figure.
  • Such software can be realized by general graphic software.
  • FIG. 7A is the same as FIG.
  • two input images (eyeballs) 21a and 21b correspond to two images on the screen as shown in (A ′) and (B ′).
  • rhombuses are designated (A ′, B ′).
  • a rectangular region such as a rectangle can be used instead of the diamond.
  • the region is displayed on the display screen of the output unit 23 by the input unit 21 of the mouse so that the four vertices of the rhombus 25a prepared as a template along the contour of the oval eyeball substantially coincide with the contour. Specify with.
  • the template of the rhombus 25b is arranged and specified so as to be slightly larger than the outline of the eyeball in the X direction and the Y direction.
  • the larger dimensions are L1 to L4, respectively.
  • L1 to L4 are stored in the storage unit 19.
  • the reason for setting it to be larger is that there are many cases where a slight reduction occurs in the dimension in the X direction or the Y direction due to angle correction described later. If the angles are apparently different, it is easier to collate by increasing the degree of increase.
  • FIG. 8 is a diagram showing an example of the content of the angle correction processing of the image A and the image C in which the magnification of the eyeball is matched by the method of FIG. 6 or FIGS. 7A and 7B. If the image A is an ellipse, the major axis of the ellipse of the image A is arranged parallel to the x axis.
  • FIG. 9 is the same as that in FIG. Next, for the reference image A and the input image C, two graphics corresponding to the two screens are drawn (designated) on the screen by the input unit 21.
  • FIG. 9 shows an example in which a rhombus figure having diagonal lines L5, L6, L5 ′, and L6 ′ is specified on the screen, but straight lines corresponding to the longer diagonal lines L5 and L5 ′ may be used. . These straight lines L5 and L5 ′ are moved with the mouse so as to be aligned with the long axis of the ellipse, and rhombuses or straight lines are displayed and drawn on the reference image A ′ and the input image 2C ′.
  • the absolute dimension of the straight line or rhombus specified in the input image 2C ′ is not related to the angle correction, it may be set in any way, but in order to make it easy to see in operation, it is specified larger than the ellipse. Yes.
  • the diagonal coordinates (X11, Y11), (X12, Y12), (X21, Y21), and (X22) of the rhombus are set so that the intersection angle between the straight line L5 and the straight line L6 is zero. , Y22).
  • the angle difference ⁇ is 20 degrees
  • X ′ and Y ′ are obtained by the following equations. The obtained value is stored in the memory.
  • FIG. 11 is a diagram illustrating the contents of the position correction process in the matching process of two images.
  • the leftmost points (X1, Y1) and (X2, Y2) of the ellipse are designated (A ′, D ′).
  • the reference image A ′ and the input image 2D ′ are corrected so that the positions of the reference points are the same (in contrast, the positions other than the reference points are not necessarily the same). Not required).
  • the input image 2D ′ is made ⁇ 43 in the X direction and ⁇ 85 in the Y direction by matching the input image 2D ′ with the reference image A ′. That is, the input image 2D ′ can be corrected for position by the following conversion formula.
  • the overlay display (S3-3-6) of FIG. 5 is performed. In FIG.
  • the reference image A and the input image 2 (E) are drawn with different colors and drawn on the overlay image so that they can be distinguished from each other (F).
  • processing for superimposing the eyeball feature patterns 21a and 21b-5 is performed.
  • FIG. 13F for the sake of simplicity, the outline of the ellipse is illustrated as being overlapped. However, actually, as shown in FIG. 17, the feature pattern including the inside of the ellipse is overlapped. Yes.
  • the former image may be displayed in a form that can be visually identified as red and the latter image as green, that is, a color image so that the degree of overlap can be clearly understood.
  • step S3-3-7 it is determined based on the degree of coincidence of the feature pattern of the ellipse whether the consistency is good in the superimposed image F (step S3-3-7). If the consistency is OK, the process proceeds to step S3-3-8. If the consistency is NG, for example, the processing is restarted from the magnification correction of FIG. 7B. If the consistency is OK (Yes), the process proceeds to step S3-3-8, and the image data E subjected to the alignment process, the magnification parameter S, the angle parameter ⁇ , and the position parameters X and Y are output. Store parameters in memory. As a result, the process ends (End).
  • FIG. 15 is a diagram illustrating details of processing of overlay display of two images (step S3-3-6).
  • Image data 1 reference image
  • image data 2 input image
  • gray scale conversion for example, extraction of G component
  • blood vessels are displayed in black.
  • the image size is Xs ⁇ Ys
  • the image data 1 having a value of 0 to 255 is Image1 (x, y, c)
  • Gray1 (x, y) and Gray2 (x, y) after grayscale conversion are next, negative / positive inversion of each grayscale converted image is performed (steps S23 and S33).
  • the defect is whitened and the background is blackened.
  • the image after negative-positive inversion is It is.
  • gradation expansion conversion is performed in steps S24 and S34. As a result, the defective area is raised.
  • steps S25 and S26 RGB plane allocation is performed.
  • step S25 RGB plane allocation is performed.
  • step S25 (R) is assigned to the image data 1.
  • step S35 (G) is assigned to the image data 2.
  • step S26 the image data 1 and the image data 2 are subjected to RGB plane synthesis and full color conversion.
  • an overlay image (RGB full color image) is generated (step S27).
  • ImageS (x, y, c) is an overlay image data having a value of 0 to 255.
  • FIG. 16 is a diagram illustrating an example of a time-series fundus photograph.
  • fundus photographs collected over a period of more than 20 years from 1989 to 2010 are taken with various cameras (cameras with different image quality, whether analog, digital, or digital), and the magnification and lighting conditions are also different, As shown in FIG. 16, the collation work was difficult.
  • FIG. 17 shows, for example, a photograph taken with a film camera in 1989 and the latest image in 2010, with the raw image on the top and the photograph with the magnification and angle corrected based on the latest image in 2010.
  • the middle photo is the overlay image.
  • FIG. 18 is a diagram showing an example of the matching processing operation of the two-screen fundus camera image, which is a screen for designating numerical values of the magnification 53 and the angle (rotation) 55.
  • the correction parameter which set the magnification X to 95%, the magnification Y to 88%, and set the rotation on XY plane to 85 degree
  • FIG. 19 is a diagram showing an example of alignment processing operation (2: interactive correction) of a two-screen fundus camera image.
  • the first image on the left is a 2010 L image
  • the middle overlay image is a red image.
  • the second image on the right is an L image from 1989
  • the middle overlay image is a green image.
  • FIG. 20 is a diagram showing an example of the alignment processing operation (3: automatic correction) of the two-screen fundus camera image, and is a diagram showing a state in which rhombus marking is performed at two feature points corresponding to the left and right images.
  • a feature point is a portion where blood vessels gather in the nipple (the result branches). By using such a feature point as a reference, processing for aligning two images can be easily performed.
  • FIG. 21 is a diagram showing a matching operation operation example (4) of the two-screen fundus camera image.
  • FIG. 22 is a diagram showing an operation example (5) of matching processing for a two-screen fundus camera image, and is a diagram displaying an overlay image after automatic position correction.
  • the middle overlay image is a red image
  • the second image on the right is an L image from 1989
  • the middle overlay image is a green image
  • by correcting the magnification and angle It can be seen that the blood vessels can be matched very well, and the state of change of the lesion can be seen in detail. Thus, automatic correction can be performed with high accuracy and images of different eras can be matched.
  • FIG. 23 is a diagram illustrating an example of a time-series fundus camera image after the end of the matching process. As a result of correcting and aligning the magnification, angle, and position of six images from 1989 to 2009 based on the 2010 image, despite the transition from analog to digital, the eyeball has been in use for 20 years.
  • FIG. 24 is a diagram illustrating an example of time-series image analysis after completion of matching, and is a diagram illustrating an enlarged photograph of the affected area based on FIG. 23 and the like. From this figure, it was found that the change in the shape of the nipple and the shape of the blood vessel in the vicinity of the nipple is more prominent than the change in retinal vascular running that was initially assumed. That is, it can be seen that the nipple shape was deformed into an ellipse from 1989 to 1999 and then gradually expanded. Such subtle changes can be compared over time.
  • FIG. 25 is a diagram illustrating a time-series image analysis example (2) after the end of the control processing.
  • a rhombus figure for the 2010 image and the 1989 image By defining a rhombus figure for the 2010 image and the 1989 image, and matching the rhombus with the guideline as a guideline It is a figure which shows the example which produced
  • preprocessing trimming, digitization, etc.
  • alignment processing is performed and alignment condition parameters are stored. .
  • the eye disease such as intense myopia changes over time. be able to.
  • a program for causing a computer to execute the fundus image analysis method and a computer-readable recording medium for recording the program may be used.
  • the present invention can be used for a fundus image analysis apparatus.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

複数の眼底画像データの中で1つを基準眼底画像データに設定し、前記基準眼底画像以外の各眼底画像データに対して、倍率、角度、位置の各補正パラメータを設定し、前記各補正パラメータに基づいて、倍率補正、角度補正、位置補正を施し、補正眼底画像データを作成する眼底画像整合部と、前記基準眼底画像データと前記補正眼底画像データとに対して同じ画像処理を加えてモノクロ画像に変換し、前記基準眼底画像データと前記補正眼底画像データとを合成した合成画像を作成する合成画像作成部と、前記合成画像作成部で作成されたカラー合成画像に基づいて、前記眼底画像整合部と前記合成画像作成部とにおける処理を繰り返し、前記縦横別の倍率、角度、位置の各補正パラメータを眼底画像データごとに決定する補正パラメータ決定部と、決定された前記補正パラメータに基づいて、少なくとも1の補正眼底画像データを作成する補正眼底画像データ作成部とを有することを特徴とする眼底画像解析装置。

Description

眼底画像解析装置、眼底画像解析方法及びプログラム
本発明は眼底画像解析技術に関し、特に、強度近視の経時変化を解析する眼底画像解析装置に関する。
 眼科疾患でポピュラーな近視の中に、眼球後極の組織が変性して眼軸が伸び、強度な近視の症状を呈し、場合により失明に至る重篤な疾患「強度近視」が知られている。
 現状では、強度近視に対する根治術としては、下記特許文献1に記載の発明などがあるが、まだ研究段階であり、実際には、薬物療法や外科治療により病態の症状や進行を抑える対症療法しかないのが現状である。従って、強度近視の治療にあたっては、早期発見が重要となり、基本的には、眼底カメラなどによる継続的な撮影画像に基づく診断がなされることになる。
 眼底カメラ等による撮影画像による画像解析技術としては、以下のような技術が知られている。
(特許文献2)「画像重ね合わせ方法」、NTT
 特許文献2では、基準点に使用しても問題無い特徴点を優先順位付けし、かつ基準点に使用するのに適切でない特徴点を画像モダリティ(眼底カメラ像など)ごとにデータベース登録する。優先順位の高い特徴点を数点用いて位置合わせを行う。
(特許文献3)「網膜画像による個人認証方式」、岩崎学園
 また、特許文献3の網膜認証では乳頭部近傍は変動が少ないという前提で、乳頭部を特徴点に設定されがちである。
 また、眼科用の画像処理技術としては、例えば、以下のものがある。
(特許文献4)「眼科用画像処理方法と記憶媒体」、キャノン
 特許文献4では、画像の低周波成分を解析してシェーディング補正を施すことにより、照明条件の相違がある、または照明ムラがある画像どうしで比較照合を可能にする方法が提案されている。
(特許文献5)「眼底画像処理装置」、ニデック
 特許文献5では、乳頭の経時変化解析として、乳頭外縁のディスクラインと血管が陥凹するカップラインの乳頭中心から放射方向の距離比C/D比とR/D比(RはD−Cの幅)を算出する方法を提案している。画像の位置・倍率・角度が整合していなくても、比率で評価すれば不整合による影響を受けない。
特表2007−536272号公報 特開平9−192106号公報 特開2008−206536号公報 特開2003−010131号公報 特開2011−083555号公報
 上記特許文献2では、同一の画像モダリティ(眼底カメラ)で取得された画像同士の重ね合わせが前提となるため、異なるカメラを用いた場合には適用できない。
 また、特許文献3の網膜認証では、基準となる特徴点として乳頭部が設定される可能性が高いが、強度近視など病態によっては、乳頭部の変動が最も大きい場合があり、基準となる特徴点の選択に関する優先順位は固定的でなく、病態の進行とともに変化する場合に、適用しにくいという問題がある。
 また、特許文献4で提案されている手法では、主対象としている白斑の生長度合いの解析は可能であるが、位置・倍率・角度などの幾何学的条件の整合性は高周波成分を用いないと合わせることできないため、眼球血管走行・乳頭形状の経時変動の解析を行うことは難しい。
 特許文献5に記載の技術を強度近視に適用しようとすると、乳頭自体の拡大・縮小・楕円変形が発生することが定性的に知られており、先発明手法では乳頭自体の絶対寸法の変動を解析できないという問題がある。
 強度近視は、20年以上の長期に渡るタイムスパンで病態が徐々に進行するため、眼底カメラ等を用いて長期経過の観察が行われることが望ましい。しかし、次の2つの問題からその実施を困難にしている。
 医師法24条2項によると、「…病院又は診療所に勤務する医師のした診療に関するものは、その病院又は診療所の管理者において、その他の診療に関するものは、その医師において、5年間これを保存しなければならない。」とあり、換言すると、5年を経過したカルテは医療機関から廃棄される可能性が高く、更に医療画像(X線画像、眼底画像等のフィルム媒体)に対しては5年までの保管義務は無く、保管スペースの制約から、大学病院など研究機関を除き、その前段階で廃棄される可能性が高い。
 また、過去20年の間に医療画像はアナログ(フィルム媒体)からデジタル(コンピュータのデータ)に大きく変革を遂げ、撮影技術も年々劇的に進歩しているため、仮に画像が保存されていたとしても、20年前に撮影された画像と現状の画像とを定量的に比較することは困難である。
 先の保存期間の問題に対しては、世界的にカルテの一元化と生涯電子カルテの方向に制度転換がなされようとしているので(EHRと呼ばれ海外先進国では既に稼動している)、それが実現すれば将来的には解決する。
 一方、過去に撮影された眼底画像と比較照合する技術は、医療分野だけでなく特許文献3を筆頭に、IT情報セキュリティ分野におけるバイオメトリックス認証への応用としても研究されてきた。しかし、当分野では原則同一機種のカメラで撮像された比較的年代が近い画像どうしの比較で、本願の分野にそのまま適用できるものではない。また、特開平9−192106「画像重ね合わせ方法」(NTT)のように、過去の眼底カメラ画像と血管像を比較して、動脈硬化の進展度合いなどを調べる方法も提案されているが、集団検診を目的にしているため、同様に比較対照とする過去画像は1・2年前の画像どうしの比較で、本願の分野にそのまま適用できるものではない。
 本発明は、使用されたカメラの機種や撮像条件の異なる眼底画像を整合させ、各種部位の寸法比較等を可能にする画像解析技術を提供することを目的とする。
 本願では、与えられた同一被験者の複数の眼底画像に対して、各々眼底像を大雑把に切り出し、全ての画像サイズを同一にする。そして、最新の画像を基準にして、その他の各画像に対して、倍率補正、角度補正、位置補正の順に線形なアフィン変換を加える。倍率・角度・位置の補正パラメータについては、画面と対話しながら試行錯誤で決定する。この対話作業を支援するため、各眼底画像に対して乳頭・血管パターンなどが鮮明になるようにモノクロ化し、2つの画像を重ね合わせ、画面上で整合性を確認できるようにする。どこを基準に合わせるかは、眼科医等が試行錯誤を重ねながら選択できるようにする。
 本発明の一観点によれば、複数の眼底画像データの中で1つを基準眼底画像データに設定し、前記基準眼底画像以外の各眼底画像データに対して、縦横別の倍率、角度、位置の各補正パラメータを設定し、前記各補正パラメータに基づいて、縦横別の倍率補正、角度補正、位置補正を施し、補正眼底画像データを1点以上作成する眼底画像整合部と、前記基準眼底画像データと前記補正眼底画像データとに対して同じ画像処理を加えてモノクロ画像に変換し、前記基準眼底画像データと選前記補正眼底画像データとを合成したカラー合成画像を作成する合成画像作成部と、前記合成画像作成部で作成されたカラー合成画像に基づいて、前記眼底画像整合部と前記合成画像作成部とにおける整合処理を繰り返すことにより、前記縦横別の倍率、角度、位置の各補正パラメータを眼底画像データごとに決定する補正パラメータ決定部と、決定された前記補正パラメータに基づいて、少なくとも1の補正眼底画像データを作成する補正眼底画像データ作成部と、を有することを特徴とする眼底画像解析装置が提供される。
 さらに、複数の眼底画像の中でアナログ画像からデジタル画像データを作成する画像デジタル化部と、前記各デジタル画像データに対して、眼底に対応する領域をトリミングし、所定の画素数で構成される画像データになるよう縦横同一倍率パラメータで変倍処理を施し、サイズが統一化された眼底画像データに変換する眼底画像前処理部と、を有することが好ましい。
 前記眼底画像前処理部は、前記デジタル画像データを画面に表示し、表示されている画像上で眼底に対応する領域を特定の図形で指示することにより、前記変倍処理の縦横同一倍率パラメータを設定することが好ましい。
 前記眼底画像整合部は、前記基準眼底画像データと前記補正眼底画像データの各々を表示画面に表示させ、眼球の輪郭に略沿うように図形を表示させ、当該図形の領域の大きさが同じになるように調整することで、前記縦横倍率の補正パラメータを設定することが好ましい。
 前記眼底画像整合部は、前記基準眼底画像データと前記補正眼底画像データとのそれぞれを画面に表示させ、表示されている双方の画像上で対応する位置にそれぞれ表示させた第1及び第2の基準線の平行度を同じにするように操作部で回転させる指示をすることにより、前記操作部において回転させた角度を角度の補正パラメータとして設定するようにしていることが好ましい。
 前記眼底画像整合部は、前記基準眼底画像データと前記補正眼底画像データとのそれぞれを画面に表示させ、表示されている双方の画像上で対応する位置にそれぞれ表示させた第1及び第2の基準点が同じ位置になるように操作部で平行移動させる指示をすることにより、前記操作部において移動させた位置を前記位置の補正パラメータとして設定するようにしていることが好ましい。
 上記において、前記合成画像作成部は、RGB3原色の中でいずれか1つまたは2つの原色を選択して、互いに異なる原色セットを2種選択し、選択された原色セットの一方をモノクロ画像に変換された前記基準眼底画像データに割り当て、選択された原色セットの他方をモノクロ画像に変換された前記補正眼底画像データに割り当て、各々の原色セットで着色された前記基準眼底画像データと前記補正眼底画像データとを合成して前記カラー合成画像を作成することが好ましい。
 前記合成画像作成部は、前記所定の画像処理として、グレースケール変換、ネガポジ反転、階調伸張処理を施すことが好ましい。また、前記眼底画像整合部において、倍率補正後に角度補正を行うようにすると良い。
 本発明の他の観点によれば、複数の眼底画像データの中で1つを基準眼底画像データに設定し、前記基準眼底画像以外の各眼底画像データに対して、縦横別の倍率、角度、位置の各補正パラメータを設定し、前記各補正パラメータに基づいて、(縦横別の)倍率補正、角度補正、位置補正を施し、補正眼底画像データを1点以上作成する眼底画像整合ステップと、前記基準眼底画像データと前記補正眼底画像データとに対して同じ画像処理を加えてモノクロ画像に変換し、前記基準眼底画像データと前記補正眼底画像データとを合成したカラー合成画像を作成する合成画像作成ステップと、前記合成画像作成部で作成されたカラー合成画像に基づいて、前記眼底画像整合部と前記合成画像作成部とにおける整合処理を繰り返すことにより、前記縦横別の倍率、角度、位置の各補正パラメータを眼底画像データごとに決定する補正パラメータ決定ステップと、決定された前記補正パラメータに基づいて、少なくとも1の補正眼底画像データを作成する補正眼底画像データ作成ステップと、を有することを特徴とする眼底画像解析方法が提供される。
 本発明は、上記に記載の眼底画像解析方法を、コンピュータに実行させるためのプログラムであっても良く、当該プログラムを記録するコンピュータ読みとり可能な記録媒体でも良い。
 本発明で提案する画像整合手法は、安価な汎用パーソナルコンピュータのソフトウェアで実現することができ、GPUなど特殊なグラフィックスボードの増設も必要としない。また、画像入力系も安価なフィルムスキャナがあれば過去に撮影された各種眼底写真を入力でき、既設の眼底カメラからの画像もそのまま取り込める。また、過去に撮影された画像の撮像条件が不明でも、フィルムや画像データさえ残っていれば、互いに整合させることができる。即ち、本願発明は、大規模なハードウェア設備の投資をすることなく、各種医療機関に散在して保存されている同一患者の眼底写真を用いて、「強度近視」の経時変化解析を実現できる。
 本明細書は本願の優先権の基礎である日本国特許出願2011−226307号の明細書および/または図面に記載される内容を包含する。
 図1は、本発明の一実施の形態による画像解析装置(時系列照合装置)の一構成例を示す機能ブロック図である。
 図2は、本実施の形態による画像解析技術を用いた眼底カメラ画像による時系列画像解析方法の概要を示す図である。
 図3は、全画像のサイズの統一化処理の様子を示す図である。
 図4は、基準画像を最新年代の画像とした場合における、その基準画像を基準に全ての処理対象画像に関する整合処理の流れを示すフローチャート図である。
 図5は、眼底画像整合部による画像の整合処理の詳細を示すフローチャート図であり、2枚の画像の画像データの整合処理の流れを示す図である。
 図6は、画像の整合処理の詳細を示す図であり、眼球全体が画面に表示されており、その倍率補正処理の内容を示す図である。
 図7Aは、倍率補正の対話型処理の一例を示す図である。
 図7Bは、倍率補正の対話型処理の一例を示す図である。
 図8は、図6又は図7A・図7Bの方法で眼球の倍率を整合させた画像A及び画像Cの角度補正処理の内容例を示す図である。
 図9は、角度補正の対話型処理の一例を示す図である。
 図10は、角度補正の対話型処理の一例を示す図である。
 図11は、2画像の整合処理のうち位置補正処理の内容を示す図である。
 図12は、基準画像A’と入力画像2D’について、両者の位置が同じになるように位置補正を行う様子を示す図である。
 図13は、図5のオーバーレイ表示(S3−3−6)の詳細を示す図である。
 図14は、図5のオーバーレイ表示(S3−3−6)の詳細を示す図であり、図13に続く図である。
 図15は、2画像のオーバーレイ表示(ステップS3−3−6)の処理の詳細を示す図である。
 図16は、時系列の眼底写真のサンプル例を示す図である。
 図17は、1989年にフィルムカメラで撮影された写真と2010年の最新画像であり、上が生の写真、下が、2010年の最新画像に基づいて倍率と角度とを補正した写真であり、真ん中の写真がオーバーレイ画像である。
 図18は、2画面眼底カメラ画像の整合処理操作例を示す図であり、倍率と角度(回転)の数値を指定している画面である。
 図19は、2画面眼底カメラ画像の整合処理操作例(2:対話型補正)を示す図であり、左の第1画像が2010年のL画像で、真ん中のオーバーレイ画像では赤色の画像であり、右の第2画像が1989年のL画像で、真ん中のオーバーレイ画像では緑色の画像であり、倍率と角度を補正したことにより、真ん中のオーバーレイ画像での血管まで非常に良く一致させることができており、病変部位の変化の様子の詳細な写真である。
 図20は、2画面眼底カメラ画像の整合処理操作例(3:自動補正)を示す図であり、左右画像に対応する特徴点2カ所に菱形のマーキングを行った様子を示す図である。
 図21は、2画面眼底カメラ画像の整合処理操作例(4)を示す図であり、左右画像に対応する特徴点2カ所に菱形等(十字マーク等でも良い)のマーキングに基づく自動位置補正に様子を示す図である。
 図22は、2画面眼底カメラ画像の整合処理操作例(5)を示す図であり、自動的な位置補正後のオーバーレイ像を表示した図である。
 図23は、整合処理終了後の時系列眼底カメラ画像の例を示す図である。
 図24は、整合化終了後の時系列画像解析例を示す図であり、図23等に基づいて、その患部を拡大した写真を示す図である。
 図25は、制御処理終了後の時系列画像解析例(2)を示す図であり、2010年の画像と1989年の画像とについて、菱形の図形を画定し、菱形を目安に整合させることで、真ん中の画像のように、オーバーレイ像を生成した例を示す図であり、Red画像とGreen画像とを重ね合わせて、病変の時間変化を見た図である。
 以下、本発明の実施の形態による画像解析装置について、眼底写真に基づく強度近視の症状の解析を例にして図面を参照しながら説明を行う。
 まず、眼底画像どうしの比較照合における変動要因として、以下が挙げられる。
(1)被写体自体の変動(強度近視、緑内障などの病態進行)
・眼球の拡大・縮小(強度近視では眼球後部の拡大)
・眼球の回旋(眼軸中心の回転)
・眼球のX軸またはY軸中心の回転:撮影画像の縦横倍率に影響
・眼球血管走行の変動
 動脈硬化による変形、血管分岐点の変動、新生血管の発生
・視神経乳頭の変形
・眼軸長の変化:撮影画像の倍率に影響
(2)カメラ撮影条件の変動
・カメラ機種の相違(アナログ・デジタル方式)
・撮影時の倍率の相違
・撮影時のアングルの相違
・照明光の色温度の変動
 これに対して、例えば眼球血管走行の経時変動を解析したい場合、位置合わせの基準点(変化しない点)をどこに設定するべきかが重要である。
 図1は、本実施の形態による画像解析装置(時系列照合装置)の一構成例を示す機能ブロック図である。図1に示すように、画像解析装置(時系列画像照合装置を含む。)1は、眼底画像をデジタル化する画像デジタル化部3と、眼底画像のトリミングやサイズの統一等を行う眼底画像前処理部5と、基準となる眼底画像と解析対象となる眼底画像との画像を整合する眼底画像整合部7と、整合した画像を合成する合成画像作成部11と、2つの画像を整合させるための補正パラメータを決定する補正パラメータ決定部15と、補正眼底画像データ作成部17と、記憶部(メモリ)19と、を有している。
 この画像解析装置1は、眼底カメラを用いて同じ被験者に対して、時期を変えてカラーまたはモノクロで撮影された複数の眼底画像の経時変化を解析するための眼底画像の時系列照合装置を含む。
 画像デジタル化部3は、複数の眼底画像のうちフィルム媒体で記録されている眼底画像等をデジタル化し、デジタル画像データを作成する。
 眼底画像前処理部5は、各デジタル画像データに対して、眼底に対応する領域をトリミングし、所定の画素数で構成される画像データになるよう縦横同一倍率パラメータで変倍処理を施し、サイズが統一化された眼底画像データに変換する。
 眼底画像整合部7は、デジタル変換された複数の眼底画像データの中で、少なくとも1つを基準眼底画像データに設定し、基準眼底画像以外の各眼底画像データに対して、縦横別の倍率、角度、位置の各補正パラメータを設定し、縦横別の倍率補正、角度補正、位置補正を施し、補正眼底画像データを1点以上作成する。
 合成画像作成部11は、基準眼底画像データおよび1つまたは複数の補正眼底画像データの各々に所定の画像処理を加えてモノクロ画像に変換し、基準眼底画像データと選択された1点の補正眼底画像データとを合成したカラー合成画像を作成する。
 補正パラメータ決定部15は、合成画像作成部11で作成されたカラー合成画像に基づいて、眼底画像整合部7と合成画像作成部11との処理を適宜繰り返し、縦横別の倍率、角度、位置の各補正パラメータを、眼底画像データごとに決定する。
 補正眼底画像データ作成部17は、決定された各補正パラメータに基づいて、1つまたは複数の補正眼底画像データを作成する。
 画像解析装置1は、実際には、処理を行うCPU1aと、処理のアルゴリズムを記述したアプリケーションプログラムと、処理によって得られるパラメータなどのデータ類を格納する記憶部19、画像データ等の入力部21、画像の出力部23などを含む一般的なパーソナルコンピュータ(PC)により実現することができる。また、全ての機能部が必須ではなく、例えば、画像デジタル化部などは、他のスキャナ装置によって代用することが可能であり、入力部21や出力部23も、本体とは別に設けられていても良い。
 図2は、本実施の形態による画像解析技術を用いた眼底カメラ画像による時系列画像解析方法の概要を示す図である。図2に示す画像解析方法では、時系列の複数の眼底写真を準備する。ここで、眼底写真は、アナログフィルム、デジタル画像データ等、が混在していて良い。
 まず、ステップS1において、同じ対象の眼底写真の画像データの中から、フィルム媒体、或いは、媒体に印刷したデジタル画像など(以下、「媒体画像」と称する。)を抽出する。そして、この媒体画像を、画像デジタル化部3が、フィルムスキャナなどを利用して、デジタル画像データに変換する。これにより、全ての画像データを、デジタル画像データにする。
 次いで、ステップS2において、眼底画像前処理部5が、全てのデジタル画像データの、縦サイズを統一する。
 図3は、全画像のサイズの統一化処理の様子を示す図である。まず。左上のスキャニング後の原画像(4823×3784画素)が得られているとする。但し、例えばフィルム写真では、符号Tで示すような、撮影年月日情報等が映っていたりすることがある。そこで、眼底画像前処理部5が、原画像から眼底写真部分以外を除くトリミングを行う。実際には、周辺の部分を除くような処理でも良い。すると、右上のような、トリミング後の画像が得られる(4823×3784画素)。次いで、右下図のように、眼底画像前処理部5が、画像の画素数を統一するため、画像の拡大・縮小処理を行う。ここでは、縦を1024画素に統一している。横の1139という画素数は、縦方向の統一に依存して変化する。横方向に比べて縦方向にはトリミングの対象となるようなノイズが少ないため、縦方向を基準とすることが好ましい。
 次に、ステップS3において、眼底画像整合部7が、例えば最新年代の画像を基準に、同じ対象の眼底写真の例えば全画像の整合処理を行う。最新年代の画像が、技術的にも最も安定していると考えられることから、例として最新年代の画像を基準としたが、安定した画像であれば、それを用いて良い。2以上の画像に基づく整合処理を行うようにしても良い。この処理については、後述する。
 次いで、ステップS4において、補正パラメータ決定部15等が各画像の対応する特徴箇所のパラメータ、長さ、面積、角度(血管、乳頭の径など)を計測し決定する。この処理についても後述する。
 図4は、基準画像を最新年代の画像とした場合における、その基準画像を基準に全ての処理対象画像に関する整合処理の流れを示すフローチャート図である。
 まず、ステップS3−1において、時系列の1、…、N枚の眼底画像データ(画像の縦サイズを統一した後、N枚目を最新画像とする)を準備する。
 次いで、ステップS3−2において、まず、P=1、すなわち、1枚目の画像データを取り出し、ステップS3−3において、眼底画像整合部7が、N枚の眼底画像データとP枚目の眼底画像データとの整合処理を行う。次いで、ステップS3−4において、Pに1をインクリメントし、ステップS3−5において、P<Nを判断し、Noであれば、処理を終了し(End)、Yesであれば、ステップS3−3に戻り、処理を継続する。ステップS3−3においては、整合処理で求めた整合条件パラメータと整合処理後のP枚目の補正(整合後の)画像データを出力部23に出力する。
 図5は、眼底画像整合部7による画像の整合処理(ステップS3−3)の処理の詳細を示すフローチャート図であり、2枚の画像の画像データの整合処理の流れを示す図である。まず、画像デジタル化部3でデジタル化され、眼底画像前処理部5で図2のような前処理が行われた2枚の画像データを用い、眼底画像整合部7が整合処理を行う。まず、2枚の入力画像データを取得し(ステップS3−3−1)、ステップS3−3−2において倍率補正を行う。
 次いで、ステップS3−3−3において、角度補正を行う。ステップS3−3−4において、特徴点2点を指定し、ステップS3−3−5において位置補正を行う。これらのS3−3−2、S3−3−3、S3−3−5の3種の補正の順序は、操作性や補正精度に大きな影響を与えるため、最適な順序で行う必要がある。まず、S3−3−5の位置補正は、どの段階で行っても精度的に顕著な差異は生じないが、操作性の面で最後に行う方が良い。これに対して、S3−3−2とS3−3−3は順序により精度的に顕著な差異が生じる。補正を必要とする要因には、前述した(1)被写体自体の変動と(2)カメラ撮影条件の変動があり、基本的に補正順序は、(2)カメラ撮影条件の変動に対する補正、(1)被写体自体の変動に対する補正の順になる。(2)カメラ撮影条件の変動としては、カメラの倍率と撮影時のアングルの2種があるが、調査の結果が前者の与える影響が顕著であることが判明した。一方、(1)被写体自体の変動としては、眼球の拡大・縮小、眼球の回旋(眼軸中心の回転)、眼球のX軸またはY軸中心の回転がある。眼球の拡大・縮小は強度近視の場合、眼軸方向に後部に拡大が発生するため、倍率や角度には殆ど影響を与えない。また、眼球のX軸またはY軸中心の回転は撮影画像の縦横倍率に影響するが、(2)カメラ撮影条件の変動におけるカメラの倍率に比べると影響は小さい。従って、(1)被写体自体の変動としては、眼球の回旋(眼軸中心の回転)が最も影響が大きい。これらのことから、(2)カメラ撮影条件の変動に対する補正として倍率補正(カメラの倍率に起因)を先に行い、(1)被写体自体の変動に対する補正として角度補正(眼球の回旋に起因)を行う順序とすると、精度の面でも操作性面でも良好な結果が得られる。
 次いで、ステップS3−3−6において、合成画像作成部11が、2枚の画像のオーバーレイ表示を行う。ステップS3−3−7で、整合したか否かを確認し、NoであればステップS3−3−2に戻り、Yesであれば、補正パラメータ決定部15が補正パラメータを決定し、ステップS3−3−8において、整合処理した画像データと、倍率・角度・位置パラメータを出力する。補正された画像は、補正眼底画像データ作成部17により、原画像と補整パラメータ等に基づいて作成することができる。
 図6は、画像の整合処理(ステップS3−3−2)の詳細を示す図であり、眼球全体が画面に表示されており、その倍率補正処理の内容を示す図である。入力画像1(基準画像)(A)の眼球21aの画像と、入力画像2(B)の眼球21bの画像とに基づいて、以下の式を用いて、倍率補正を行う。ここで、例えば、X方向は200%、Y方向は125%などと求まった倍率係数sx、syにより、補正後の入力画像2(C)の眼球21cが示される。このタイミングで、倍率係数sx、syを画像とともにメモリに記憶する。
Figure JPOXMLDOC01-appb-M000001
 倍率補正の他の処理例を示す。図7A及び図7Bは、倍率補正の対話型処理の一例を示す図である。ここで、ソフトウェアとして表示画面上にはXY座標が画定されており、表示画面に図形等を描画すると、その図形の頂点等により図形の位置座標がメモリに記憶されるようになっている。このようなソフトウェアは一般的な図形ソフトにより実現できる。ここで、図7Aの出発画像は、図6と同じである。ここで、画面に表示されている背景23a、23b内に、2つの入力画像(眼球)21a、21bについて、(A’)、(B’)に示すように、画面上で2画像に対応する領域2点を指定する。ここでは、菱形を指定している(A’、B’)。菱形の代わりに、長方形などの矩形の領域を用いることができる。
 画面A’では、楕円形の眼球の輪郭に沿ってテンプレートとして用意されている菱形25aの4つの頂点が輪郭とほぼ一致するように領域をマウスの入力部21により、出力部23のディスプレイ画面上で指定する。画面B’では、同様に、菱形25bのテンプレートが、X方向、Y方向にやや眼球の輪郭より大きめになるように配置して指定する。大きめの寸法を、それぞれ、L1~L4までとする。L1からL4までは、記憶部19に記憶される。ここで、大きめに設定する理由は、後述する角度補正によりX方向またはY方向の寸法に若干の短縮が発生する場合が多いためである。角度が見かけ上、顕著に異なっている場合は、大きめにする度合いを強くした方が照合しやすくなる。
 次いで、図7Bに示すように、菱形25a、25bの各頂点を(X11,Y11)から(X14,Y14)、(X21,Y21)から(X24、Y24)とし、下記の式に基づいて、係数Sx、Syを求める。これにより、倍率補正後のX’、Y’を求めることができる。ここで、入力画像2の(B’)を、(C)のように拡大させて表示させる(眼球の輪郭21b−1)。この図は、図6の整合後の画像21cに相当する。図6の処理との違いは、図6の処理がコンピュータソフトウェアの図形ソフトにより自動的に拡大・縮小するのに対して、図7A・図7Bの処理が、ユーザの画面上での試行錯誤の処理により基準画像に合うように寸法を拡大・縮小する点である。
Figure JPOXMLDOC01-appb-M000002
 この例では、Sx=200%、Sy=125%であり、これらの値を、画像とともに記憶部19に記憶する。
 図8は、図6又は図7A・図7Bの方法で眼球の倍率を整合させた画像A及び画像Cの角度補正処理の内容例を示す図である。画像Aを楕円とすると、画像Aの楕円は、その長軸がx軸に平行に配置されている。一方、画像Cに示す楕円の長軸がx軸と平行でないとすると、角度を整合させる必要がある。そこで、両画像A・Cの長軸の成す角度θを求める。例えば、この例では、θ=20度である。
 そこで、下記の式を用いて、画像Cの角度補正を行い、両画像A・Cの長軸が一致するように画像Cの座標(X’,Y’)を求めることができ、画像Dのように角度補正された画像となる。このθの値も、記憶部19に記憶する。
Figure JPOXMLDOC01-appb-M000003
 角度補正の他の処理例を示す。図9及び図10は、角度補正の対話型処理の一例を示す図である。図9の出発画像Cは、図8と同じである。次いで、画面上で基準画像Aと入力画像Cとについて、2つの画面に対応する2つの図形を入力部21により描画(指定)する。ここで、図9では、L5、L6、L5’、L6’を対角線とする菱形の図形を画面上に指定する例について示しているが、長い方の対角線L5、L5’に相当する直線でも良い。これらの直線L5、L5’を楕円の長軸に合わせるようにマウスで移動させ、基準画像A’と、入力画像2C’とに菱形又は直線を表示・描画する。ここでは、入力画像2C’に指定される直線又は菱形の絶対寸法は角度補正に関係しないので、いかように設定してもよいが、操作上見やすくするために、楕円よりも大きめに指定している。
 次いで、図10に示すように、直線L5と直線L6との交差角を0とするように、菱形の対角座標(X11,Y11)と(X12,Y12)、(X21,Y21)と(X22、Y22)とを調整する。ここでは、例えば、角度の差θが20度であり、X’、Y’を下記の式により求める。求めた値をメモリに記憶させる。
Figure JPOXMLDOC01-appb-M000004
 このようにして、入力画像2について、画像Dに示すように角度補正することで、入力画像1と長軸の角度が同じになる(長軸同士の成す角度は0になる)ように補正する。
 この際、補正後の画像Dの座標値と、補正角度θをメモリに記憶しておく。
 次に、画像の位置補正処理について説明する。図11は、2画像の整合処理のうち位置補正処理の内容を示す図である。
 入力画像1(A)である基準画像に合わせて、入力画像2である比較対象画像Dを位置補正する場合に、まず、画面上で2画像において、対応する特徴点を少なくとも2点指定する。ここでは、楕円形の左端の点(X1,Y1)、(X2,Y2)を指定する(A’,D’)。
 次いで、図12に示すように、基準画像A’と入力画像2D’について、両者の基準点の位置が同じになるように位置補正を行う(逆に、基準点以外の位置は必ずしも同じにならなくても良い)。ここでは、基準画像A’に対して入力画像2D’を、X方向に−43、Y方向に−85することで基準点の位置が一致するため、画像Eのように補正することができる。すなわち、入力画像2D’は、以下の変換式により、位置補正を行うことができる。
Figure JPOXMLDOC01-appb-M000005
 次いで、図13、図14に示すように、図5のオーバーレイ表示(S3−3−6)を行う。図13の、基準画像Aと入力画像2(E)の各々に異なる色で着色しオーバーレイ画像上で色分けして区別できるように描画する(F)。基準画像Aと入力画像2(E)とにおいて、眼球の特徴パターン21aと21b−5とを重ねる処理を行う。尚、図13のFでは、説明を簡単にするため、楕円の輪郭線を重ねているように図示しているが、実際は、図17に示されるように楕円の内部を含む特徴パターンを重ねている。この際、重なり程度が良くわかるように、例えば、前者の画像を赤色、後者の画像を緑色などと視覚的に識別可能な形態で、すなわち、カラー画像で表示すると良い。
 次いで、図14に示すように、重ね合わせ画像Fにおいて、整合性が良いかどうかを、楕円の特徴パターンの一致度に基づいて判定する(ステップS3−3−7)。整合性がOKである場合には、ステップS3−3−8に進み、整合性がNGであれば、例えば、図7Bの倍率補正からやり直す。
 整合性がOKであれば(Yes)、ステップS3−3−8に進み、整合処理した画像データEと、倍率パラメータS・角度パラメータθ・位置パラメータX,Yを出力する。メモリにパラメータを記憶する。これにより、処理が終了する(End)。
 図15は、2画像のオーバーレイ表示(ステップS3−3−6)の処理の詳細を示す図である。画像データ1(基準画像)と画像データ2(入力画像)とを準備する(ステップS21、ステップS31)。次いで、それぞれの画像データについて、グレースケール変換(例えば、G成分の抽出)を行う(ステップS22、S32)。例としては、血管が黒く表示される。
 例えば、画像サイズがXs×Ysで、0~255の値をもつ画像データ1をImage1(x,y,c)、画像データ2をImage2(x,y,c)(x=0.,,,.Xs,y=0,…,Ys,c=0(Red),1(Green),2(Blue))とすると、
グレースケール変換後の画像Gray1(x,y)とGray2(x,y)は、一般に、
Figure JPOXMLDOC01-appb-M000006
 次いで、それぞれのグレースケール変換された画像のネガポジ反転を行う(ステップS23、S33)。ここでは、例えば欠陥を白くするとともに、背景を黒くする。
 ここで、ネガポジ反転後の画像は、
Figure JPOXMLDOC01-appb-M000007
である。
 次いで、ステップS24、S34で、階調伸張変換を行う。これにより、欠陥領域を浮き出させる。ステップS25、S26で、RGBプレーン割り当てを行う。
 ここで、階調伸張変換後の画像は、下記スケーリングを施し、0未満になった場合は0に、255を超えた場合は255にリミットする。
 ただし、
Figure JPOXMLDOC01-appb-M000008
である。
 ステップS25では、RGBプレーン割り当てを行う。ステップS25では、画像データ1に(R)を割り当てる。ステップS35では、画像データ2に、(G)を割り当てる。ステップS26において、画像データ1と画像データ2とを、RGBプレーン合成とフルカラー変換する。次いで、オーバーレイ画像(RGBフルカラー画像)を生成する(ステップS27)。このような画像を後述する図19に示す。
 ここで、0~255の値をもつオーバーレイ画像データをImageS(x,y,c)は、
Figure JPOXMLDOC01-appb-M000009
で表される。
 以下、上記の実施の形態による画像解析技術を用いた実施例について詳細に説明する。
 図16は、時系列の眼底写真のサンプル例を示す図である。例えば、1989年から2010年の20年強の期間にわたって収集された眼底写真が、種々のカメラ(アナログ、デジタル、デジタルでも画質の異なるカメラ)で撮影され、倍率・照明条件も異なる場合には、図16に示すように、照合作業が困難であった。
 図17は、例えば、1989年にフィルムカメラで撮影された写真と2010年の最新画像であり、上が生の写真、下が、2010年の最新画像に基づいて倍率と角度とを補正した写真であり、真ん中の写真がオーバーレイ画像である。補正後にはほぼ同様の写真が得られ、オーバーレイ画像を見ると、ほとんどの部分が一致しており、強度近視による病変部分の変化だけを見ることができることがわかる。
 図18は、2画面眼底カメラ画像の整合処理操作例を示す図であり、倍率53と角度(回転)55の数値を指定している画面である。ここでは、倍率Xを95%、倍率Yを88%とし、XY面での回転を85度とした補正パラメータを指定した様子を示す図である。このように、画面を見ながら、補正パラメータを変更していくことができる。この方法は、図7A・図7Bの処理が、ユーザの画面上での試行錯誤の処理により基準画像に合うように寸法を拡大・縮小する方法の一例を示すものである。
 図19は、2画面眼底カメラ画像の整合処理操作例(2:対話型補正)を示す図であり、左の第1画像が2010年のL画像で、真ん中のオーバーレイ画像では赤色の画像であり、右の第2画像が1989年のL画像で、真ん中のオーバーレイ画像では緑色の画像であり、倍率と角度を補正したことにより、真ん中のオーバーレイ画像での血管まで非常に良く一致させることができており、病変部位の変化の様子を詳細に見ることができることがわかる。このように、対話型補正でも、精度良く補正し、時代の異なる画像を一致させることができる。
 図20は、2画面眼底カメラ画像の整合処理操作例(3:自動補正)を示す図であり、左右画像に対応する特徴点2カ所に菱形のマーキングを行った様子を示す図である。ここでは、乳頭の中の血管の集まった(結果が分岐する)部分を特徴点としている。このような特徴点を基準にすることで、2枚の画像を整合させる処理を簡単に行うことができる。
 図21は、2画面眼底カメラ画像の整合処理操作例(4)を示す図であり、左右画像に対応する特徴点2カ所に菱形等(十字マーク等でも良い)のマーキングに基づく自動位置補正に様子を示す図である。このような特徴点を基準にすることで、2枚の画像を整合させる処理を簡単に行うことができる。この菱形の位置による自動的に位置を補正させることができる。
 図22は、2画面眼底カメラ画像の整合処理操作例(5)を示す図であり、自動的な位置補正後のオーバーレイ像を表示した図である。真ん中のオーバーレイ画像では赤色の画像であり、右の第2画像が1989年のL画像で、真ん中のオーバーレイ画像では緑色の画像であり、倍率と角度を補正したことにより、真ん中のオーバーレイ画像での血管まで非常に良く一致させることができており、病変部位の変化の様子を詳細に見ることができることがわかる。このように、自動補正でも精度良く補正し、時代の異なる画像を一致させることができる。
 図23は、整合処理終了後の時系列眼底カメラ画像の例を示す図である。2010年の画像を基準に1989年から2009年の6点の画像について、アナログからデジタルへの移行があったにもかかわらず、倍率・角度・位置を補正し整合させた結果、眼球が20年間で約3度時計方向に回転(回旋)していることが判明した。
 図24は、整合化終了後の時系列画像解析例を示す図であり、図23等に基づいて、その患部を拡大した写真を示す図である。この図から、当初想定されていた網膜血管走行の変化よりも、乳頭部の形状や乳頭部近傍における血管形状の変化の方が顕著であることが判明した。すなわち、1989年から1999年に乳頭形状が楕円に変形しており、その後、徐々に拡大していることがわかる。このような、微妙な変化を、年代を追って比較することができる。
 図25は、制御処理終了後の時系列画像解析例(2)を示す図であり、2010年の画像と1989年の画像とについて、菱形の図形を画定し、菱形を目安に整合させることで、真ん中の画像のように、オーバーレイ像を生成した例を示す図であり、Red画像とGreen画像とを重ね合わせて、病変の時間変化を見た図である。
 以上のように、異なる条件で撮影した2枚の画像について、前処理(トリミング、デジタル化等)、位置補正・角度補正などを行った後に、整合処理を行い、整合条件パラメータを保存しておく。この整合条件パラメータで補正等を行った後の各画像の対応する特徴箇所(病変部位など)の形態を比較したり、測定したりすることで、強度近視等の眼病の経時的な変化を行うことができる。
 使用されたカメラの機種や撮像条件の異なる眼底画像を整合させることができる。
 上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。上記眼底画像解析方法をコンピュータに実行させるためのプログラム、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。
 本発明は、眼底画像の解析装置に利用することができる。
1…画像解析装置、3…画像デジタル化部、5…眼底画像前処理部、7…眼底画像整合部、11…合成画像作成部、15…補正パラメータ決定部、17…補正眼底画像データ作成部、19…記憶部(メモリ)。
 本明細書で引用した全ての刊行物、特許および特許出願をそのまま参考として本明細書にとり入れるものとする。

Claims (11)

  1.  複数の眼底画像データの中で1つを基準眼底画像データに設定し、前記基準眼底画像以外の各眼底画像データに対して、倍率、角度、位置の各補正パラメータを設定し、前記各補正パラメータに基づいて、倍率補正、角度補正、位置補正を施し、補正眼底画像データを作成する眼底画像整合部と、
     前記基準眼底画像データと前記補正眼底画像データとに対して同じ画像処理を加え、前記基準眼底画像データと前記補正眼底画像データとを合成した合成画像を作成する合成画像作成部と、
     前記合成画像作成部で作成された合成画像に基づいて、前記眼底画像整合部と前記合成画像作成部とにおける整合処理を繰り返すことにより、前記倍率、角度、位置の各補正パラメータを眼底画像データ毎に決定する補正パラメータ決定部と、
     決定された前記補正パラメータに基づいて、少なくとも1の補正眼底画像データを作成する補正眼底画像データ作成部と
    を有することを特徴とする眼底画像解析装置。
  2.  さらに、複数の眼底画像の中でアナログ画像からデジタル画像データを作成する画像デジタル化部と、
     前記各デジタル画像データに対して、眼底に対応する領域をトリミングし、所定の画素数で構成される画像データになるよう縦横同一倍率パラメータで変倍処理を施し、サイズが統一化された眼底画像データに変換する眼底画像前処理部とを有することを特徴とする請求項1に記載の眼底画像解析装置。
  3.  前記眼底画像前処理部は、
     前記デジタル画像データを画面に表示し、表示されている画像上で眼底に対応する領域を特定の図形で指示することにより、前記変倍処理の縦横同一倍率パラメータを設定することを特徴とする請求項2に記載の眼底画像解析装置。
  4.  前記眼底画像整合部は、
     前記基準眼底画像データと前記補正眼底画像データの各々を表示画面に表示させ、眼球の輪郭に略沿うように図形を表示させ、当該図形の領域の大きさが同じになるように調整することで、前記縦横倍率の補正パラメータを設定するようにしていることを特徴とする請求項1から3までのいずれか1項に記載の眼底画像解析装置。
  5.  前記眼底画像整合部は、
     前記基準眼底画像データと前記補正眼底画像データとのそれぞれを画面に表示させ、表示されている双方の画像上で対応する位置にそれぞれ表示させた第1及び第2の基準線の平行度を同じにするように操作部で回転させる指示をすることにより、前記操作部において回転させた角度を角度の補正パラメータとして設定するようにしていることを特徴とする請求項1から3までのいずれか1項に記載の眼底画像解析装置。
  6.  前記眼底画像整合部は、
     前記基準眼底画像データと前記補正眼底画像データとのそれぞれを画面に表示させ、表示されている双方の画像上で対応する位置にそれぞれ表示させた第1及び第2の基準点が同じ位置になるように操作部で平行移動させる指示をすることにより、前記操作部において移動させた位置を前記位置の補正パラメータとして設定するようにしていることを特徴とする請求項1から4までのいずれか1項に記載の眼底画像解析装置。
  7.  前記合成画像作成部は、
     RGB3原色の中でいずれか1つまたは2つの原色を選択して、互いに異なる原色セットを2種選択し、選択された原色セットの一方をモノクロ画像に変換された前記基準眼底画像データに割り当て、選択された原色セットの他方をモノクロ画像に変換されたと前記補正眼底画像データに割り当て、各々の原色セットで着色された前記基準眼底画像データと前記補正眼底画像データとを合成して前記カラー合成画像を作成するようにしていることを特徴とする請求項1から6までのいずれか1項に記載の眼底画像解析装置。
  8.  前記合成画像作成部は、前記所定の画像処理として、グレースケール変換、ネガポジ反転、階調伸張処理を施すことを特徴とする請求項1から7までのいずれか1項に記載の眼底画像解析装置。
  9.  前記眼底画像整合部において、倍率補正後に角度補正を行うことを特徴とする請求項1から8までのいずれか1項に記載の眼底画像解析装置。
  10.  複数の眼底画像データの中で1つを基準眼底画像データに設定し、前記基準眼底画像以外の各眼底画像データに対して、倍率、角度、位置の各補正パラメータを設定し、前記各補正パラメータに基づいて、倍率補正、角度補正、位置補正を施し、補正眼底画像データを作成する眼底画像整合ステップと、
     前記基準眼底画像データと前記補正眼底画像データとに対して同じ画像処理を加えてモノクロ画像に変換し、前記基準眼底画像データと選前記補正眼底画像データとを合成した合成画像を作成する合成画像作成ステップと、
     前記合成画像作成部で作成された合成画像に基づいて、前記眼底画像整合部と前記合成画像作成部とにおける整合処理を繰り返すことにより、前記倍率、角度、位置の各補正パラメータを眼底画像データ毎に決定する補正パラメータ決定ステップと、
     決定された前記補正パラメータに基づいて、少なくとも1の補正眼底画像データを作成する補正眼底画像データ作成ステップと
    を有することを特徴とする眼底画像解析方法。
  11.  請求項10に記載の眼底画像解析方法を、コンピュータに実行させるためのプログラム。
PCT/JP2012/070870 2011-10-14 2012-08-10 眼底画像解析装置、眼底画像解析方法及びプログラム WO2013054590A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011226307A JP6038438B2 (ja) 2011-10-14 2011-10-14 眼底画像解析装置、眼底画像解析方法及びプログラム
JP2011-226307 2011-10-14

Publications (1)

Publication Number Publication Date
WO2013054590A1 true WO2013054590A1 (ja) 2013-04-18

Family

ID=48081650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070870 WO2013054590A1 (ja) 2011-10-14 2012-08-10 眼底画像解析装置、眼底画像解析方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6038438B2 (ja)
WO (1) WO2013054590A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6241091B2 (ja) * 2013-06-27 2017-12-06 株式会社ニデック 画像処理装置および画像処理プログラム
WO2015064545A1 (ja) * 2013-10-29 2015-05-07 株式会社ニデック 眼科観察装置および眼科観察プログラム
JP6481432B2 (ja) * 2015-03-11 2019-03-13 大日本印刷株式会社 眼底画像処理装置
JP6439515B2 (ja) * 2015-03-11 2018-12-19 大日本印刷株式会社 眼底画像処理装置
DE102015208087A1 (de) * 2015-04-30 2016-11-03 Carl Zeiss Microscopy Gmbh Verfahren zum Generieren eines reflektionsreduzierten Kontrastbildes und diesbezügliche Vorrichtungen
WO2019203313A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、及び画像処理装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0357081A (ja) * 1989-07-26 1991-03-12 Canon Inc 画像処理装置
JPH04327831A (ja) * 1991-04-30 1992-11-17 Topcon Corp 眼科用画像処理装置
JPH06331316A (ja) * 1993-05-21 1994-12-02 Canon Inc 3次元計測方法及び画像処理装置
JPH09192106A (ja) * 1996-01-19 1997-07-29 Nippon Telegr & Teleph Corp <Ntt> 画像重ね合わせ方法
JP2007330558A (ja) * 2006-06-15 2007-12-27 Topcon Corp 分光眼底測定装置及びその測定方法
JP2008217493A (ja) * 2007-03-05 2008-09-18 Junji Kurotaki 経時変化記録画像による動画、動画作成用画像データおよびその作成方法
JP2009106532A (ja) * 2007-10-30 2009-05-21 Topcon Corp 眼科情報処理システム及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215108A (ja) * 1992-11-27 1994-08-05 Fuji Photo Film Co Ltd 放射線画像の位置合せ方法
JPH09330405A (ja) * 1996-06-10 1997-12-22 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法
JPH09330414A (ja) * 1996-06-12 1997-12-22 Yoshihiko Nomura 画像マッチング方法およびその装置
JP3548473B2 (ja) * 1999-11-19 2004-07-28 日本電信電話株式会社 眼底画像の動静脈識別方法、記録媒体及び装置
JP3928978B1 (ja) * 2006-09-22 2007-06-13 国立大学法人岐阜大学 医用画像処理装置、医用画像処理方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0357081A (ja) * 1989-07-26 1991-03-12 Canon Inc 画像処理装置
JPH04327831A (ja) * 1991-04-30 1992-11-17 Topcon Corp 眼科用画像処理装置
JPH06331316A (ja) * 1993-05-21 1994-12-02 Canon Inc 3次元計測方法及び画像処理装置
JPH09192106A (ja) * 1996-01-19 1997-07-29 Nippon Telegr & Teleph Corp <Ntt> 画像重ね合わせ方法
JP2007330558A (ja) * 2006-06-15 2007-12-27 Topcon Corp 分光眼底測定装置及びその測定方法
JP2008217493A (ja) * 2007-03-05 2008-09-18 Junji Kurotaki 経時変化記録画像による動画、動画作成用画像データおよびその作成方法
JP2009106532A (ja) * 2007-10-30 2009-05-21 Topcon Corp 眼科情報処理システム及びプログラム

Also Published As

Publication number Publication date
JP2013085583A (ja) 2013-05-13
JP6038438B2 (ja) 2016-12-07

Similar Documents

Publication Publication Date Title
CN110944571B (zh) 用于改进眼科成像的系统和方法
JP6038438B2 (ja) 眼底画像解析装置、眼底画像解析方法及びプログラム
WO2020183799A1 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
US11918424B2 (en) System and method for improved electronic assisted medical procedures
US8194936B2 (en) Optimal registration of multiple deformed images using a physical model of the imaging distortion
JP2020093076A (ja) 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
JP2020166813A (ja) 医用画像処理装置、医用画像処理方法及びプログラム
JP5883816B2 (ja) 顎変形症術後顔貌予測方法及びシステム
WO2020183791A1 (ja) 画像処理装置および画像処理方法
Lee et al. Objective and expert-independent validation of retinal image registration algorithms by a projective imaging distortion model
JP2018020192A (ja) 画像処理システム、処理方法及びプログラム
JP5935146B2 (ja) 眼科疾患の画像解析装置、眼科用画像解析方法及び眼科用画像解析プログラム
US20220409046A1 (en) Ophthalmic imaging apparatus and ophthalmic image processing appratus
JP2019150485A (ja) 画像処理システム、画像処理方法及びプログラム
JP6481432B2 (ja) 眼底画像処理装置
EP4185184A1 (en) Method for determining a coronal position of an eye relative to the head
JP2022062620A (ja) 画像処理装置、画像処理方法及びプログラム
JP2022033290A (ja) 情報処理装置、情報処理方法およびプログラム
CN113674157A (zh) 眼底图像拼接方法、计算机装置和存储介质
JP2017196041A (ja) 眼底画像解析装置、眼底画像解析方法、及びプログラム
US20240180629A1 (en) System and method for improved electronic assisted medical procedures
JP2020069115A (ja) 画像処理装置、画像処理方法およびプログラム
WO2023037658A1 (ja) 眼科装置、眼科装置を制御する方法、眼画像を処理する方法、プログラム、及び記録媒体
WO2021220990A1 (ja) 画像認識装置および画像認識プログラム
EP4194924A1 (en) Slit-lamp microscope

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12839595

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12839595

Country of ref document: EP

Kind code of ref document: A1