ES2531189B2 - Procedure for quantification of ocular opacity of an intraocular lens - Google Patents
Procedure for quantification of ocular opacity of an intraocular lens Download PDFInfo
- Publication number
- ES2531189B2 ES2531189B2 ES201300738A ES201300738A ES2531189B2 ES 2531189 B2 ES2531189 B2 ES 2531189B2 ES 201300738 A ES201300738 A ES 201300738A ES 201300738 A ES201300738 A ES 201300738A ES 2531189 B2 ES2531189 B2 ES 2531189B2
- Authority
- ES
- Spain
- Prior art keywords
- image
- intraocular lens
- procedure
- opacity
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/00736—Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
- A61F9/00754—Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments for cutting or perforating the anterior lens capsule, e.g. capsulotomes
Landscapes
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Prostheses (AREA)
- Eyeglasses (AREA)
- Image Analysis (AREA)
Abstract
Procedimiento de cuantificación de la opacidad ocular de una lente intraocular.#El grado de opacificación de la cápsula posterior se determina, en la mayoría de los casos, de forma subjetiva mediante la valoración de un especialista que observa el estado de la cápsula situada detrás del cristalino y la visión descrita por el mismo paciente. En esta invención se presenta un procedimiento para detectar las células que se pueden generar entre la cápsula posterior (envoltura del cristalino) y una lente intraocular, pudiendo, de esta forma, cuantificar la opacificación producida. Este procedimiento de cuantificación del grado de opacidad en la lente intraocular incorpora varias etapas que dotan de un elevado grado de automatismo al procedimiento: se detecta automáticamente el área de interés, se detectan zonas que pueden falsear el análisis para no incluirlas en la cuantificación, se detectan las células consecuencia de la opacidad en la lente y, finalmente, se cuantifica la superficie de la lente que presenta un problema de opacidad.Procedure for quantifying the ocular opacity of an intraocular lens. # The degree of opacification of the posterior capsule is determined, in most cases, subjectively by the assessment of a specialist who observes the state of the capsule behind the lens and vision described by the same patient. In this invention a method is presented to detect the cells that can be generated between the posterior capsule (lens wrap) and an intraocular lens, thus being able to quantify the opacification produced. This procedure for quantifying the degree of opacity in the intraocular lens incorporates several stages that provide a high degree of automatism to the procedure: the area of interest is automatically detected, areas that can falsify the analysis are detected so as not to include them in the quantification, the cells are detected as a consequence of the opacity in the lens and, finally, the surface of the lens that presents an opacity problem is quantified.
Description
55
1010
15fifteen
20twenty
2525
3030
3535
DESCRIPCIONDESCRIPTION
PROCEDIMIENTO DE CUANTIFICACION DE LA OPACIDAD OCULAR DE UNAQUANTIFICATION PROCEDURE OF THE OCULAR OPACITY OF A
LENTE INTRAOCULARINTRAOCULAR LENS
CAMPO DE LA INVENCIONFIELD OF THE INVENTION
La presente invencion se refiere a un procedimiento de cuantificacion del grado de opacidad ocular de una lente intraocular. El procedimiento propuesto para la cuantificacion esta formado por varias etapas que se aplican a una imagen de la zona ocular donde pueda existir opacidad.The present invention relates to a method of quantifying the degree of ocular opacity of an intraocular lens. The proposed procedure for quantification is formed by several stages that are applied to an image of the ocular area where opacity may exist.
ESTADO DE LA TECNICA ANTERIORSTATE OF THE PREVIOUS TECHNIQUE
La invencion aborda un problema importante en el ambito de la oftalmologfa ya que la determinacion del grado de opacidad de una lente intraocular en la capsula posterior puede conllevar la necesidad de una cirugfa para intercambiar la lente por otra nueva. Si la lente se intercambia con un grado de opacidad bajo, puede estar sometiendose al paciente a una cirugfa innecesaria. En cambio, si el grado de opacidad es alto y no se sustituye la lente, el paciente vera reducida su vision como consecuencia de esta opacidad. Por tanto, la cuantificacion de forma objetiva del grado de opacidad en una lente intraocular, es un aspecto sumamente importante relacionado con la calidad de vision de un paciente con una lente intraocular.The invention addresses an important problem in the field of ophthalmology since the determination of the degree of opacity of an intraocular lens in the posterior capsule may lead to the need for surgery to exchange the lens for a new one. If the lens is exchanged with a low degree of opacity, the patient may be undergoing unnecessary surgery. On the other hand, if the degree of opacity is high and the lens is not replaced, the patient will see his vision reduced as a result of this opacity. Therefore, objectively quantifying the degree of opacity in an intraocular lens is an extremely important aspect related to the quality of vision of a patient with an intraocular lens.
El problema de la cuantificacion de la opacidad de la capsula posterior se ha abordado en distintos trabajos aplicando diferentes tecnicas computacionales. Entre dichos trabajos o estudios, se encuentran soluciones como la que se plantea en [M. R. Tetz, G. U. Auffarth, M. Sperker, M. Blum and H. E.Volcker. Photographic image analysis system of posterior capsule opacification. Journal of cataract and refractive surgery, Vol 23, Edition 10, 1997, pp 1515-1520], una solucion comercial que calcula el grado de opacificacion teniendo en cuenta los distintos grados de opacidad existentes. Otro sistema similar al anterior y que se utiliza para obtener el grado de opacificacion es el que se presenta en [L. Bender, D. J. Spalton, B. Uyanonvara, J. Boyce, C. Heatley, R. Jose and J. Khan, “POCOman: New system for quantifying posterior capsule opacification”. Journal of Cataract and Refractive Surgery, Vol 30, Edition 10, 2004, pp 2058 - 2063]. En ambos sistemas es necesario una interaccion con el especialista para que este dirija la deteccion de las zonas de opacificacion, pudiendose perder objetividad en la cuantificacion. El procedimiento que se propone en esta invencion es totalmente automatico proporcionando una cuantificacionThe problem of quantification of the opacity of the posterior capsule has been addressed in different works by applying different computational techniques. Among these works or studies, there are solutions such as the one proposed in [M. R. Tetz, G. U. Auffarth, M. Sperker, M. Blum and H. E. Volcker. Photographic image analysis system of posterior capsule opacification. Journal of cataract and refractive surgery, Vol 23, Edition 10, 1997, pp 1515-1520], a commercial solution that calculates the degree of opacification taking into account the different degrees of opacity that exist. Another system similar to the previous one and that is used to obtain the degree of opacification is the one presented in [L. Bender, D. J. Spalton, B. Uyanonvara, J. Boyce, C. Heatley, R. Jose and J. Khan, “POCOman: New system for quantifying posterior capsule opacification”. Journal of Cataract and Refractive Surgery, Vol 30, Edition 10, 2004, pp 2058-2063]. In both systems an interaction with the specialist is necessary so that it directs the detection of the opacification zones, being able to lose objectivity in the quantification. The procedure proposed in this invention is fully automatic providing a quantification.
55
1010
15fifteen
20twenty
2525
3030
3535
totalmente objetiva, con independencia del especialista.totally objective, regardless of the specialist.
Hay otros proyectos relacionados como [Huiqi Li; Joo Hwee Lim; Jiang Liu; Wong, D. W K; Yongfeng Foo; Ying Sun; Tien Yin Wong, "Automatic detection of posterior subcapsular cataract opacity for cataract screening," Engineering in Medicine and Biology Society (EMBC), 2010 Annual International Conference of the IEEE , vol., no., pp.5359,5362, Aug. 31 2010-Sept. 4 2010], donde el sistema es automatico pero detecta opacidad en el cristalino (origen de las cataratas) utilizando caracterfsticas como iluminacion, localizacion o tamano de la catarata. La diferencia fundamental con la opacidad procedente de una lente intraocular es que en esta ultima crecen celulas y estas son las que se deben detectar, no areas como en el caso de las cataratas.There are other related projects like [Huiqi Li; Joo Hwee Lim; Jiang Liu; Wong, D. W K; Yongfeng Foo; Ying Sun; Tien Yin Wong, "Automatic detection of posterior subcapsular cataract opacity for cataract screening," Engineering in Medicine and Biology Society (EMBC), 2010 Annual International Conference of the IEEE, vol., No., Pp. 5359,5362, Aug. 31 2010-Sept. 4 2010], where the system is automatic but detects opacity in the lens (origin of the cataracts) using characteristics such as lighting, location or size of the cataract. The fundamental difference with the opacity from an intraocular lens is that in the latter cells grow and these are the ones that should be detected, not areas as in the case of cataracts.
Existen otros trabajos que dotan de mayor automatismo a la evaluacion de la opacidad en la capsula posterior. En [N. Werghi, R. Sammouda and F. AlKirbi, “An unsupervised learning approach based on a hopfield-like network for assessing posterior capsule opacification”. Pattern Analysis and Applications, Vol 13, 2010, pp 383-396] se muestra un metodo basado en aprendizaje no supervisado mediante la red neuronal de Hopfield para dividir el espacio a analizar en regiones segun el color que presente cada uno de los pfxeles pertenecientes a la misma. El grado de opacidad se determina a partir del numero de regiones encontradas, siendo este numero de regiones directamente proporcional al grado de opacificacion, asf se divide la imagen en grupos de pfxeles dependiendo de la rugosidad que se genera en la superficie de la lente intraocular. La extraccion del numero de regiones involucra una etapa de pre-procesamiento de la imagen donde se calcula una parte circular en el centro de la lente intraocular, la cual sera la zona a analizar. Se implementa un algoritmo para clasificar los pfxeles dependiendo de su color y formar agrupaciones, a partir de los cuales se calcula el numero de regiones mencionado. El metodo que utiliza para agrupar los pfxeles es una tecnica de clustering estandar K- means, que trabaja con regiones o conjuntos de pixeles.There are other works that provide greater automation to the evaluation of opacity in the posterior capsule. In [N. Werghi, R. Sammouda and F. AlKirbi, “An unsupervised learning approach based on a hopfield-like network for assessing posterior capsule opacification”. Pattern Analysis and Applications, Vol 13, 2010, pp 383-396] shows a method based on unsupervised learning through the Hopfield neural network to divide the space to be analyzed in regions according to the color that each of the pixels belonging to the same. The degree of opacity is determined from the number of regions found, this number of regions being directly proportional to the degree of opacification, thus dividing the image into groups of pixels depending on the roughness that is generated on the surface of the intraocular lens. The extraction of the number of regions involves a stage of preprocessing of the image where a circular part in the center of the intraocular lens is calculated, which will be the area to be analyzed. An algorithm is implemented to classify the pixels depending on their color and form clusters, from which the number of regions mentioned is calculated. The method used to group pixels is a standard K-means clustering technique, which works with regions or sets of pixels.
En [M. Pourshahabi, H. Pourreza, O. Findl, R. Daneshvar and W. Buehl, “CPCO: Contourlet Based PCO Quantification System”. IEEE International Conference of Soft Computing and Pattern Recognition, Malacca, 2009, pp 409-413] se expone la resolucion del problema de cuantificacion de la opacidad de la capsula posterior utilizando la transformada de Contourket. Para determinar la region de interes, esto es, el area perteneciente a la capsula posterior, se aplica una transformacion del espacio de color a la imagen, del sistema RGB al sistema YCbCr. La imagen resultante se convierte en unaIn [M. Pourshahabi, H. Pourreza, O. Findl, R. Daneshvar and W. Buehl, “CPCO: Contourlet Based PCO Quantification System”. IEEE International Conference of Soft Computing and Pattern Recognition, Malacca, 2009, pp 409-413] describes the resolution of the problem of quantification of the opacity of the posterior capsule using the Contourket transform. To determine the region of interest, that is, the area belonging to the posterior capsule, a transformation of the color space is applied to the image, from the RGB system to the YCbCr system. The resulting image becomes a
55
1010
15fifteen
20twenty
2525
3030
3535
imagen binaria aplicando el metodo de Otsu y teniendo en cuenta la componente Cr. De esta forma, se obtiene el area de la capsula posterior donde se encuentra la lente. La transformada de Contourlet se utiliza para hallar los contornos y la extraccion de caracterfsticas. La imagen se divide en 64 regiones iguales donde se obtiene el vector de caracterfsticas para cada una de ellas. Este vector de caracterfsticas se utiliza para clasificar la imagen en uno de los cuatro grados de opacificacion de la capsula posterior que se determinan. Cada uno de estos vectores se compara con una base de datos entrenada previamente calculando la distancia Euclfdea. Para establecer el grado final de opacificacion en toda el area se asigna un coeficiente a cada una de las 64 regiones indicadas anteriormente, realizando una media ponderada.Binary image applying the Otsu method and taking into account the Cr component. In this way, the area of the posterior capsule where the lens is located is obtained. The Contourlet transform is used to find the contours and feature extraction. The image is divided into 64 equal regions where the feature vector is obtained for each of them. This feature vector is used to classify the image into one of the four degrees of opacification of the posterior capsule that are determined. Each of these vectors is compared to a previously trained database by calculating the Euclfdea distance. To establish the final degree of opacification in the entire area, a coefficient is assigned to each of the 64 regions indicated above, with a weighted average.
Resulta conveniente a la luz de lo anteriormente expuesto, buscar un procedimiento que facilite a los especialistas una cuantificacion objetiva del grado de opacidad ocular que pueden presentar las lentes intraoculares. Un alto nivel de automatismo se hace imprescindible para conseguir la minima interaccion con el especialista y, de esta forma, lograr reducir la subjetividad.It is convenient in the light of the above, to look for a procedure that facilitates specialists an objective quantification of the degree of ocular opacity that intraocular lenses can present. A high level of automatism is essential to achieve the minimum interaction with the specialist and, in this way, reduce subjectivity.
EXPLICACION DE LA INVENCIONEXPLANATION OF THE INVENTION
La presente invencion permite superar inconvenientes en los aspectos que se enumeran a continuacion:The present invention allows to overcome inconveniences in the aspects listed below:
• Subjetividad en los criterios de valoracion de la opacidad.• Subjectivity in the opacity assessment criteria.
• Exactitud en el area de la lente que sufre opacidad al trabajar con elementos mfnimos (v.g. celulas) en lugar de regiones de mayor tamano.• Accuracy in the area of the lens that suffers opacity when working with minimal elements (e.g. cells) instead of larger regions.
• Incorporacion en el tratamiento de elementos externos a la causa de la opacidad que pueden condicionar el resultado final (v.g. brillos).• Incorporation in the treatment of external elements to the cause of the opacity that can condition the final result (eg brightness).
• Problemas en la precision de los metodos de cuantificacion al utilizar un unico metodo que puede ser muy apropiado para un tipo de imagenes pero poco apropiado para otro tipo.• Problems in the precision of quantification methods when using a single method that may be very appropriate for one type of image but not appropriate for another type.
Las ventajas que incorpora el procedimiento de cuantificacion de la opacidad de la capsula posterior que aquf se presenta son varias. En primer lugar se trata de un procedimiento integral que permite analizar cualquier tipo de imagen ya que es el propio procedimiento el que selecciona de manera automatica la region de interes y los pfxeles que van a ser analizados, ademas de incorporar tratamiento de elementos externos que pueden condicionar el resultado final. Por otro lado, se analiza directamente el origen de la opacidad en la lente intraocular, es decir, las celulas que crecen en la lente, mejorandoThe advantages of the opacity quantification procedure of the posterior capsule presented here are several. In the first place it is an integral procedure that allows to analyze any type of image since it is the procedure itself that automatically selects the region of interest and the pixels that are going to be analyzed, in addition to incorporating treatment of external elements that can condition the final result. On the other hand, the origin of the opacity in the intraocular lens is analyzed directly, that is, the cells that grow in the lens, improving
55
1010
15fifteen
20twenty
2525
3030
3535
de este modo la precision. Finalmente, se ofrece, siempre de forma automatica y sin interaccion con el especialista, superando el problema de la subjetividad, una cuantificacion del grado de opacidad distribuida por sectores, para que sea el especialista el que evalue si es necesario un tratamiento.in this way the precision. Finally, it is offered, always automatically and without interaction with the specialist, overcoming the problem of subjectivity, a quantification of the degree of opacity distributed by sectors, so that it is the specialist who evaluates if a treatment is necessary.
El procedimiento propuesto comprende tres etapas principales, que a partir de la imagen original a analizar obtiene el porcentaje de superficie ocupada distribuido por sectores.The proposed procedure comprises three main stages, which, from the original image to be analyzed, obtains the percentage of occupied area distributed by sectors.
La primera etapa consiste en el calculo del contorno de la lente intraocular para, de esta forma, seleccionar el area de la imagen en la que se va a trabajar. La restriccion de la region de interes a aquella que queda englobada por el contorno de la lente intraocular viene impuesta porque el crecimiento de las celulas que van a dificultar la vision se va a restringir al area ocupada por la lente. Con el objetivo de minimizar la interaccion con el usuario, se detecta de forma automatica el contorno de la lente, utilizando para ello la transformada de Hough para circunferencias. Para disminuir el coste computacional de esta transformada, se utiliza la transformada rapida de Hough para circunferencias.The first stage consists in the calculation of the contour of the intraocular lens to, in this way, select the area of the image in which it will work. The restriction of the region of interest to that which is encompassed by the contour of the intraocular lens is imposed because the growth of the cells that will make vision difficult is going to be restricted to the area occupied by the lens. In order to minimize interaction with the user, the lens contour is automatically detected, using the Hough transform for circumferences. To decrease the computational cost of this transform, Hough's fast transform is used for circumferences.
Una vez acotada el area de trabajo se procede a la segunda etapa con la deteccion de artefactos indeseados procedentes de la captura de la imagen. La mayorfa de artefactos son diffciles de eliminar y, si se eliminan, se corre el riesgo de introducir informacion no presente en la imagen original que puede alterar la cuantificacion final. Por tanto, con esta etapa, se pretende localizar las zonas con artefactos en la imagen para no considerar en las etapas siguientes los pfxeles que formen parte de estas zonas no deseables. En esta etapa se utilizan tres tecnicas combinadas para la deteccion de los pfxeles que no van a ser analizados. Las tres tecnicas utilizadas son la aplicacion del metodo de Otsu a la imagen en escala de grises, la aplicacion del metodo de Otsu a la imagen transformada al modelo de color HSV y una umbralizacion de las componentes S y V en el modelo HSV.Once the work area is limited, the second stage is carried out with the detection of unwanted artifacts from the image capture. Most artifacts are difficult to remove and, if removed, you run the risk of entering information not present in the original image that may alter the final quantification. Therefore, with this stage, it is intended to locate the areas with artifacts in the image so as not to consider in the following stages the pixels that are part of these undesirable areas. In this stage three combined techniques are used for the detection of pixels that are not going to be analyzed. The three techniques used are the application of the Otsu method to the grayscale image, the application of the Otsu method to the image transformed to the HSV color model and a thresholding of the S and V components in the HSV model.
La tercera etapa, dedicada a la deteccion y cuantificacion de capsulorrexis o capsulorresis, consiste en detectar el contorno de las celulas de la lente causantes de la opacificacion. Para esta operacion se utilizan diferentes tecnicas para la deteccion de bordes que buscan aquellos puntos donde se produce una variacion de la intensidad. En el procedimiento propuesto se aplican tanto tecnicas de gradiente (por ejemplo el operador de Sobel y el operador de Prewitt) como operadores de segundo orden o laplacianos (por ejemplo, operador Canny, operador LoG-Laplacian of Gaussian). UnaThe third stage, dedicated to the detection and quantification of capsulorhexis or capsulorresis, consists in detecting the contour of the lens cells causing opacification. For this operation different techniques are used for the detection of edges that look for those points where a variation in intensity occurs. In the proposed procedure both gradient techniques (for example the Sobel operator and the Prewitt operator) and second-order or Laplacian operators (for example, Canny operator, LoG-Laplacian of Gaussian operator) are applied. A
55
1010
15fifteen
20twenty
2525
3030
3535
vez obtenidos los contornos de las celulas se procede a su relleno para poder cuantificar el area ocupada por las celulas. Para realizar este relleno se aplican diferentes operadores morfologicos combinados con la transformada de Hough.Once the contours of the cells are obtained, they are filled in to quantify the area occupied by the cells. To perform this filling, different morphological operators combined with the Hough transform are applied.
Finalmente, para proporcionar al especialista una cuantificacion de la opacidad que pueda interpretar, se divide el area analizada en regiones concentricas y se calcula el porcentaje de ocupacion de la superficie.Finally, to provide the specialist with a quantification of the opacity that can be interpreted, the analyzed area is divided into concentric regions and the percentage of surface occupation is calculated.
Resumiendo, la presente invencion se refiere por tanto a un procedimiento para cuantificar el grado de opacidad de una lente intraocular a partir de una imagen de la capsula posterior, analizando la superficie ocupada por celulas que hayan crecido sobre una lente intraocular.In summary, the present invention therefore relates to a method for quantifying the degree of opacity of an intraocular lens from an image of the posterior capsule, analyzing the surface occupied by cells that have grown on an intraocular lens.
BREVE DESCRIPCION DE LAS FIGURASBRIEF DESCRIPTION OF THE FIGURES
FIGURA 1: Diagrama de flujo del procedimiento de la invencion. Representa las etapas del procedimiento para mostrar los resultados de la cuantificacion de la opacificacion de la capsula posterior ante una entrada de datos.FIGURE 1: Flow chart of the process of the invention. It represents the steps of the procedure to show the results of the quantification of the opacification of the posterior capsule before a data entry.
FIGURA 2: Diagrama de flujo de la etapa correspondiente al calculo del contorno de la lente intraocular.FIGURE 2: Flow chart of the stage corresponding to the calculation of the contour of the intraocular lens.
FIGURA 3: Diagrama de flujo de la etapa correspondiente a la deteccion de artefactos indeseados.FIGURE 3: Flow chart of the stage corresponding to the detection of unwanted artifacts.
FIGURA 4: Diagrama de flujo de la etapa de deteccion y cuantificacion, capsulorrexis que calcula los pfxeles de la imagen que pertenecen a la zona afectada de la capsula posterior donde se encuentra la lente intraocular.FIGURE 4: Flow chart of the detection and quantification stage, capsulorhexis that calculates the image pixels that belong to the affected area of the posterior capsule where the intraocular lens is located.
EXPOSICION DETALLADA DE MODOS DE REALIZACIONDETAILED EXHIBITION OF MODES OF EMBODIMENT
La invencion hace referencia a un procedimiento que obtiene el porcentaje de opacificacion de la capsula posterior a partir de la combinacion de diferentes tecnicas de procesamiento de imagenes sobre una muestra. Esta muestra se referencia como una imagen proporcionada por una camara digital de aumento donde debe aparecer el fondo de ojo con la lente intraocular situada en la capsula posterior del ojo.The invention refers to a procedure that obtains the percentage of opacification of the posterior capsule from the combination of different image processing techniques on a sample. This sample is referred to as an image provided by a digital magnifying camera where the fundus should appear with the intraocular lens located in the posterior capsule of the eye.
55
1010
15fifteen
20twenty
2525
3030
3535
Como se ha dicho anteriormente, el procedimiento propuesto esta formado por tres etapas principales, recibe la imagen a analizar y genera el porcentaje de superficie ocupada distribuido por sectores.As mentioned above, the proposed procedure is formed by three main stages, receives the image to be analyzed and generates the percentage of occupied area distributed by sectors.
La primera etapa utilizada tiene como objetivo el calculo del contorno de la lente intraocular 1 automaticamente. Para ello, a partir de la imagen original 100 se obtiene otra imagen con la transformacion en escala de grises 4 de la original. A continuacion se realiza una umbralizacion mediante Otsu 5 y se aplica el detector de bordes de Sobel 6, con el que se obtiene una imagen binaria. A esta imagen binaria se le aplica la transformada de Hough 7 para circunferencias. Para disminuir el coste computacional de esta transformada, se utiliza la transformada rapida de Hough para circunferencias. A la transformada de Hough se le indica la minima distancia entre circunferencias para que se consideren diferentes, los radios entre los que queremos que se realice la busqueda, entre otros. Se utiliza un sistema de votacion y de todas las circunferencias que se obtienen mediante esta transformada, se obtiene aquella que mas votos ha obtenido. Con este calculo se crea una mascara que permite obviar calculos en areas que no pertenecen a la zona a analizar, la zona donde se encuentra la lente intraocular, obteniendo una imagen con el contorno de la lente intraocular definido 101.The first stage used is to calculate the contour of the intraocular lens 1 automatically. To do this, from the original image 100 another image is obtained with the grayscale transformation 4 of the original. Subsequently, a thresholding is performed using Otsu 5 and the Sobel 6 edge detector is applied, with which a binary image is obtained. The Hough 7 transform for circumferences is applied to this binary image. To decrease the computational cost of this transform, Hough's fast transform is used for circumferences. The Hough transform is indicated the minimum distance between circumferences to be considered different, the radii between which we want the search, among others. A voting system is used and of all the circumferences that are obtained through this transform, the one with the most votes has been obtained. With this calculation, a mask is created that allows to obviate calculations in areas that do not belong to the area to be analyzed, the area where the intraocular lens is located, obtaining an image with the contour of the defined intraocular lens 101.
Despues de acotar el area de trabajo, se procede a la segunda etapa con la deteccion de artefactos indeseados 2 procedentes de la captura de la imagen (por ejemplo, brillos como consecuencia del uso del flash). Debido a la forma de obtener las muestras, es posible encontrar areas de la imagen con determinados brillos que se consideran un artefacto indeseado y que obstaculiza el calculo final. Para detectar los pfxeles referentes a dichas zonas se lleva a cabo una etapa para deteccion de artefactos indeseados 2 y para ello se combinan tres tecnicas: dos transformaciones y una umbralizacion. En primer lugar se realizan dos transformaciones a la imagen original 100: transformacion en escala de grises 8 y transformacion al modelo de color HSV 9. Con la transformacion en escala de grises 8 se aplica una umbralizacion segun el metodo de Otsu 10 para obtener un umbral que determina cuando los pfxeles se consideran pertenecientes a areas de artefactos indeseados y cuando no. Con la transformacion al modelo de color HSV 9 se aplica una umbralizacion segun el metodo de Otsu con la componente H 11 por una parte, y se realiza una umbralizacion mediante la combinacion 12 de las componentes S y V. Tras la obtencion de estos tres resultados parciales correspondientes a imagenes binarias, se aplica una ponderacion 13 sobre cada una, en funcion de la precision deAfter limiting the work area, the second stage is carried out with the detection of unwanted artifacts 2 from the image capture (for example, brightness as a result of the use of the flash). Due to the way of obtaining the samples, it is possible to find areas of the image with certain brightness that are considered an unwanted artifact and that hinders the final calculation. In order to detect the pixels referring to said zones, a stage for detecting unwanted artifacts 2 is carried out and for this, three techniques are combined: two transformations and a thresholding. First, two transformations are made to the original image 100: transformation in grayscale 8 and transformation to the HSV 9 color model. With the grayscale transformation 8 a thresholding is applied according to the Otsu 10 method to obtain a threshold which determines when pixels are considered to belong to areas of unwanted artifacts and when not. With the transformation to the HSV 9 color model, a thresholding is applied according to the Otsu method with the H 11 component on the one hand, and a thresholding is performed by combining 12 of the components S and V. After obtaining these three results corresponding to binary images, a weighting 13 is applied to each one, depending on the accuracy of
55
1010
15fifteen
20twenty
2525
3030
3535
cada tecnica, para obtener como resultado otra imagen binaria con artefactos detectados 102, donde se refleja el conjunto de pfxeles que pertenecen al area de flash.each technique, to obtain as a result another binary image with detected artifacts 102, where the set of pixels belonging to the flash area is reflected.
La tercera etapa que se realiza es la deteccion y cuantificacion de capsulorrexis 3. En este paso se aplica de nuevo una umbralizacion segun el metodo de Otsu 14, pero teniendo en cuenta el calculo anterior de los pfxeles que pertenecen a areas donde aparecen artefactos indeseados. De esta forma, el nuevo umbral calculado se utiliza para la aplicacion de diferentes metodos de deteccion de bordes. Entre los metodos utilizados para este fin se encuentran el metodo de Canny 15, el calculo de la Laplaciana sobre la Gaussiana 16, el metodo de Sobel 17, el metodo de Prewitt 18 y la aplicacion del filtro Gaussiano isotropico 19. Una vez se han detectado dichos bordes y se han obtenido las imagenes binarias correspondientes como resultados parciales, se realiza una ponderacion 20 dependiendo de la precision de cada gradiente, y cada pixel sera considerado borde si supera un determinado porcentaje en la ponderacion. Asf, se obtendra como resultado una imagen binaria donde se resaltan los contornos de las celulas que provocan opacificacion. Despues, tras obtener la imagen binaria con los bordes detectados, se aplican operadores morfologicos 21 para definir las celulas. Primero se aplica la operacion de cierre y, posteriormente, la operacion de dilatacion para rellenar celulas pequenas (pequenos agujeros y bahfas). Por otra parte, se aplica de nuevo la transformada de Hough 22 teniendo en cuenta los pfxeles que no pertenecen a artefactos indeseados. En este caso, la transformada de Hough calcula aquellas circunferencias que superan un determinado porcentaje de probabilidad de ser circunferencia. Se determina un rango de radios pequenos para la deteccion de las circunferencias en relacion al tamano de la imagen. El objetivo de aplicar esta transformada es la combinacion 23 del resultado obtenido por dicha transformada con el resultado obtenido al aplicar los operadores morfologicos, y asf aquellos pfxeles, marcados en la dilatacion como zona afectada, que no queden dentro de ninguna circunferencia seran descartados como parte de la zona afectada.The third stage that is performed is the detection and quantification of capsulorhexis 3. In this step a thresholding is again applied according to the method of Otsu 14, but taking into account the previous calculation of the pixels that belong to areas where unwanted artifacts appear. In this way, the new calculated threshold is used for the application of different edge detection methods. Among the methods used for this purpose are the Canny 15 method, the calculation of the Laplacian on the Gaussian 16, the Sobel 17 method, the Prewitt 18 method and the application of the isotropic Gaussian filter 19. Once they have been detected said edges and the corresponding binary images have been obtained as partial results, a weighting 20 is made depending on the accuracy of each gradient, and each pixel will be considered an edge if it exceeds a certain percentage in the weighting. Thus, a binary image will be obtained where the contours of the cells that cause opacification are highlighted. Then, after obtaining the binary image with the detected edges, morphological operators 21 are applied to define the cells. First, the closing operation is applied and then the expansion operation to fill small cells (small holes and bays). On the other hand, the Hough 22 transform is applied again taking into account pixels that do not belong to unwanted artifacts. In this case, the Hough transform calculates those circumferences that exceed a certain percentage of probability of being a circumference. A range of small radii is determined for the detection of the circumferences in relation to the size of the image. The objective of applying this transform is the combination 23 of the result obtained by said transformation with the result obtained by applying the morphological operators, and thus those pixels, marked in the dilatation as an affected area, that are not within any circumference will be discarded as part of the affected area.
La ultima etapa es calcular el porcentaje del area afectada 25. Para ello, teniendo en cuenta el contorno de la lente intraocular calculado al principio, que determina la localizacion de la misma, se realiza una division en circunferencias concentricas de esa area 24. Para cada una de las areas calculadas, se realiza una cuantificacion de los pfxeles detectados como parte de la opacificacion y se establece una relacion entre estos y el total de todos los pfxeles que forman el area para obtener el porcentaje de opacidad final 103.The last stage is to calculate the percentage of the affected area 25. To do this, taking into account the contour of the intraocular lens calculated at the beginning, which determines its location, a division into concentric circumferences of that area is made 24. For each One of the calculated areas, a quantification of the pixels detected as part of the opacification is performed and a relationship is established between them and the total of all pixels that form the area to obtain the final opacity percentage 103.
Claims (6)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201300738A ES2531189B2 (en) | 2013-08-05 | 2013-08-05 | Procedure for quantification of ocular opacity of an intraocular lens |
PCT/ES2014/070601 WO2015018958A1 (en) | 2013-08-05 | 2014-07-24 | Method for quantifying the ocular opacity of the rear capsule |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201300738A ES2531189B2 (en) | 2013-08-05 | 2013-08-05 | Procedure for quantification of ocular opacity of an intraocular lens |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2531189A1 ES2531189A1 (en) | 2015-03-11 |
ES2531189B2 true ES2531189B2 (en) | 2015-12-18 |
Family
ID=52460707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201300738A Active ES2531189B2 (en) | 2013-08-05 | 2013-08-05 | Procedure for quantification of ocular opacity of an intraocular lens |
Country Status (2)
Country | Link |
---|---|
ES (1) | ES2531189B2 (en) |
WO (1) | WO2015018958A1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5608472A (en) * | 1992-11-06 | 1997-03-04 | Research Development Foundation | Eye imaging system |
CN1196436C (en) * | 1999-08-26 | 2005-04-13 | 诺瓦提斯公司 | Ocular analyte senser |
DE102011078833A1 (en) * | 2011-07-07 | 2013-01-10 | 3D-Micromac Ag | Method of detecting mark on transparent object e.g. ophthalmic lens, involves directing the light beams reflected by imaging beam deflection and retro-reflective surface of retro-reflector surface, against each other for preset time |
-
2013
- 2013-08-05 ES ES201300738A patent/ES2531189B2/en active Active
-
2014
- 2014-07-24 WO PCT/ES2014/070601 patent/WO2015018958A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2015018958A1 (en) | 2015-02-12 |
ES2531189A1 (en) | 2015-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A computer-aided diagnosis system of nuclear cataract | |
CN109684915B (en) | Pupil tracking image processing method | |
BR112019006165B1 (en) | PROCESS AND DEVICE FOR DETERMINING A REPRESENTATION OF A GLASSES LENS EDGE | |
Naqvi et al. | Automatic optic disk detection and segmentation by variational active contour estimation in retinal fundus images | |
WO2013184070A1 (en) | A drusen lesion image detection system | |
Muangnak et al. | Automatic optic disk detection in retinal images using hybrid vessel phase portrait analysis | |
de Moura et al. | Automatic identification of intraretinal cystoid regions in optical coherence tomography | |
Khaing et al. | ChoroidNET: a dense dilated U-Net model for choroid layer and vessel segmentation in optical coherence tomography images | |
Daud et al. | Keratoconus detection using the fusion features of anterior and lateral segment photographed images | |
Wang et al. | Accurate disease detection quantification of iris based retinal images using random implication image classifier technique | |
Chen et al. | Combination of enhanced depth imaging optical coherence tomography and fundus images for glaucoma screening | |
Abdani et al. | Iris segmentation method of pterygium anterior segment photographed image | |
Gandhi et al. | Evaluation of deep learning networks for keratoconus detection using corneal topographic images | |
ES2531189B2 (en) | Procedure for quantification of ocular opacity of an intraocular lens | |
Kumara et al. | Active contour-based segmentation and removal of optic disk from retinal images | |
Lin et al. | Pupil localization for ophthalmic diagnosis using anchor ellipse regression | |
CN115375611A (en) | Model training-based refraction detection method and detection system | |
Revathy | Revelation of diabetics by inadequate balanced SVM | |
Liu et al. | Computer-aided detection of human cone photoreceptor inner segments using multi-scale circular voting | |
Bhowmik et al. | Shape feature based automatic abnormality detection of cervico-vaginal pap smears | |
Otuna-Hernández et al. | Diagnosis and degree of evolution in a Keratoconus-type corneal Ectasia from image processing | |
El-Bendary et al. | ARIAS: Automated retinal image analysis system | |
Piórkowski et al. | Towards automated cell segmentation in corneal endothelium images | |
JP2017512626A (en) | Method for analyzing image data representing a three-dimensional volume of biological tissue | |
Zabihollahy et al. | Fully-automated segmentation of optic disk from retinal images using deep learning techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2531189 Country of ref document: ES Kind code of ref document: B2 Effective date: 20151218 |