WO1997042600A1 - Procede de traitement d'images obtenues par fibres multicoeurs ou multifibres, en particulier d'images endoscopiques - Google Patents

Procede de traitement d'images obtenues par fibres multicoeurs ou multifibres, en particulier d'images endoscopiques Download PDF

Info

Publication number
WO1997042600A1
WO1997042600A1 PCT/EP1997/002053 EP9702053W WO9742600A1 WO 1997042600 A1 WO1997042600 A1 WO 1997042600A1 EP 9702053 W EP9702053 W EP 9702053W WO 9742600 A1 WO9742600 A1 WO 9742600A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image
intensity
cores
pixels
Prior art date
Application number
PCT/EP1997/002053
Other languages
English (en)
Inventor
Fatemeh Taleblou
Christian Depeursinge
Original Assignee
Andromis S.A.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Andromis S.A. filed Critical Andromis S.A.
Publication of WO1997042600A1 publication Critical patent/WO1997042600A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the invention relates to the field of image processing, in particular the field of processing images obtained by microendoscopy, by multicore optical fibers.
  • a conventional multimode fiber comprises, as illustrated in FIG. 1A, a core 1 and a mantle 3.
  • a multi-core fiber is a bundle of fibers, melted and drawn, which therefore forms a continuous whole.
  • the coat of each individual fiber is melted with the coats of neighboring hearts.
  • FIG. 1B represents a cross-sectional view of a multi-core fiber, the hearts 24 and the coats 26 being grouped inside a first sheath 28, for example made of silica, and a second sheath 30, called the sheath external or "black" coating.
  • the outside diameter D ⁇ _ of the assembly can for example be of the order of 200 to 500 ⁇ m.
  • FIG. 1C is an enlarged view of the portion 32 of the bundle of hearts.
  • the hearts have cross sections of variable shape, more or less homogeneous.
  • the diameter d of each core i.e. the greatest distance separating two points from a same heart, varies from heart to heart.
  • d can, for example, vary between 3 and 4 ⁇ m for the same multi-core fiber.
  • the average distance from one core to another is not uniform and can, for example, vary, for the same multicore fiber, from 3 to 3.5 ⁇ m.
  • the concept of multi-core fiber is to be distinguished from that of multi-fiber, which is an assembly or bundle of independent fibers placed together and possibly glued at the end.
  • the invention also applies to multifibers.
  • Multicore fibers and multifibers are used in imaging, especially in the medical field. Endoscopy, and in particular microendoscopy, allows the practitioner to acquire information, or images, of parts inside the human body, such as the stomach, lungs or heart.
  • FIG. 2 A device for implementing such a technique is shown diagrammatically in FIG. 2, where the reference 2 designates a light source which is focused by a lens 4 at the entrance of a light guide 6.
  • the latter is in fact most often connected to a plurality of optical fibers 8, 10 disposed at the periphery of a multi-core fiber 12.
  • An illumination beam 14 can thus be directed onto an area 16 of an object or an organ to be observed, which reflects a radiation 18 at the input 20 of a multi-core fiber 12.
  • the latter comprising a coherent beam of individual hearts, these therefore transmit the light in an orderly manner between them, and the image obtained at output 22 of the multi-core fiber corresponds to the image formed at input 20.
  • Means for memorizing, analyzing and / or representing the image can also be provided in combination with this device.
  • a multi-core fiber such as fiber 12 can comprise approximately 700 to 10,000 cores, for applications in microendoscopy.
  • the subject of the invention is a method for processing a digital image obtained by a multicore fiber, or by a multifiber, comprising:
  • This treatment makes it possible, in the image obtained, to eliminate the presence of the network of cores of the fiber bundle of the multi-core fiber or of the multi-fiber.
  • a network is made up of almost circular regions, each of which corresponds to a core.
  • the normalization step, or the calibration of the response of each core makes it possible to take into account the differences in response of the cores to the same signal. These differences in response are due, among other things, to the fact that the distance between the hearts varies in the fiber network, which results in couplings between the hearts: for each mode of propagation inside an individual core, there there is an evanescent field spatially distributed in the zones inter-hearts and in neighboring hearts. This field is all the more important as the order of the mode is high.
  • the interpolation method from a predetermined triangular mesh is particularly well suited to obtain a continuous image, in the case of an image obtained by a multicore fiber or by a multifiber.
  • the predetermined area around each core can be defined on the reference image, the latter being transposed on the object image after it has been obtained. Thus, it suffices to make the determination of the delimitation zones around each core only once. The same delimitation area is then used for each image.
  • the delimitation zone around each heart can be the surface delimited, in the reference image, by the perpendicular bisectors passing: - between the barycenter of said heart and the barycenter of each of the neighboring hearts, - or, between the intensity pixel maximum of each heart and the pixel of maximum intensity of each of the neighboring hearts.
  • the first definition (using the barycenters of the heart) is very practical because it only implements geometric considerations.
  • each pixel can advantageously be provided beforehand with the identification of the three hearts of the triangular mesh which correspond to it. Again, this identification can be made from the start, on the reference image, and thus be available thereafter for any object image.
  • the interpolated object image can then be enhanced. This step improves the contrast of the image.
  • the method as described above can also include the following preliminary steps for processing a reference digital image: 1 ′. search for the barycenter, or the pixel of maximum intensity, of each heart in the reference image. 2 '. calculation of the delimitation area around each core.
  • the calculation of a digital mask is carried out which delimits the area of the image inside which, for each core, the search for the barycenter, or of the pixel intensity maximum, and the calculation of the delimitation area must be carried out.
  • This step of calculating a digital mask subsequently makes it possible to apply the processing operations only in the area delimited by this mask: the number of operations and the calculation time are thus limited.
  • the search for the barycenter, or the pixel of maximum intensity can be done after having determined, for each pixel of the reference image, the set of pixels which surround it and which are of intensity greater than a certain threshold given T. This is done by grouping, from each pixel, and a number is assigned to the corresponding core, that is to say to the set of pixels thus grouped for each core.
  • each pixel of the reference image it can be determined, in particular using its coordinates, whether there is a pixel located at the edge of the image, or not.
  • the determinations of the pixels of intensity greater than T can evolve linearly, and change direction as soon as a pixel of intensity less than a threshold T is encountered, or else as soon as an edge pixel is detected.
  • the delimitation zone associated with each heart can be obtained by associating, with the barycenter or the pixel of maximum intensity of each heart, an area limited by the perpendicular bisectors between said heart and each of the neighboring hearts.
  • each pixel is assigned to an area around a heart.
  • the sub-step of processing a group of fused cores comprises:
  • the method may also include a prior step of determining a triangular mesh of the reference image, such that each pixel forms part of a triangle.
  • the step of determining a triangular mesh can include:
  • the fact of distinguishing between the triangles having two vertices aligned horizontally and the others makes it possible to reduce the computation time by a factor approximately equal to 2.
  • the image processing technique object of the invention can be applied to black images and white or color images. In the latter case, the image is broken down into three basic images, one for each of the colors Red, Green, Blue (R, G, B). Each base image can then be processed by the method which is the subject of the present invention. To provide a color image, the corresponding device makes use of a suitable camera.
  • FIGS. 1A, 1B and 1C represent cross-sectional views of an optical fiber and a multi-core fiber
  • FIG. 2 is a schematic representation of an endoscopy device
  • FIG. 3 is a diagrammatic representation, in block, of the computer system used
  • FIGS. 4A and 4B represent raw images obtained using a multicore fiber, in white light (reference image: Figure 4A) and for an object image (Figure 4B), - Figure 5 represents hearts d '' an image obtained, pixels of the image, and geometric areas of the image allowing processing thereof,
  • FIG. 6 schematically illustrates a method for interpolating an image obtained
  • FIGS. 7A to 7E illustrate steps for processing a reference image
  • FIG. 8 represents part of an image, with melted hearts
  • FIGS. 9A to 9C represent steps for processing groups of fused cores
  • FIG. 10 is a flow chart summarizing steps for processing a reference image (segmentation procedure)
  • FIG. 11A to 11C schematize steps of determining a triangular mesh
  • FIG. 12 illustrates a histogram extension method, to perform a step of image enhancement.
  • the endoscopic image processing in accordance with the invention, can be implemented using a device such as that illustrated in FIG. 2. This figure has already been partially commented on above.
  • the images of the object 16 obtained at output 22 can be viewed by a camera or any other viewing device 34, for example connected to a computer 36 comprising a viewing screen 37 and a keyboard 38.
  • the screen allows in particular to represent an image after processing according to the invention.
  • the computer includes a calculation section with microprocessor and all the electronic components necessary for processing the images obtained.
  • FIG. 3 is a simplified block representation of the components of the computer.
  • a microprocessor 39 is connected, by a bus 40, to RAM memories 41 for storing data, to a ROM memory 42 in which the instructions of the processing program carried out can be stored.
  • the system further comprises the display device, or screen, 37 and the keyboard 38.
  • a personal computer, of the POWER PC type (800-80 AV) can be used as a computer 36 in the context of the present invention.
  • FIG. 2 allows an "immediate" exploitation, by an operator, of the images displayed.
  • said operator can be a qualified practitioner, who can analyze processed images.
  • the operator for example a general practitioner, will not be able to analyze the processed image.
  • the latter can be stored and sent to an analysis site, for example to a specialized analysis laboratory.
  • the latter establishes, in view of the image, a diagnosis, which he then communicates to the general practitioner. This can then, for example, direct the patient, depending on the diagnosis, to a specialized doctor.
  • Multicore fiber, camera 34, computer 36 has a small footprint, and can therefore easily be part of the instrumentation available to a general practitioner.
  • Transmission of the images, remotely, to the analysis site or to the analysis laboratory can be done by any appropriate means, for example by storing the images on floppy disks sent to said laboratory.
  • Another way is to send the data to the site or to the analysis laboratory by a Internet-type electronic network to which the general practitioner and the laboratory are connected.
  • the images displayed on the screen 37 are the images obtained at output 22 of multi-core fibers and are of the type of those represented in FIGS. 4A and 4B.
  • Each image represents a network of the individual hearts of the multicore or multifiber fiber. This network consists of almost circular regions, each of which corresponds to a core.
  • the image thus directly obtained cannot be used by a practitioner or an operator, and it is necessary to process it so that the latter can read and interpret it.
  • the method according to the invention allows the practitioner or the operator to practically find, from the unprocessed and unusable image, an image that can be used.
  • FIG. 4A schematically represents the image obtained by exposing the multicore fiber to uniform white lighting: For this, a white light source is placed at the entrance to the multicore fiber, in place of the object 16 in the figure 2.
  • FIG. 4B represents the image obtained when a body 16 (FIG. 2) is examined: the source 2 emits radiation which will light up this body, which itself returns radiation in the multicore fiber; this reflected radiation constitutes the image comprising the information which will be processed.
  • Each of the images (reference image, object image) is in fact made up of a set of NxN points, or pixels. Each pixel corresponds to a numerical value, the digitized intensity, which is a function of the position p (x, y) of the point, or pixel, in the plane of the image.
  • FIG. 5 represents the superposition of a part of the raw image, representing the images of the hearts, with pixels of the image, symbolized by crosses on the network of the image of the hearts. In this FIG.
  • the pixels are located inside the hearts, other pixels being located between neighboring hearts.
  • the number of pixels and the number of hearts represented in FIG. 5 are not in a ratio which corresponds to reality.
  • the image can include the trace of several thousand hearts, for more than 250,000 pixels (512x512).
  • each core is formed by a set of pixels having certain intensities. It is possible to schematize each heart by a single pixel which gathers the information, or intensity, average of the pixels which form its image. Thus, as will be seen below, we can associate with each core the coordinates of a point which is for example the barycenter of the pixels gathered in its image. This barycenter is affected by an intensity which can be the sum of the intensities of the pixels which form the image of the heart considered.
  • FIG. 5 represents a part of the reference image
  • interpolation triangles 54, 56, 58 will be identified.
  • Each pixel, inside a given triangle will be assigned a code representing said triangle.
  • Such a code can be, for example, the numbers of the hearts, if these are numbered, or else the coordinates of the centers or barycenters of these hearts.
  • the first solution is preferable because it requires much less space to store information relating to coding.
  • each heart could be identified by a single point, affected with a global intensity.
  • we associate with each core in accordance with the present invention, the sum of the intensities of the pixels of the image which are located inside an area 52, said delimitation zone of said core. A technique for delimiting these areas will be explained later.
  • FIG. 6 represents the integrated intensity I (Z coordinate) (that is to say obtained as just explained) associated with each core, as a function the position (XY) of the heart, or its barycenter, in the image.
  • I Z coordinate
  • Bilinear interpolation is calculated on the triangular area determined by the barycenters of the three hearts: the intensities of the pixels p contained in the triangular area between the hearts a, b, c (area 60 in Figure 6) are replaced by values d interpolated intensity.
  • the interpolated intensity value, for each pixel p, is a function of the distance from this pixel to the vertices a, b, c as well as the intensities assigned to each of these. More precisely, if we consider the interpolated point P in the triangle A, B, C, we have:
  • FIG. 7A represents the reference image obtained in white lighting.
  • Reference 62 designates the circular surface of the network of cores of the multi-core fiber: this surface contains the information useful for image processing. The determination of a digital mask, which delimits this surface, makes it possible to apply the subsequent operations only in this region, and therefore to reduce the number of operations and the calculation time.
  • a scan from left to right of the image is carried out, on each line of the reference image (i.e. from the image obtained with white light illumination) up to the pixel which has an intensity greater than a given threshold.
  • the one with the minimum order column from the left determines the extreme left column, represented diagrammatically in FIG. 7A by a dashed line 64.
  • the applied threshold (the same for all the sides of the image) is defined according to the noise level of the image.
  • the pixels located inside the image 62 are coded at "0", while the other pixels are coded at "1". This coding is recorded in a matrix of the same size as the reference image.
  • the following stage makes it possible to seek, for each heart, a point which will represent the whole heart, and to which the overall intensity of the heart will be assigned. This point can be in particular the barycenter of each heart.
  • the research is done using the region growth segmentation method. It allows to group the contiguous pixels belonging to the same core.
  • a threshold T is defined (FIG. 10: step 80), such that, for any pixel with a coordinate (x ⁇ , y ⁇ ): if Ip (x ⁇ , y ⁇ )> T, then: p (x ⁇ , y ⁇ ) e Cj ⁇ r where Ip (* l 'Yl) denotes the intensity of the pixel with coordinates (x ⁇ _, y ⁇ ) and C k denotes the core number k.
  • a number k is assigned to the corresponding core (FIG. 10: step 82).
  • the collection method is applied recursively for each pixel of 4 connections. The case of pixels with less than A connections is observed only for the pixels located at the edge of the image. In the search, there is a test on these pixels and as soon as an edge pixel is detected, the search in this direction stops and continues in another direction.
  • step 84 a window, or surface, of which:
  • the upper edge is defined by the pixel p (x, y) whose ordinate y is maximum in C ⁇ ,
  • the lower edge is defined by the pixel p (x, y) whose y-coordinate and minimum in Cj ⁇ ,
  • the left lateral edge is defined by the pixel p (x, y) whose abscissa x is minimal in C ⁇
  • the right lateral edge is defined by the pixel p (x, y) whose abscissa x is maximum in C ⁇
  • the threshold T is determined from the cumulative histogram of the intensities of the reference image (taking into account only the pixels located inside the fiber, using the defined mask), and it is based on the information given by the manufacturer. More precisely, from the data relating to the diameter of the core, to the number of cores of the fiber, the average number of pixels is calculated according to the following relationship:
  • N pc ( N pb ⁇ A mc ) / A mb
  • a mc designates the area of a core (in ⁇ m 2 ) calculated from the diameter of the core;
  • a mb designates the area of the section of the multicore fiber (in ⁇ m 2 ) defined according to the data of;
  • N bp denotes the number of pixels in the image of the multi-core fiber, or else the area of the section of the multi-core fiber in pixels defined from the cumulative histogram;
  • N pc denotes the number of pixels in the core, or the average area of each individual core, in pixels.
  • the fibers will deform during their hot drawing, and the diameter of the hearts can therefore decrease or increase in one direction.
  • the hearts then no longer have the circular shape. Therefore, the number of pixels obtained has only an average value.
  • the number of cores By multiplying the number of cores by the surface (in number of pixels) of an individual core, we obtain the "useful" surface of the multi-core fiber. Then, from the cumulative histogram such as that illustrated in FIG. 7D, and which groups, on the abscissa, the cumulative level of gray and on the ordinate the number of pixels, the gray level which corresponds to this surface is defined "useful".
  • the histogram gives, for each gray level class, the number of pixels whose gray level is in this class or in a lower gray level class:
  • the threshold of segmentation T is defined by the gray level value which corresponds to the useful area, measured in pixels.
  • the search is done by moving from right to left (in gray level), on the cumulative histogram, until the value of the useful surface (in number of pixels) of the hearts is reached.
  • fused hearts Special consideration must be given to the case of fused hearts. Indeed, during the production of multi-core fibers, some individual hearts may be close enough to each other that, during hot drawing, they merge. The image of these individual hearts, on the reference image or on an object image, is then no longer of substantially circular shape, as in FIG. 5. On the contrary, as illustrated in FIG. 8, which represents a part of a section of a multi-core fiber, the groups of fused hearts 72, 74 have an extension in a certain direction.
  • the reference 72 designates a group of two fused hearts, the reference 74 a group of three fused hearts.
  • the parameter ⁇ n depends on the importance of the intermodulation effect (or coupling between the hearts, as already defined above) at the level of the image. In general, it varies between 0.3 and 0.8, and also depends on the overall threshold value T. For example, for 6000 cores, with little coupling effect, a high value of ⁇ n (of the order of 0.6-
  • a window 76 is assigned which includes this group. This window is determined, and passes, by the four points, or pixels, of which one of the two coordinates
  • the window 76 passes through the points E and G which are respectively the rightmost and leftmost points of the grouping 74 , and by points F and H which are respectively the highest and lowest points of grouping 74.
  • the geometric barycenter P b (x, y) of the pixels which are inside the grouping 74 is then determined: the row numbers and column numbers of all the pixels belonging to the grouping 74 are averaged.
  • this direction (for example the direction ⁇ in FIG. 9A) can in principle be arbitrary in the plane of the image.
  • the vertical directions D v , the horizontal directions D n and the two are selected.
  • the threshold defined for this operation depends on the type of fiber and the total number of cores in the fiber. In general, it is between 70 and 80% of the total number of hearts given by the manufacturer.
  • a method for determining a triangular mesh of the image will now be exposed. This method allows to assign, to each pixel, a triangle from which the interpolation can be performed.
  • FIG. 11A represents a representative point C ⁇ of a heart, the window 100 centered on this heart and all of the hearts Cj ⁇ ⁇ , ... Cj ⁇ 5 which are part of the neighborhood of the heart Cj ⁇ .
  • the triangles are then constructed from a central core and two consecutive neighboring hearts.
  • the triangle 102 is determined from the hearts C] ⁇ , C] ç] _, 0 ⁇ 2-
  • the triangle 104 is determined from the heart Ck and from c k, 2 and Ck, 3 - A f ° i s that a triangle is determined, for example the triangle 102, all the pixels which it contains are assigned a coding, which represents this same triangle.
  • a coding which represents this same triangle.
  • the filling time of the triangle with the pixels is much less than the filling time of a triangle whose vertices are arranged in any way.
  • a pixel p (x, y) is between these two triangles, but does not belong to any.
  • One method then consists of carrying out a search in a specific direction, for example the horizontal direction, to find the nearest pixels belonging to a triangle. For example, in the case of FIG. 11C, an exploration along the line passing through the pixel p (x, y) makes it possible to determine the pixels p (x-d ⁇ , y) and p (x + d2, y) located respectively to one
  • each heart The response of each heart to the light signal it receives is defined by the sum of the intensities of the pixels belonging to this heart.
  • a surface for example limited by the perpendicular bisectors between the central heart C ⁇ (see figure 7E) and each of the neighboring hearts Cj ⁇ i, Cj ⁇ , ••• Ck5>
  • the perpendicular bisectors between the barycenter (or the center, or the point of maximum intensity) and the barycenter (or the center, or the point of maximum intensity) of each of the neighboring hearts we take the perpendicular bisectors between the barycenter (or the center, or the point of maximum intensity) and the barycenter (or the center, or the point of maximum intensity) of each of the neighboring hearts.
  • Contrast enhancement is important when the visual perception of information in the image is limited by small variations in gray level of the various structures of the image. Enhancement changes the appearance of an image, so that an observer, or a machine, can more easily extract certain desired information.
  • the enhancement techniques described below are based on redefining the pixel value of the original image, by modifying the histogram.
  • the enhancement is obtained by redeploying the intensity histogram to give a weight equal to all the gray levels.
  • Ip represents the transformed value of the pixel p
  • Ip the original value of the pixel p
  • x the coordinates of the pixel p in the image
  • qi, -.- qm the transformation parameters.
  • the function F is applied to each pixel, independently of its neighborhood, and it is determined from the histogram of the entire image.
  • the section of the histogram to "widen” is determined from a threshold S set a priori. Intensities whose number of pixels exceeds the threshold S, are part of the section to "expand".
  • the value of the threshold S is estimated by eye and depends on the level of contrast of the original image.
  • a new dynamic range is defined. It is limited by the two extreme intensities, I m ax and min / of the section.
  • I ⁇ Lx (Hc um (Ip)) / (N w xN w ).
  • N w xN w the size of the region (sliding window).
  • the new pixel value is obtained as a function of the characteristics of its neighborhood.
  • the results are more satisfactory than in the case of the global approach, but there are some problems:
  • the contrast enhancement is characterized by the value of the slope of the transformation function linking the input intensity to the output intensity.
  • a slope of value 1 has no enhancement, and a high value of the slope corresponds to a significant enhancement. Therefore, the limitation of the noise enhancement is obtained by limiting the slope of the transformation function.
  • I p is proportional to H cum (cumulative histogram).
  • H or ig (Ip) is the value of the original histogram at
  • this value is a multiple of the average number of pixels per level of intensity. This multiple is defined by a constant Cf, fixed a priori:
  • the constant Cf is chosen according to the characteristics of the image, and it is fixed for
  • the value c ⁇ varies according to the size of the window. For example, at the edge of the image, where the window size is smaller, the
  • H (I p ) is the value of the transformed histogram
  • the solution to the problems of the presence of artefacts and of significant computation time consists, in a local method such as exposed above in a general way, to modify the pitch of the displacement of the sliding window (KW Leszczynski and S. Shalev , Image and Vision Computing, vol. 7, N ° 3, p. 205-209, 1989).
  • the image is sampled according to a defined frame (rectangular, hexagonal).
  • the pixels of the frame constitute the centers of the sliding window.
  • the function F is calculated for each window.
  • the value obtained gives the new intensity value for the pixel which is the center of the region. For pixels that are not part of the sampling frame, the intensity value of the nearest centers must be interpolated.
  • the interpolated intensity value l p nt of the pixel p is calculated according to the following relation:
  • the choice of the direction of the interpolation depends on the structure of the image. If the contrast varies rapidly in the vertical direction, the horizontal interpolation introduces less error than the vertical interpolation.
  • This method is less "heavy" in terms of numbers of arithmetic operations.
  • the number of multiplications and divisions is equal to approximately 3x (NxN), while, according to the interpolated version, this number is 2x (NxN), (NxN) being the size of the image.

Abstract

L'invention concerne un procédé de traitement d'une image obtenue par une fibre multicoeur ou une multifibre, comportant les étapes suivantes: 1) pour chaque coeur de la fibre multicoeur ou de la multifibre, calcul d'une intensité, égale à la somme des intensités des pixels de l'image qui sont situés à l'intérieur d'une zone, prédélimitée, de délimitation dudit coeur; 2) calcul d'une intensité normalisée de chaque coeur, en divisant son intensité transmise, calculée comme dans l'étape (2), par l'intensité transmise par ce même coeur dans une image de référence; 3) calcul d'une valeur interpolée de l'intensité de chaque pixel de l'image, en fonction des intensités normalisées de trois coeurs d'un maillage triangulaire prédéterminé, et de la position relative du pixel par rapport à ces trois coeurs. Application à l'analyse médicale.

Description

PROCEDE DE TRAITEMENT D'IMAGES OBTENUES PAR FIBRES MULTICOEURS OU MULTIFIBRES, EN PARTICULIER D'IMAGES
ENDOSCOPIQUES
DESCRIPTION
Domaine technique et art antérieur
L'invention concerne le domaine du traitement d'images, notamment le domaine de traitement d'images obtenues en microendoscopie, par fibres optiques multicoeurs .
Une fibre multimode classique comporte, comme illustré sur la figure 1A, un coeur 1 et un manteau 3.
Une fibre multicoeurs est un faisceau de fibres, fondu et étiré, qui forme donc un ensemble continu. Le manteau de chaque fibre individuelle st fondu avec les manteaux des coeurs voisins.
A l'intérieur d'une fibre multicoeurs on ne peut distinguer que des coeurs individuels, le manteau des fibres étant devenu en quelque sorte collectif.
La figure IB représente une vue en coupe transversale d'une fibre multicoeurs, les coeurs 24 et les manteaux 26 étant groupés à l'intérieur d'une première gaine 28, par exemple en silice, et d'une seconde gaine 30, dite gaine externe ou revêtement "noir". Le diamètre extérieur Dτ_ de l'ensemble peut être par exemple de l'ordre de 200 à 500 μm.
La figure 1C est une vue agrandie de la portion 32 du faisceau de coeurs. Sur cette figure 1C, il apparaît que les coeurs ont des sections transversales de forme variable, plus ou moins homogène. En particulier, le diamètre d de chaque coeur, c'est-à- dire la plus grande distance séparant deux points d'un même coeur, varie d'un coeur à l'autre. Typiquement d peut, par exemple, varier entre 3 et 4 μm pour une même fibre multicoeurs. De même, la distance moyenne d'un coeur à l'autre n'est pas uniforme et peut par exemple varier, pour une même fibre multicoeurs, de 3 à 3,5 μm. La notion de fibre multicoeurs est à distinguer de celle de multifibres, qui est un assemblage ou un faisceau de fibres indépendantes placées conjointement et éventuellement collées en bout. L'invention s'applique également aux multifibres.
Les fibres multicoeurs et les multifibres sont utilisées en imagerie, notamment dans le domaine médical. L'endoscopie, et en particulier la microendoscopie, permet au praticien d'acquérir des informations, ou images, des parties intérieures au corps humain, telles que l'estomac, les poumons ou le coeur.
Un dispositif pour la mise en oeuvre d'une telle technique est représenté schematiquement sur la figure 2, où la référence 2 désigne une source de lumière qui est focalisée par une lentille 4 à l'entrée d'un guide de lumière 6. Ce dernier est en fait le plus souvent relié à une pluralité de fibres optiques 8, 10 disposées à la périphérie d'une fibre multicoeurs 12. Un faisceau d'éclairage 14 peut ainsi être dirigé sur une zone 16 d'un objet ou d'un organe à observer, qui réfléchit un rayonnement 18 à l'entrée 20 d'une fibre multicoeurs 12. Cette dernière comportant un faisceau cohérent de coeurs individuels, ceux-ci transmettent donc la lumière de manière ordonnée entre eux, et l'image obtenue en sortie 22 de la fibre multicoeurs correspond à l'image formée à l'entrée 20. Des moyens pour mémoriser, analyser et/ou représenter l'image peuvent être également prévus en combinaison avec ce dispositif.
Cette technique d'imagerie est décrite par exemple dans les articles de A. Katzir : "Optimal Fibers in Medicine", Scientific American, vol.260 (5), p. 120-125, 1989 et "Optimal Fiber Techniques (Medicine)", Encyclopédia of Physical Science and Technology, vol. 9, p. 630-646, 1987.
Pratiquement, une fibre multicoeurs telle que la fibre 12 peut comporter environ 700 à 10000 coeurs, pour des applications à la microendoscopie.
Dans l'image obtenue par un microendoscope, on constate la présence d'un réseau des coeurs du faisceau de fibres. Ce réseau est constitué de régions presque circulaires, dont chacune correspond à un coeur.
Le praticien ou la personne qui examine une image obtenue par microendoscopie, ou, plus généralement, obtenue à l'aide d'une fibre multicoeurs, ne peut donc utiliser l'image brute, directement obtenue en sortie de la fibre. Un traitement numérique de cette image est nécessaire.
L'article de R. Condé et al. Intitulé "Comparative Measurements of Image Quality in Image Guides" paru dans Biomédical Optics'94 décrit un traitement d'une image test d'une mire de Ronchi obtenue par fibre multicoeur. Ce document ne donne cependant aucune précision sur la mise en oeuvre pratique, qui pose de gros problèmes en particulier du fait de la masse importante de données à traiter, présentes dans chaque image obtenue par une fibre multicoeur (typiquement de l'ordre de 512x512) .
Exposé de l'invention L'invention a pour objet un procédé de traitement d'une image digitalisée obtenue par une fibre multicoeur, ou par une multifibre, comportant :
1. pour chaque coeur de la fibre multicoeur ou de la multifibre, calcul d'une intensité, égale à la somme des intensités des pixels de l'image qui sont situés à l'intérieur d'une zone, prédélimitée, de délimitation dudit coeur
2. calcul d'une intensité normalisée de chaque coeur, en divisant son intensité transmise, calculée comme dans l'étape 1, par l'intensité transmise par ce même coeur dans une image de référence
3. calcul d'une valeur interpolée de l'intensité de chaque pixel de 1 ' image, en fonction des intensités normalisées de trois coeurs d'un maillage triangulaire prédéterminé et de la position relative du pixel par rapport à ces trois coeurs.
Ce traitement permet, dans l'image obtenue, d'éliminer la présence du réseau des coeurs du faisceau de fibres de la fibre multicoeur ou de la multifibre. Un tel réseau est constitué de régions presque circulaires, dont chacune correspond à un coeur. Ainsi, la distribution d'intensité de l'image devient continue. L'étape de normalisation, ou de calibrage de la réponse de chaque coeur, permet de tenir compte des différences de réponse des coeurs à un même signal. Ces différences de réponse sont dues entre autres au fait que la distance entre les coeurs varie dans le réseau de fibres, ce qui a pour conséquence des couplages entre les coeurs : pour chaque mode de propagation à l'intérieur d'un coeur individuel, il existe un champ èvanescent réparti spatialement dans les zones intercoeurs et dans les coeurs voisins. Ce champ est d'autant plus important que l'ordre du mode est élevé.
Il en résulte que, pour une intensité incidente lo à l'entrée d'un coeur, celui-ci transmet en sortie une certaine intensité In-in, tandis que les coeurs voisins
transmettent une intensité in- Des variations de distance entre les coeurs voisins entraînent donc des variations d'intensité ainsi transmises in d'un coeur voisin à un autre coeur voisin. Enfin, la méthode d'interpolation à partir d'un maillage triangulaire prédéterminé est particulièrement bien adapté pour obtenir une image continue, dans le cas d'une image obtenue par une fibre multicoeur ou par une multifibre. La zone prédéterminée autour de chaque coeur peut être définie sur l'image de référence, cette dernière étant transposée sur l'image objet après que celle-ci ait été obtenue. Ainsi, il suffit de faire une seule fois la détermination des zones de délimitation autour de chaque coeur. On utilise ensuite, pour chaque image, la même zone de délimitation.
La zone de délimitation autour de chaque coeur peut être la surface délimitée, dans l'image de référence, par les médiatrices passant : - entre le barycentre dudit coeur et le barycentre de chacun des coeurs voisins, - ou, entre le pixel d'intensité maximum de chaque coeur et le pixel d'intensité maximum de chacun des coeurs voisins. La première définition (à l'aide des barycentres de coeur) est très pratique car elle ne met en oeuvre que des considérations géométriques.
En ce qui concerne l'étape d'interpolation de la valeur de l'intensité de chaque pixel de l'image objet, chaque pixel peut être avantageusement préalablement muni de l'identification des trois coeurs du maillage triangulaire qui lui correspondent. Là encore, cette identification peut être faite dès le départ, sur l'image de référence, et être ainsi disponible par la suite pour toute image objet.
L'image objet interpolée peut ensuite être rehaussée. Cette étape permet d'améliorer le contraste de l'image.
Le procédé tel que décrit ci-dessus peut également comporter les étapes préalables suivantes de traitement d'une image digitalisée de référence : 1' . recherche du barycentre, ou du pixel d'intensité maximale, de chaque coeur dans l'image de référence. 2' . calcul de la zone de délimitation autour de chaque coeur.
Ces étapes permettent de déterminer, une fois pour toutes, les éléments de référence (point à l'intérieur de chaque coeur : barycentre ou pixel d'intensité maximale ; zone de délimitation autour de chaque coeur, qui pourra être réutilisée par la suite dans tout traitement d'image objet) .
Avantageusement, on réalise, après digitalisation des pixels de l'image de référence, le calcul d'un masque numérique qui délimite la zone de l'image à l'intérieur de laquelle, pour chaque coeur, la recherche du barycentre, ou du pixel d'intensité maximale, et le calcul de la zone de délimitation doivent être effectués. Cette étape de calcul d'un masque numérique permet, par la suite, d'appliquer les opérations de traitement uniquement dans la zone délimitée par ce masque : on limite ainsi le nombre d'opérations et le temps de calcul.
La recherche du barycentre, ou du pixel d'intensité maximale, peut être faite après avoir déterminé, pour chaque pixel de l'image de référence, l'ensemble des pixels qui l'entourent et qui sont d'intensité supérieure à un certain seuil donné T. On procède ainsi par regroupement, à partir de chaque pixel, et on attribue un numéro au coeur correspondant, c'est-à-dire à l'ensemble des pixels ainsi regroupés pour chaque coeur.
Pour chaque pixel de l'image de référence, on peut déterminer, notamment à l'aide de ses coordonnées, si on est en présence d'un pixel situé au bord de l'image, ou pas. Ainsi, les déterminations des pixels d'intensité supérieure à T peut évoluer linéairement, et changer de direction dès qu'un pixel d'intensité inférieure à un seuil T est rencontré, ou bien dès qu'un pixel de bord est détecté. Dans l'image de référence, la zone de délimitation associée à chaque coeur peut être obtenue en associant, au barycentre ou au pixel d'intensité maximale de chaque coeur, une surface limitée par les médiatrices entre ledit coeur et chacun des coeurs voisins. Ainsi, on attribue chaque pixel à une zone autour d'un coeur. En outre, le calcul d'une médiatrice entre deux points de coordonnées définies est aisé à réaliser. Le calcul des surfaces délimitées par les médiatrices est donc lui aussi aisé à réaliser. Cet aspect est important dans la mesure où le nombre de coeurs à traiter, à l'intérieur d'une même fibre multicoeur, peut être très élevé (de l'ordre de plusieurs milliers) .
Dans le cas où les coeurs fusionnés sont présents, ce qui peut arriver très souvent, mais avec une importance variable d'une fibre multicoeur à l'autre, une étape de détermination de la présence de coeurs fusionnés et du barycentre ou du pixel d'intensité maximale, de chacun des coeurs de chaque groupe de coeurs fusionnés peut être réalisée. Ainsi, tous les coeurs, sans exception, y compris ceux qui sont fusionnés avec des coeurs voisins, sont traités de la même manière dans l'image de référence, et donc également dans toute image objet.
Avantageusement, la sous étape de traitement d'un groupe de coeurs fusionnés comporte :
- la détermination du barycentre géométrique des pixels faisant partie du groupe de coeurs fusionnés.
- la détermination d'une direction de fusion, d'une direction de coupure, et de points de coupure du groupe de cours fusionnés.
- la coupure du groupe de coeurs fusionnés selon la direction de coupure, en chaque point de coupure.
Avantageusement, le procédé, avec étape préalable de traitement de l'image de référence, peut comporter en outre une étape préalable de détermination d'un maillage triangulaire de l'image de référence, telle que chaque pixel fasse partie d'un triangle.
Ainsi, pour toute image objet, on dispose d'un maillage triangulaire prédéterminé permettant, pour tout pixel de cette image objet, de calculer une interpolation en fonction des intensités normalisées des pixels constituant les sommets du triangle dont fait partie le pixel considéré de l'image objet.
L'étape de détermination d'un maillage triangulaire peut comporter :
- une sous-étape de détermination, pour chaque barycentre ou point d'intensité maximale, des barycentres ou points d'intensités maximales immédiatement voisins, et de détermination des pixels qui appartiennent à chaque triangle formé par deux barycentres ou points d'intensité maximale, choisis voisins l'un de l'autre parmi les barycentres ou points d'intensité maximale immédiatement voisins du barycentre ou point d'intensité maximale considéré, et par ce dernier
- pour les pixels n'ayant aucun triangle attribué par la sous-étape précédente, une sous étape de :
* recherche des deux pixels les plus proches appartenant à un triangle, * détermination des trois barycentres, ou points d'intensité maximale, les plus proches du pixel considéré, parmi les six barycentres ou points d'intensité maximale, constituant les sommets des deux triangles auxquels appartiennent les deux pixels les plus proches du pixel considéré.
Le fait de distinguer entre les triangles ayant deux sommets alignés horizontalement et les autres permet de réduire le temps de calcul par un facteur environ égal à 2. La technique de traitement d'images objet de l'invention peut être appliquée à des images en noir et blanc ou bien à des images couleurs. Dans ce dernier cas, l'image est décomposée en trois images de base, une pour chacune des couleurs Rouge, vert, Bleu (R, G, B) . Chaque image de base peut alors être traitée par le procédé objet de la présente invention. Pour fournir une image en couleurs, le dispositif correspondant fait usage d'une caméra adaptée.
Brève description des figures
De toute façon, les caractéristiques et avantages de l'invention apparaîtront mieux à la lumière de la description qui va suivre. Cette description porte sur les exemples de réalisation, donnés à titre explicatif et non limitatif, en se référant à des dessins annexés sur lesquels :
- les figures 1A, IB et 1C représentent des vues en coupe transversale d'une fibre optique et d'une fibre multicoeur,
- la figure 2 est une représentation schématique d'un dispositif d'endoscopie,
- la figure 3 est une représentation schématique, en bloc, du système informatique utilisé,
- les figures 4A et 4B représentent des images brutes obtenues à l'aide d'une fibre multicoeur, en lumière blanche (image de référence : figure 4A) et pour une image objet (figure 4B) , - la figure 5 représente des coeurs d'une image obtenue, des pixels de l'image, et des zones géométriques de l'image permettant de traitement de celle-ci,
- la figure 6 illustre schematiquement un procédé d'interpolation d'une image obtenue,
- les figures 7A à 7E illustrent des étapes de traitement d'une image de référence, - la figure 8 représente une partie d'une image, avec des coeurs fondus,
- les figures 9A à 9C représentent des étapes de traitement des groupes de coeurs fusionnés, - la figure 10 est un organigramme résumant des étapes du traitement d'une image de référence (procédure de segmentation) ,
- les figures 11A à 11C schématisent des étapes de détermination d'un maillage triangulaire, - la figure 12 illustre une méthode d'extension d'histogramme, pour réaliser une étape de rehaussement de l'image.
Description détaillée de modes de réalisation de 1 ' invention
Le traitement d'image endoscopique, conforme à l'invention, peut être mis en oeuvre à l'aide d'un dispositif tel que celui illustré sur la figure 2. Cette figure a déjà été partiellement commentée ci- dessus. Les images de l'objet 16 obtenues en sortie 22 peuvent être visualisées par une caméra ou tout autre dispositif de visualisation 34, par exemple relié à un ordinateur 36 comportant un écran de visualisation 37 et un clavier 38. L'écran permet en particulier de représenter une image après un traitement conforme à 1 ' invention.
L'ordinateur comporte une section de calcul avec microprocesseur et toutes les composantes électroniques nécessaires au traitement des images obtenues.
La figure 3 est une représentation simplifiée, en bloc, des composantes de l'ordinateur. Un microprocesseur 39 est relié, par un bus 40, à des mémoires RAM 41 pour stocker des données, à une mémoire ROM 42 dans laquelle les instructions du programme de traitement réalisé peuvent être mémorisées. Le système comporte en outre le dispositif de visualisation, ou écran, 37 et le clavier 38.
Un ordinateur personnel, du type POWER PC (800- 80 AV) peut être utilisé en tant qu'ordinateur 36 dans le cadre de la présente invention.
Le schéma représenté sur la figure 2 permet une exploitation "immédiate", par un opérateur, des images visualisées. Dans le cas d'images médicales, ledit opérateur peut être un praticien qualifié, pouvant analyser des images traitées.
Dans d'autres cas, l'opérateur, par exemple un praticien généraliste, ne saura pas analyser l'image traitée. Dans ce cas, cette dernière peut être mémorisée et envoyée à un site d'analyse, par exemple à un laboratoire d'analyse spécialisé. Ce dernier établit, au vu de l'image, un diagnostic, qu'il communique ensuite au praticien généraliste. Celui-ci peut alors par exemple diriger, en fonction du diagnostic, le patient vers un médecin spécialisé.
L'ensemble du dispositif illustré sur la figure 2
(fibre multicoeur, caméra 34, ordinateur 36) présente un encombrement faible, et peut donc facilement faire partie de l'instrumentation dont peut disposer un médecin généraliste. La transmission des images, à distance, au site d'analyse ou au laboratoire d'analyse peut être faite par tout moyen approprié, par exemple en stockant les images sur des disquettes envoyées audit laboratoire. Un autre moyen consiste à envoyer les données au site ou au laboratoire d'analyse par un réseau électronique de type Internet auquel le généraliste et le laboratoire sont reliés.
Les images visualisées sur l'écran 37 sont les images obtenues en sortie 22 de fibres multicoeurs et sont du type de celles représentées sur les figures 4A et 4B. Chaque image représente un réseau des coeurs individuels de la fibre multicoeur ou de la multifibre. Ce réseau est constitué de régions presque circulaires, dont chacune correspond à un coeur. Sous sa forme brute, l'image ainsi directement obtenue est inutilisable par un praticien ou un opérateur, et il est nécessaire de la traiter pour que celui-ci puisse la lire et l'interpréter. Dans tous les cas, le procédé selon l'invention permet au praticien ou à l'opérateur de retrouver pratiquement, à partir de l'image non traitée et inutilisable, une image pouvant être utilisée.
La figure 4A représente schematiquement l'image obtenue en exposant la fibre multicoeur à un éclairage blanc uniforme : Pour cela, une source de lumière blanche est disposée à l'entrée de la fibre multicoeur, à la place de l'objet 16 sur la figure 2.
La figure 4B représente l'image obtenue lorsqu'un corps 16 (figure 2) est examiné : la source 2 émet un rayonnement qui va éclairer ce corps, qui lui- même renvoie un rayonnement dans la fibre multicoeur ; ce rayonnement réfléchi constitue l'image comportant l'information qui va être traitée. Chacune des images (image de référence, image objet) est en fait constituée d'un ensemble de NxN points, ou pixels. A chaque pixel correspond une valeur numérique, l'intensité digitalisée, qui est une fonction de la position p(x,y) du point, ou pixel, dans le plan de l'image. La figure 5 représente la superposition d'une partie de l'image brute, représentant les images des coeurs, avec des pixels de l'image, symbolisés par des croix sur le réseau de l'image des coeurs. Sur cette figure 5, on voit que les pixels sont situés à l'intérieur des coeurs, d'autres pixels étant situés entre des coeurs voisins. Le nombre de pixels et le nombre de coeurs représentés sur la figure 5 ne sont pas dans un rapport qui correspond à la réalité. En pratique, l'image peut comporter la trace de plusieurs milliers de coeurs, pour plus de 250000 pixels (512x512).
Par conséquent, la partie de l'image qui correspond à chaque coeur est formée d'un ensemble de pixels ayant certaines intensités. Il est possible de schématiser chaque coeur par un pixel unique qui rassemble l'information, ou intensité, moyenne des pixels qui forment son image. Ainsi, comme on le verra plus loin, on peut associer à chaque coeur les coordonnées d'un point qui est par exemple le barycentre des pixels rassemblés dans son image. Ce barycentre est affecté d'une intensité pouvant être la somme des intensités des pixels qui forment l'image du coeur considéré.
Pour éliminer l'image du réseau des coeurs, il faut déterminer, pour les pixels situés dans les régions intercoeurs, de nouvelles valeurs d'intensité. Celles-ci sont obtenues par interpolation des intensités des coeurs voisins. Selon la présente invention, un traitement à partir des trois coeurs "les plus proches" de chaque pixel permet une interpolation efficace dans un temps acceptable du point de vue pratique. Pour chaque pixel, les trois coeurs permettant l'interpolation, ou le triangle délimité par ces trois coeurs, peuvent être repérés sur l'image de référence : dans la mesure où la même fibre multicoeur est conservée d'une image objet à une autre, la même image de référence peut être établie, une fois pour toutes, pour toutes les images objets.
Ainsi, si la figure 5 représente une partie de l'image de référence, des triangles d'interpolation 54, 56, 58 seront identifiés. Chaque pixel, à l'intérieur d'un triangle donné, se verra affecté d'un code représentant ledit triangle. Un tel code peut être par exemple les numéros des coeurs, si ceux-ci sont numérotés, ou bien les coordonnées des centres ou des barycentres de ces coeurs. La première solution est préférable car elle nécessite beaucoup moins de place pour stocker l'information relative au codage.
Il a été dit plus haut que chaque coeur pouvait être repéré par un seul point, affecté d'une intensité globale. En fait, pour avoir une évaluation exacte de la réponse de chaque coeur, on associe à chaque coeur, conformément à la présente invention, la somme des intensités des pixels de l'image qui sont situés à l'intérieur d'une zone 52, dite zone de délimitation dudit coeur. Une technique de délimitation de ces zones sera expliquée plus loin.
La procédure d'interpolation peut être expliquée en liaison avec la figure 6, qui représente l'intensité I (coordonnée Z) intégrée (c'est-à-dire obtenue comme il vient d'être expliqué) associée à chaque coeur, en fonction de la position (XY) du coeur, ou de son barycentre, dans l'image. Sur la figure 6, on s'intéressera plus particulièrement aux coeurs repérés par les lettres a, b, c dont les coordonnées sont respectivement (Xa, Ya), (Xb, Yb) , (Xc, Yc) et aux points A(Xa, Ya, Ia), B(Xb, Yb, Ib) , C(XC, Yc, Ic) dans l'espace XYZ. L'interpolation bilinéaire est calculée sur la surface triangulaire déterminée par les barycentres des trois coeurs : les intensités des pixels p contenus dans la zone triangulaire entre les coeurs a, b, c (zone 60 sur la figure 6) sont remplacées par des valeurs d'intensité interpolée. La valeur d'intensité interpolée, pour chaque pixel p, est fonction de la distance de ce pixel aux sommets a, b, c ainsi que des intensités affectées à chacun de ces derniers. De manière plus précise, si on considère le point interpolé P dans le triangle A, B, C, on a :
ÔP = 5 + Â~P= ÔA~ + (αÂB + βÂc), ou, en terme de coordonnées cartésiennes :
Xp=Xa+α(Xb-Xa)+β(Xc-Xa) (2.1)
Yp=Ya+α(Yb-Ya)+β(Yc-Ya) (2.2)
Zp=Za+α(Zb-Za)+β(Zc-Za) (2.3)
De ces équations, on peut déduire Zp, qui est la valeur d'intensité interpolée associée au point p.
Par rapport aux techniques de traitement d'images par convolution, la présente méthode ne nécessite que de réaliser que deux multiplications et trois additions par point ou pixel. Une technique de convolution nécessite, pour chaque pixel, au moins N2 multiplications et N additions, avec N>2 ou 3 (le plus souvent N>3) . Un traitement pouvant être appliqué à l'image de référence va maintenant être décrit. Ce traitement permet, pour chaque coeur individuel, d'identifier un point particulier dans ce coeur, de lui affecter une intensité correspondant à l'intensité globale véhiculée par le coeur (cette partie du traitement est résumé sur la figure 10 sous forme d'organigramme), et, pour chaque pixel, de repérer les trois coeurs, qui permettront de calculer son intensité interpolée de la manière décrite ci-dessus.
Tout d'abord, il est préférable de délimiter la surface circulaire du réseau des coeurs qui contient l'information utile pour le traitement ultérieur. Cette délimitation permet un gain du temps de calcul et du nombre d'opérations.
Pratiquement, un masque numérique pour l'image de la fibre est défini, qui permet de distinguer d'une part les pixels de la fibre multicoeurs, et d'autre part les pixels situés dans la région entre la fibre multicoeurs et la gaine externe de la fibre (gaine référencée 30 sur la figure IB) et au-delà de cette région. La figure 7A représente l'image de référence obtenue en éclairage blanc. La référence 62 désigne la surface circulaire du réseau des coeurs de la fibre multicoeurs : cette surface contient l'information utile pour le traitement de l'image. La détermination d'un masque numérique , qui délimite cette surface, permet d'appliquer les opérations ultérieures seulement dans cette région, et donc de réduire le nombre d'opérations et le temps de calcul. Pour cela, un balayage de gauche à droite de l'image est réalisé, sur chaque ligne de l'image de référence (c'est-à-dire de l'image obtenue avec éclairage en lumière blanche) jusqu'au pixel qui a une intensité supérieure à un seuil donné. Parmi les pixels obtenus pour toutes les lignes, celui avec la colonne d'ordre minimal à partir de la gauche détermine la colonne extrême gauche, représentée schematiquement sur la figure 7A par une ligne en traits interrompus 64. De la même manière, on détermine la colonne extrême droite 66, la ligne extrême supérieure 68 et la ligne extrême inférieure 70. Le seuil appliqué (le même pour tous les côtés de l'image) est défini selon le niveau de bruit de l'image. Ensuite, les pixels situés à l'intérieur de l'image 62 sont codés à "0", tandis que les autres pixels sont codés à "1". Ce codage est enregistré dans une matrice de même taille que l'image de référence.
L'étape suivante permet de rechercher, pour chaque coeur, un point qui va représenter le coeur tout entier, et auquel va être affecté l'intensité globale du coeur. Ce point peut être notamment le barycentre de chaque coeur.
La recherche est faite selon la méthode de segmentation par croissance de région. Elle permet de regrouper les pixels contigus appartenant au même coeur. Pour chaque pixel de l'image de référence 62, on définit quatre connexions, selon le schéma représenté en figure 7C. Pour chaque connexion, un seuil T est défini (figure 10 : étape 80), tel que, pour tout pixel de coordonnée (x^, y\ ) : si Ip(xχ,yι)>T, alors : p(xι,yχ) e Cj<r où Ip(*l' Yl) désigne l'intensité du pixel de coordonnées (xι_, y\ ) et Ck désigne le coeur numéro k. A mesure que les pixels voisins sont rassemblés, un numéro k est attribué au coeur correspondant (figure 10 : étape 82) . La méthode de rassemblement s'applique d'une manière récursive pour chaque pixel de 4 connexions. Le cas des pixels à moins de A connexions n'est constaté que pour les pixels situés au bord de l'image. Dans la recherche, il y a un test sur ces pixels et dès qu'un pixel de bord est détecté, la recherche dans cette direction s'arrête et continue dans une autre direction.
Une fois que les pixels d'un même coeur C^ sont rassemblés, on limite (figure 10 : étape 84) le coeur par une fenêtre, ou surface, dont :
- le bord supérieur est défini par le pixel p(x,y) dont l'ordonnée y est maximale dans C^,
- le bord inférieur est défini par le pixel p(x,y) dont l'ordonnée y et minimale dans Cjς,
- le bord latéral gauche est défini par le pixel p(x,y) dont l'abscisse x est minimale dans C^, - le bord latéral droit est défini par le pixel p(x,y) dont l'abscisse x est maximale dans C^,
Il est ensuite possible de calculer le barycentre des pixels regroupés sous la désignation "coeur n" k" (figure 10 : étape 86) . On peut aussi déterminer, parmi les pixels d'un coeur déterminé, le pixel d'intensité maximale dans l'image de référence.
Le seuil T est déterminé à partir de l'histogramme cumulé des intensités de l'image de référence (en ne tenant compte que des pixels situés à l'intérieur de la fibre, en utilisant le masque défini), et il est basé sur les informations données par le fabricant. De manière plus précise, à partir des données relatives au diamètre du coeur, au nombre des coeurs de la fibre, le nombre moyen de pixels est calculé selon la relation suivante :
Npc = (NpbχAmc)/Amb
où Amc désigne la surface d'un coeur (en μm2) calculée à partir du diamètre du coeur ; Amb désigne la surface de la section de la fibre multicoeurs (en μm2) définie selon les données du ; Npb désigne le nombre de pixels dans l'image de la fibre multicoeurs, ou encore la surface de la section de la fibre multicoeurs en pixels définie à partir de l'histogramme cumulé ; Npc désigne le nombre de pixels du coeur, ou encore la surface moyenne de chaque coeur individuel, en pixels.
Il est possible que les fibres se déforment pendant leur étirage à chaud, et le diamètre des coeurs peut donc diminuer ou augmenter suivant une direction. Les coeurs n'ont alors plus la forme circulaire. Donc, le nombre de pixels obtenus n'a qu'une valeur moyenne. En multipliant le nombre de coeurs par la surface (en nombre de pixels) d'un coeur individuel, on obtient la surface "utile" de la fibre multicoeurs. Ensuite, à partir de l'histogramme cumulé tel que celui illustré sur la figure 7D, et qui regroupe, en abscisse, le niveau cumulé de gris et en ordonnée le nombre de pixels, on définit le niveau de gris qui correspond à cette surface "utile". L'histogramme donne, pour chaque classe de niveaux de gris, le nombre de pixels dont le niveau de gris se situe dans cette classe ou dans une classe de niveau de gris inférieur : Le seuil de segmentation T est défini par la valeur de niveau de gris qui correspond à la surface utile, mesurée en pixels. La recherche se fait en se déplaçant de la droite vers la gauche (en niveau de gris) , sur l'histogramme cumulé, jusqu'à ce que la valeur de la surface utile (en nombre de pixels) des coeurs soit atteinte.
Il faut considérer de manière particulière le cas des coeurs fusionnés. En effet, au cours de la réalisation des fibres multicoeurs, certains coeurs individuels peuvent se trouver suffisamment proches l'un de l'autre pour que, lors de l'étirage à chaud, ils fusionnent. L'image de ces coeurs individuels, sur l'image de référence ou sur une image objet, n'est alors plus de forme sensiblement circulaire, comme sur la figure 5. Au contraire, comme illustré sur la figure 8, qui représente une partie d'une section d'une fibre multicoeur, les groupes de coeurs fusionnés 72, 74 présentent une extension suivant une certaine direction. La référence 72 désigne un groupe de deux coeurs fusionnés, la référence 74 un groupe de trois coeurs fusionnés.
On peut réaliser un test (figure 10 : étape 88) sur la surface de chaque coeur, obtenue par regroupement de la manière déjà expliquée ci-dessus, pour déterminer si l'on est en présence d'un groupement de coeurs fusionnés, ou pas. Ainsi, on peut définir un seuil sur le nombre de pixels de chaque classe Cj< obtenue pour déterminer si on est dans le cas de la fusion de plusieurs coeurs (figure 10 : étape 92), ou non. Ce seuil est donné par la relation : Npf>(l+Δn)Npc, où Npf désigne le nombre de pixels calculé dans un
coeur fusionné (la signification de Npc a déjà été
donnée ci-dessus) . Le paramètre Δn dépend de l'importance de l'effet d'intermodulation (ou de couplage entre les coeurs, tel que déjà défini plus haut) au niveau de l'image. En général, il varie entre 0,3 et 0,8, et dépend aussi de la valeur T de seuil globale. Par exemple pour 6000 coeurs, avec peu d'effet de couplage, une valeur élevée de Δn (de l'ordre 0,6-
0,7) convient. Par contre, pour une fibre de 10000 coeurs, où l'effet de couplage est assez important, on choisit Δn de l'ordre 0,3-0,4.
Une fois qu'un groupe de coeurs fusionnés est détecté, la question qui se pose est de savoir comment, sur une image obtenue à l'aide d'une fibre multicoeur, on peut retrouver la contribution de chacun des coeurs individuels qui sont fusionnés ensembles. A chaque groupe de coeurs fusionnés, tel que le groupe 74 (figure 9A) on attribue une fenêtre 76 qui englobe ce groupe. Cette fenêtre est déterminée, et passe, par les quatre points, ou pixels, dont une des deux coordonnées
(colonne, ligne) est la plus grande ou la plus petite parmi tous les pixels du groupe 74. Ainsi, la fenêtre 76 passe par les points E et G qui sont respectivement les points les plus à droite et les plus à gauche du groupement 74, et par les points F et H qui sont respectivement les points les plus hauts et les plus bas du groupement 74. Le barycentre géométrique Pb(x,y) des pixels qui sont à l'intérieur du groupement 74 est ensuite déterminé : on effectue la moyenne des numéros de ligne et des numéros de colonne de tous les pixels appartenant au groupement 74.
On établit ensuite la direction de la fusion (figure 10 : étape 94) . De manière stricte, cette direction (par exemple la direction Δ sur la figure 9A) peut en principe être quelconque dans le plan de l'image. Pratiquement, on se fixe quatre directions dans la fenêtre attribuée aux groupements fusionnés. Ainsi, sur la figure 9B, sont sélectionnées les directions verticales Dv, horizontale Dn et les deux
directions à ± 45°, D+ et D_. Le nombre de pixels situés à l'intérieur du groupement 74, le long de chacune de ces directions, est calculé. On retient, comme direction de fusion, celle de ces quatre directions le long de laquelle le nombre de pixels est maximum. Ainsi, sur la figure 9B, c'est la direction horizontale Dn qui est retenue comme direction de fusion. La direction perpendiculaire (dans le cas de la figure 9B : Dv) est alors qualifiée de direction de coupure.
On part ensuite du barycentre Pb de la classe 74, et on effectue un déplacement, suivant la direction de fusion. Dans le cas où il y a une fusion horizontale, le sens de déplacement est vers l'extrême gauche de la fenêtre. Dans le cas d'une fusion verticale, le sens de déplacement est vers le haut. Dans le cas d'une fusion à +45° (-45° respectivement) le sens de déplacement est vers l'extrême droite, en haut (respectivement extrême gauche, en haut) . Ces sens respectent le balayage de l'image (de haut en bas, et de gauche à droite) . On rencontre donc successivement tous les pixels suivant la direction de fusion, et on mesure la variation d'intensité entre deux pixels adjacents. La figure 9C représente cette variation le long de la direction Dh, de part et d'autre du
barycentre Pb. Lorsqu'un minimum est rencontré, c'est- à-dire au point K, celui-ci est interprété comme un point de coupure de la fusion (figure 10 : étape 96) . On fait donc passer par le point K une droite de coupure, parallèle à la direction de coupure Dv. Cette droite de coupure délimite deux coeurs, l'un par rapport à l'autre, à l'intérieur d'un même groupe de coeurs fusionnés.
On peut ensuite, pour chacun des coeurs d'un même groupe de coeurs fusionnés, calculer le barycentre, ou le point d'intensité maximale, auquel on attribue l'intensité totale transmise par le coeur.
Lorsque la procédure de segmentation est terminée, on fait un test sur le nombre total des coeurs C^ obtenus par segmentation. Si celui-ci est inférieur à un seuil donné (une fraction (par exemple 80-85%) du nombre total de coeurs donné par le fabricant) l'opération de segmentation est recommencée (figure 10 : étape 90) , mais sans tenir compte des pixels qui appartiennent déjà à un coeur détecté. Par ailleurs, au cours de cette deuxième itération, on baisse le seuil de segmentation pour pouvoir regrouper les pixels de faible intensité.
Le seuil défini pour cette opération dépend du type de fibre et du nombre total de coeurs dans la fibre. En général, il est compris entre 70 et 80% du nombre total de coeurs donné par le fabricant.
Ce cas se présente plutôt pour les pixels qui se trouvent au bord de l'image : à cause du bruit, ils sont de faible intensité.
Une méthode de détermination d'un maillage triangulaire de l'image va maintenant être exposée. Cette méthode permet d'attribuer, à chaque pixel, un triangle à partir duquel l'interpolation pourra être réalisée.
Pour rassembler les coeurs de l'image en groupe de trois, la méthode la plus rapide est de déterminer d'abord, pour chaque coeur, l'ensemble de ses voisins, puis de faire le regroupement à partir de cet ensemble. La matrice des points représentatifs des coeurs est balayée par une fenêtre carrée, centrée sur le plan représentatif de chaque coeur. La taille de la fenêtre dépend de l'espace intercoeur et du type de fibre ; ces informations sont données par le fabricant de la fibre. Typiquement, des fenêtres de taille 10 pixels x 10 pixels, ou encore 7 pixels x 7 pixels, conviennent. Tous les coeurs dont le point représentatif se situe à l'intérieur de cette fenêtre font partie du voisinage du coeur central de la fenêtre carrée. La figure 11A représente un point représentatif C^ d'un coeur, la fenêtre 100 centrée sur ce coeur et l'ensemble des coeurs Cj^ \ , ...Cj^ 5 qui font partie du voisinage du coeur Cjς.
Les triangles sont ensuite construits à partir d'un coeur central et de deux coeurs voisins consécutifs. Ainsi, sur la figure 11A, le triangle 102 est déterminé à partir des coeurs C]<, C]ç ]_, 0^2- Le triangle 104 est déterminé à partir du coeur Ck et de ck,2 et Ck,3- Une f°is qu'un triangle est déterminé, par exemple le triangle 102, tous les pixels qu'il contient sont affectés d'un codage, qui représente ce même triangle. Autrement dit, pour chaque pixel à l'intérieur du triangle dont les sommets sont C^, C^i,
Ckf2> l'interpolation sera faite par rapport à ces trois sommets. De manière plus précise, pour déterminer les pixels appartenant à un triangle de sommet Si, S2, S3, une procédure est appliquée, qui va être décrite en liaison avec la figure 11B :
1. Déterminer les sommets supérieur Si, inférieur S3 et
le sommet "milieu" S2 (situé entre les deux autres sommets, sur un axe vertical) .
2. Diviser la surface du triangle en deux parties séparées par la ligne horizontale L^ qui contient le
sommet "milieu" S2 du triangle.
3. Déterminer les côtés P12, P13 du triangle qui lient
le sommet supérieur Si aux sommets inférieur S3 et
"milieu" S2. 4. Balayer ligne par ligne à partir du sommet supérieur Si et déterminer la tranche de la ligne située entre
les deux côtés définis P12 et P13.
5. Coder les pixels se situant sur la tranche de la ligne, et leur attribuer les trois coeurs Si, S2, S3 constituant les sommets du triangle.
6. À chaque traitement d'un pixel, vérifier si il est codé ou non (on évite ainsi le recouvrement des triangles) . 7. Refaire les mêmes opérations (3-6) pour la partie inférieure du triangle sauf que cette fois-ci on tient compte du côté P23 du triangle qui lie le
sommet "milieu" S2 au sommet inférieur S3.
De préférence, avant de traiter un triangle, on détermine si un des côtés du triangle est aligné horizontalement avec une ligne de pixels ou pas. Si le triangle n'est aligné avec aucune ligne de pixels, on procède de la manière décrite ci-dessus (étapes 1 à 7) . Si un des côtés est aligné avec une ligne de pixels, il n'est alors pas nécessaire de faire la différenciation, pour le triangle concerné, entre partie du haut et partie du bas du triangle. Le fait de faire ce test permet de diviser le temps de traitement par un facteur de l'ordre de 2. En effet, dans le cas particulier d'un triangle dont un des côtés est aligné sur une ligne de pixels, le temps de remplissage du triangle avec les pixels est nettement inférieur au temps de remplissage d'un triangle dont les sommets sont disposés de manière quelconque. La procédure décrite ci-dessus ne permet pas d'inclure tous les pixels dans un triangle. Une fois la procédure de triangulation terminée, il est préférable de vérifier s'il y a des pixels qui n'ont aucun triangle associé. Ceci est aisé puisque, ainsi qu'on l'a dit ci-dessus, dès qu'un pixel est attribué à un triangle, on lui affecte un codage correspondant à ce triangle. Le cas de pixels n'ayant aucun triangle associé va être décrit en liaison avec la figure 11C.
Sur cette figure, on a représenté deux triangles C^,
c kl' Ck2 et CL, CLI, CL2^ déterminés de la manière décrite ci-dessus. Un pixel p (x,y) est compris entre ces deux triangles, mais n'appartient à aucun. Une méthode consiste alors à effectuer une recherche dans une direction spécifique, par exemple la direction horizontale, pour trouver les pixels les plus proches appartenant à un triangle. Par exemple, dans le cas de la figure 11C, une exploration suivant la ligne passant par le pixel p(x,y) permet de déterminer les pixels p(x-dι,y) et p(x+d2,y) situés respectivement à une
distance di et à une distance d2 à gauche et à droite de p(x,y). Ces pixels appartenant chacun à un triangle, ils ont été préalablement codés en fonction du triangle auquel ils appartiennent. Chaque pixel détermine donc un ensemble de trois sommets. Les distances du pixel p(x,y) aux six sommets sont calculées et ordonnées. On en déduit les trois coeurs, ou points représentatifs des coeurs, les plus proches du pixel p(x,y). On associe ces trois coeurs à ce pixel : ainsi, sur la figure 11C, la distance de p(x,y) à chacun des sommets
Ck' ckl' ck2' CL' CL1' CL2 sera successivement calculée. On en déduira que p(x,y) est associé au triangle Cκ, CLι, Cj^-
De cette manière, tous les pixels appartiennent à un triangle et un seul. Le fait de tenir compte des pixels n'appartenant à aucun triangle permet d'améliorer l'image, en particulier au bord, par rapport au cas où on n'en tient pas compte.
La réponse de chaque coeur au signal lumineux qu'il reçoit est définie par la somme des intensités des pixels appartenant à ce coeur. Pour avoir une évaluation exacte de cette réponse, on associe à chaque coeur une surface, par exemple limitée par les médiatrices entre le coeur central C^ (voir figure 7E) et chacun des coeurs voisins Cjςi, Cj^, ••• Ck5> De manière encore plus précise, on prend les médiatrices entre le barycentre (ou le centre, ou le point d'intensité maximale) et le barycentre (ou le centre, ou le point d'intensité maximale) de chacun des coeurs voisins. D'autres délimitations sont possibles, mais celle faite à l'aide des médiatrices permet de diviser la surface du faisceau de coeurs en polygones adjacents ; de plus, chaque pixel de l'image appartient ainsi à une, et seulement une, région Cj<. En outre cette méthode de division est aisée à mettre en oeuvre pour les quelques milliers de coeurs dont on dispose.
La délimitation- de ces coeurs fusionnés par rapport aux autres coeurs, individuels et non fusionnés, se fait de la même manière.
Les techniques de rehaussement de l'image reconstituée, mises en oeuvre dans le cadre de la présente invention, vont être exposées ci-dessous. Le rehaussement du contraste est important lorsque la perception visuelle de l'information dans l'image est limitée par de faibles variations de niveau de gris des différentes structures de l'image. Le rehaussement modifie l'apparence d'une image, de manière à ce qu'un observateur, ou une machine, puisse extraire plus facilement une certaine information désirée.
Les techniques de rehaussement décrites ci- dessous sont basées sur la redéfinition de la valeur des pixels de l'image originale, par modification de l'histogramme. Le rehaussement est obtenu en redéployant l'histogramme des intensités pour donner un poids égale à tous les niveaux de gris. Ainsi, on force des pixels de niveau d'intensité très dense à occuper d'autres niveaux moins denses, et l'échelle des gris est élargie. Ceci a pour conséquence une augmentation sensible du contraste. En fait, cela revient à attribuer à chaque pixel une nouvelle valeur de niveau de gris, par l'intermédiaire d'une fonction F de transformation :
Figure imgf000032_0001
où Ip représente la valeur transformée du pixel p, Ip la valeur originale du pixel p, x,y les coordonnées du pixel p dans l'image, et qi, -.-qm des paramètres de transformation.
Selon une première approche (dite globale) la fonction F est appliquée à chaque pixel, indépendamment de son voisinage , et elle est déterminée à partir de l ' histogramme de toute l ' image . La section de l'histogramme à "élargir" est déterminée à partir d'un seuil S fixé a priori. Les intensités dont le nombre de pixels dépasse le seuil S, font partie de la section à "élargir". La valeur du seuil S est estimée à l'oeil et dépend du niveau du contraste de l'image originale.
Comme la figure 12 le représente, une nouvelle gamme dynamique est définie. Elle est limitée par les deux intensités extrêmes, Imax et min/ de la section. Les L niveaux de gris de la gamme dynamique (par exemple : L=256) sont distribués sur la nouvelle gamme dynamique, afin de déterminer le pas Δq de quantification :
Δq=L/(Imax-Imin+1) Aux intensités appartenant à la gamme dynamique, on attribue une nouvelle valeur selon la relation suivante :
Iρ ≈ (Ip - Imin>xΔq
Pour les intensités qui sont en dehors de la section d'histogramme à "élargir", la transformation est différente : Si Ip < Irain : Ip = Imin '" si
!p > ∑max : xp = Imax-
Ces opérations permettent de répartir les pixels des régions denses dans des régions moins denses et d'obtenir un histogramme élargi et uniforme, donc un meilleur contraste.
Selon une autre approche, dite locale, on prévoit des régions de voisinage centrées sur chaque pixel, et la fonction F est calculée selon l'histogramme cumulé de la région considérée.
La relation suivante décrit la fonction F :
I^=Lx(Hcum(Ip))/(NwxNw) .
où L désigne la gamme dynamique (e.g., 256), Hcum(Ip)
la valeur de l'histogramme cumulé à l'intensité Ip, et
NwxNw la taille de la région (fenêtre glissante) .
Ainsi, la nouvelle valeur du pixel est obtenue en fonction des caractéristiques de son voisinage. Les résultats sont plus satisfaisants que dans le cas de l'approche globale, mais il y a quelques problèmes :
- rehaussement exagéré du bruit, dans des régions homogènes où l'histogramme des intensités présente des pics, - présence d'artefacts, dans les frontières entre les régions balayées par la fenêtre glissante,
- temps de calcul assez important, dû au traitement individuel de chaque pixel de l'image.
Une autre méthode locale permet de résoudre le problème du bruit.
En général, dans les images médicales, il y a deux types de bruit :
- le bruit du fond présent dans la zone "noire" de la gamme dynamique de l'image,
- le bruit dû aux fluctuations dans des régions homogènes de l'objet (l'organe) . Ces variations d' intensité sont parfois interprétées comme la texture de l'organe. En fait, ces deux types de bruit se caractérisent par des variations de niveau de gris dans une gamme étroite de l'histogramme global de l'image. Mais, dans certaines régions de l'image, la contribution du bruit peut être dominante. Après avoir appliqué le rehaussement local de l'histogramme dans ces régions, les fluctuations du bruit deviennent plus visibles. Ce problème peut être résolu, en limitant le niveau du rehaussement dans ces régions.
Pour cela, on caractérise le rehaussement du contraste par la valeur de la pente de la fonction de transformation liant l'intensité d'entrée à l'intensité de sortie. Une pente de valeur 1 ne présente aucun rehaussement, et une valeur élevée de la pente correspond à un rehaussement important. Donc, la limitation du rehaussement du bruit est obtenue en limitant la pente de la fonction de transformation.
D'après la relation ci-dessus, Ip est proportionnelle à Hcum (histogramme cumulé) .
Etant donné que l'histogramme des intensités n'est que la dérivée de l'histogramme cumulé, la pente de la fonction de transformation à une intensité donnée, autrement dit le rehaussement du contraste, est proportionnelle à la valeur de l'histogramme à cette intensité : d(I^)/d(Ip)=(L/(NwxNw))x(Horig(Ip) )
où Horig(Ip) est la valeur de l'histogramme original à
l'intensité Ip.
Donc pour limiter la pente de la fonction, on
limite l'histogramme à une valeur constante (C^) .
En fait cette valeur est un multiple du nombre moyen de pixels par niveau d'intensité. Ce multiple est défini par une constante Cf, fixée a priori :
Figure imgf000036_0001
La constante Cf est choisie selon les caractéristiques de l'image, et elle est fixe pour
toutes les régions. Par contre, la valeur c^ varie selon la taille de la fenêtre. Par exemple, au bord de l'image, où la taille de la fenêtre est plus petite, la
valeur calculée pour cg est plus élevée que celle des autres régions. Après avoir limité l'histogramme, celui-ci est normalisé, car la gamme d'intensités d'entrée est égale à la gamme d'intensités de sortie. Donc l'ensemble des
pixels qui étaient au-delà de la valeur limite c^, est redistribué sur toute la gamme dynamique (Figure 12). Si R est le nombre de pixels redistribués par intensité et S le nombre de pixels dépassant la valeur
cç : R≈S/L.
Ensuite, on redéfinit l'histogramme après la normalisation, de la manière suivante : t - si Horig(Ip) >C£, H (Ip)=C£ t - sinon : H (Ip)=Horig(Ip)+R,
où H (Ip) est la valeur de l'histogramme transformé
pour l'intensité Ip.
A partir de cet histogramme, on détermine le nouvel histogramme cumulé et la fonction de la transformation. La solution aux problèmes de la présence d'artefacts et de temps de calcul important consiste, dans une méthode locale telle qu'exposée ci-dessus de manière générale, à modifier le pas du déplacement de la fenêtre glissante (K.W. Leszczynski et S. Shalev, Image and Vision Computing, vol. 7, N° 3, p. 205-209, 1989) .
L'image est échantillonnée selon une trame définie (rectangulaire, hexagonale) . Les pixels de la trame constituent les centres de la fenêtre glissante.
La fonction F est calculée pour chaque fenêtre.
La valeur obtenue donne la nouvelle valeur d'intensité pour le pixel qui est le centre de la région. Pour les pixels qui ne font pas partie de la trame d'échantillonnage, il faut interpoler la valeur d'intensité des centres les plus proches.
Cette interpolation peut être faite dans deux directions. Mais pour diminuer l'erreur accumulée due à l'interpolation bilinéaire, on ne définit la trame d'échantillonnage que dans une direction (horizontale ou verticale) et la fonction d'interpolation est appliquée sur les pixels colinéaires avec les pixels de la trame. Dans la relation suivante Itp,wo-I tp,wι représentent les valeurs transformées du pixel p(x,y) , obtenues à partir des fonctions calculées dans les deux régions adjacentes centrées respectivement aux pixels
WQ et wi . La valeur d'intensité interpolée lp nt du pixel p est calculée selon la relation suivante :
Ip =Ip , w0+[ax(Ip, w0- Ip,W!)], où d=yp-yw0 et a=d/Nw. Pour les pixels situés au bord de l'image, il y a seulement une région de voisinage, donc l'interpolation n'a pas eu lieu pour ces pixels. Le choix de la direction de l'interpolation dépend de la structure de l'image. Si le contraste varie rapidement selon la direction verticale, l'interpolation horizontale introduit moins d'erreur que l'interpolation verticale.
Cette méthode est moins "lourde" en terme de nombres d'opérations arithmétiques. Par exemple, pour la méthode locale dans sa forme générale exposée ci- dessus, le nombre de multiplications et divisions est égal à environ 3x(NxN), tandis que, selon la version interpolée, ce nombre est 2x(NxN), (NxN) étant la taille de l'image.
Une application de l'invention a été décrite dans le cadre médical.
D'autres applications, dans d'autres domaines, notamment industriels sont également concernés, dès lors qu'un objet est étudié et qu'une image de cet objet est réalisée à l'aide d'une fibre multicoeurs ou d'une multifibre.

Claims

REVENDICATIONS
1. Procédé de traitement d'une image obtenue par une fibre multicoeur ou une multifibre, comportant les étapes suivantes : 1. pour chaque coeur de la fibre multicoeur ou de la multifibre, calcul d'une intensité, égale à la somme des intensités des pixels de l'image qui sont situés à l'intérieur d'une zone, prédélimitée, de délimitation dudit coeur. 2. calcul d'une intensité normalisée de chaque coeur, en divisant son intensité transmise, calculée comme dans l'étape 1, par l'intensité transmise par ce même coeur dans une image de référence.
3. calcul d'une valeur interpolée de l'intensité de chaque pixel de l'image, en fonction des intensités normalisées de trois coeurs d'un maillage triangulaire prédéterminé, et de la position relative du pixel par rapport à ces trois coeurs.
2. Procédé de traitement selon la revendication 1, la zone prédéterminée autour de chaque coeur étant définie sur l'image de référence, cette dernière étant transposée sur l'image objet.
3. Procédé de traitement selon l'une des revendications 1 ou 2, la zone prédélimitée autour de chaque coeur étant la surface délimitée par les médiatrices passant entre le barycentre dudit coeur et le barycentre de chacun des coeurs voisins.
4. Procédé de traitement selon l'une des revendications 1 ou 2, la zone prédélimitée autour de chaque coeur étant la surface délimitée par les médiatrices passant, dans l'image de référence, entre le pixel d'intensité maximum de chaque coeur, et le pixel d'intensité maximum de chacun des coeurs voisins.
5. Procédé selon l'une des revendications 1 à
4, chaque pixel étant muni de l'identification des trois coeurs prédéterminés comme étant les plus proches.
6. Procédé selon l'une des revendications 1 à
5, comportant en outre une étape de rehaussement de l'image objet interpolée.
7. Procédé selon la revendication 6, le rehaussement étant un rehaussement global.
8. Procédé selon la revendication 6, le rehaussement étant local, à l'intérieur d'une fenêtre glissante.
9. Procédé selon la revendication 8, la pente de la fonction de transformation étant limitée.
10. Procédé selon l'une des revendications 1 à
9, comportant au préalable les étapes suivantes de traitement de l'image de référence : l'. recherche du barycentre, ou du pixel d'intensité maximale, de chaque coeur. 2'. calcul d'une zone de délimitation autour de chaque coeur.
11. Procédé selon la revendication 10 comportant le calcul d'un masque numérique qui délimite la zone de l'image à l'intérieur de laquelle la recherche du barycentre, ou du pixel d'intensité maximale, et le calcul de la zone de délimitation autour de chaque coeur doivent être effectués.
12. Procédé selon l'une des revendications 10 ou 11, la recherche du barycentre, ou de pixel d'intensité maximale étant faite après avoir déterminé, pour chaque pixel de l'image de référence, l'ensemble des pixels qui l'entourent et qui sont d'intensité supérieure à un certain seuil donné T.
13. Procédé selon la revendication 12, dans lequel est déterminé, pour chaque pixel de l'image de référence, si il s'agit d'un pixel situé en bord d'image, ou pas.
14. Procédé selon la revendication 12, la détermination des pixels d'intensité supérieure à T évoluant linéairement, et changeant de direction dès qu'un pixel d'intensité inférieure au seuil T est rencontré ou bien dès qu'un pixel de bord est détecté.
15. Procédé selon l'une des revendication 10 à
14, la zone de délimitation associée à chaque coeur étant obtenue en associant, au barycentre ou au pixel d'intensité maximale de chaque coeur, une surface limitée par les médiatrices entre ledit coeur (C]<) et chacun des coeurs voisins (C^i, C^..., Cj^)
16. Procédé selon l'une des revendications 10 à
15, l'étape l' comportant en outre une sous-étape de traitement des coeurs fusionnés, comportant la détermination de la présence de coeurs fusionnés et du barycentre, ou du pixel d'intensité maximale, de chacun des coeurs de chaque groupe de coeurs fusionnés.
17. Procédé selon la revendication 16, la sous- étape de traitement d'un groupe de coeurs fusionnés comportant : - la détermination du barycentre géométrique des pixels faisant partie du groupe de coeurs fusionnés. - la détermination d'une direction de fusion, d'une direction de coupure, et des points de coupure de groupes de coeurs fusionnés. - la coupure du groupe de coeurs fusionnés selon la direction de coupure, en chaque point de coupure.
18. Procédé selon la revendication 10, comportant en outre une étape préalable de détermination d'un maillage triangulaire de l'image de référence, tel que chaque pixel fasse partie d'un triangle.
19. Procédé selon la revendication 18, l'étape de détermination d'un maillage triangulaire comportant :
- une sous-étape de détermination, pour chaque barycentre ou point d'intensité maximale, des barycentres ou points d'intensités maximales immédiatement voisins, et de détermination des pixels qui appartiennent à chaque triangle, formé par deux barycentres ou points d'intensité maximale, choisis voisins l'un de l'autre parmi les barycentres ou points d'intensité maximale immédiatement voisins du barycentre ou point d'intensité maximale considéré, et par ce dernier,
- pour les pixels n'ayant aucun triangle attribué par la sous-étape précédente, une sous étape de :
* recherche des deux pixels les plus proches appartenant à un triangle,
* détermination des trois barycentres, ou points d'intensité maximale, les plus proches du pixel considéré, parmi les six barycentres ou points d'intensité maximale, constituant les sommets des deux triangles auxquels appartiennent les deux pixels les plus proches du pixel considéré.
20. Procédé de traitement d'une image de référence obtenue par une fibre multicoeur ou une multifibre, comportant les étapes suivantes : 1'. recherche du barycentre, ou du pixel d'intensité maximale, de chaque coeur. 2'. calcul d'une zone de délimitation autour de chaque coeur.
21. Procédé selon la revendication 20 comportant au préalable le calcul d'un masque numérique qui. délimite la zone de l'image à l'intérieur de laquelle la recherche du barycentre, ou du pixel d'intensité maximale, et le calcul de la zone de délimitation autour de chaque coeur doivent être effectués.
22. Procédé selon l'une des revendications 20 ou 21, la recherche du barycentre, ou du pixel d'intensité maximale étant faite après avoir déterminé, pour chaque pixel de l'image de référence, l'ensemble des pixels qui l'entourent et qui sont d'intensité supérieure à un certain seuil donné T.
23. Procédé selon la revendication 22, dans lequel est déterminé, pour chaque pixel de l'image de référence, si il s'agit d'un pixel situé en bord d'image, ou pas.
24. Procédé selon la revendication 22, la détermination des pixels d'intensité supérieure à T évoluant linéairement, et changeant de direction dès qu'un pixel d'intensité inférieure au seuil T est rencontré ou bien dès qu'un pixel de bord est détecté.
25. Procédé selon l'une des revendication 20 à 24, la zone de délimitation associée à chaque coeur étant obtenue en associant, au barycentre ou au pixel d'intensité maximale de chaque coeur, une surface limitée par les médiatrices entre ledit coeur (Cjç) et chacun des coeurs voisins (C^i, C^..., Cj^)
26. Procédé selon l'une des revendications 20 à 25, l'étape l' comportant en outre une sous-étape de traitement des coeurs fusionnés, comportant la détermination de la présence de coeurs fusionnés et du barycentre, ou du pixel d'intensité maximale, de chacun des coeurs de chaque groupe de coeurs fusionnés.
27. Procédé selon la revendication 26, la sous- étape de traitement d'un groupe de coeurs fusionnés comportant :
- la détermination du barycentre géométrique des pixels faisant partie du groupe de coeurs fusionnés.
- la détermination d'une direction de fusion, d'une direction de coupure, et des points de coupure de groupes de coeurs fusionnés.
- la coupure du groupe de coeurs fusionnés selon la direction de coupure, en chaque point de coupure.
28. Procédé selon la revendication 20, comportant en outre une étape préalable de détermination d'un maillage triangulaire de l'image de référence, tel que chaque pixel fasse partie d'un triangle.
29. Procédé selon la revendication 28, l'étape de détermination d'un maillage triangulaire comportant :
- une sous-étape de détermination, pour chaque barycentre ou point d'intensité maximale, des barycentres ou points d'intensités maximales immédiatement voisins, et de détermination des pixels qui appartiennent à chaque triangle, formé par deux barycentres ou points d'intensité maximale, choisis voisins l'un de l'autre parmi les barycentres ou points d'intensité maximale immédiatement voisins du barycentre ou point d'intensité maximale considéré, et par ce dernier,
- pour les pixels n'ayant aucun triangle attribué par la sous-étape précédente, une sous étape de : * recherche des deux pixels les plus proches appartenant à un triangle,
* détermination des trois barycentres, ou points d'intensité maximale, les plus proches du pixel considéré, parmi les six barycentres ou points d'intensité maximale, constituant les sommets des deux triangles auxquels appartiennent les deux pixels les plus proches du pixel considéré.
30. Procédé pour établir une image médicale, comportant :
- l'établissement d'une image d'une partie d'un patient, à l'aide d'une fibre multicoeur,
- le traitement de l'image selon l'une des revendications 1 à 19.
31. Procédé pour établir un diagnostic médical, mettant en oeuvre un procédé pour établir une image, selon la revendication 30, le diagnostic étant réalisé sur le lieu où l'image a été établie.
32. Procédé pour établir un diagnostic médical, mettant en oeuvre un procédé pour établir une image, selon la revendication 30, le diagnostic étant réalisé à distance du lieu où l'image a été établie.
33. Dispositif pour traiter une image obtenue par une fibre multicoeur ou une multifibre, comportant :
1. Des moyens pour calculer, pour chaque coeur de la fibre multicoeur ou de la multifibre, une intensité transmise égale à la somme des intensités des pixels de l'image qui sont situés à l'intérieur d'une zone, prédélimitée, de délimitation dudit coeur.
2. Des moyens pour calculer une intensité normalisée de chaque coeur, à partir de son intensité transmise, calculée comme dans l'étape 2, par l'intensité transmise par ce même coeur dans une image de référence. 3. Des moyens pour le calcul d'une valeur interpolée de l'intensité de chaque pixel de l'image, en fonction des intensités normalisées de trois coeurs d'un maillage triangulaire prédéterminé, et de la position relative du pixel par rapport à ces trois coeurs.
34. Dispositif selon la revendication 33 comportant en outre des moyens pour transposer l'image de référence sur chaque image objet.
35. Dispositif selon l'une des revendications 33 ou 34, comportant en outre des moyens pour munir chaque pixel de l'identification des trois coeurs prédéterminés comme étant les plus proches.
36. Dispositif selon l'une des revendications
33 à 35, comportant en outre des moyens pour réaliser un rehaussement de l'image objet interpolée.
37. Dispositif selon l'une des revendications 33 à 36, comportant : 1' . Des moyens pour rechercher un barycentre, ou un pixel d'intensité maximale, de chaque coeur d'une image de référence. 2' . Des moyens de calcul d'une zone de délimitation autour de chaque coeur.
38. Dispositif selon la revendication 37, comportant des moyens de calcul d'un masque numérique qui délimite une zone d'une image.
39. Dispositif selon l'une des revendications
37 ou 38, comportant des moyens pour déterminer, pour chaque pixel de l'image de référence, l'ensemble des pixels qui l'entourent, et qui sont d'intensité supérieure à un certain seuil donné T.
40. Dispositif selon la revendication 39, comportant des moyens pour déterminer, pour chaque pixel d'une image de référence, le nombre de pixels immédiatement voisins.
41. Dispositif selon l'une des revendications
37 à 40, comportant en outre des moyens pour déterminer la présence de coeurs fusionnés, et déterminer le barycentre, ou pixel d'intensité maximale, de chacun des coeurs de chaque groupe de coeurs fusionnés.
42. Dispositif selon la revendication 41, comportant :
- des moyens pour déterminer le barycentre géométrique des pixels faisant partie d'un groupe de coeurs fusionnés. - des moyens pour déterminer une direction de fusion, une direction de coupure, et des points de coupure de groupes de coeurs fusionnés.
- des moyens pour déterminer la coupure du groupe de coeurs fusionnés selon la direction de coupure, en chaque point de coupure.
43. dispositif selon la revendication 37, comportant en outre des moyens de détermination d'un maillage triangulaire d'une image de référence.
44. Dispositif pour l'établissement d'une image médicale, comportant une fibre multicoeur et un dispositif selon l'une des revendications 33 à 43.
PCT/EP1997/002053 1996-05-02 1997-04-22 Procede de traitement d'images obtenues par fibres multicoeurs ou multifibres, en particulier d'images endoscopiques WO1997042600A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US1670396P 1996-05-02 1996-05-02
US60/016,703 1996-05-02

Publications (1)

Publication Number Publication Date
WO1997042600A1 true WO1997042600A1 (fr) 1997-11-13

Family

ID=21778501

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP1997/002053 WO1997042600A1 (fr) 1996-05-02 1997-04-22 Procede de traitement d'images obtenues par fibres multicoeurs ou multifibres, en particulier d'images endoscopiques

Country Status (2)

Country Link
US (2) US5878159A (fr)
WO (1) WO1997042600A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2842628A1 (fr) * 2002-07-18 2004-01-23 Mauna Kea Technologies "procede de traitement d'une image acquise au moyen d'un guide compose d'une pluralite de fibres optiques"

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6648640B2 (en) 1999-11-30 2003-11-18 Ora Metrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US6574356B1 (en) * 2000-04-19 2003-06-03 National Science Council Method for three-dimensional image reconstruction of basal ganglion
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
US6835173B2 (en) * 2001-10-05 2004-12-28 Scimed Life Systems, Inc. Robotic endoscope
US6770027B2 (en) * 2001-10-05 2004-08-03 Scimed Life Systems, Inc. Robotic endoscope with wireless interface
US20050038322A1 (en) * 2003-08-11 2005-02-17 Scimed Life Systems Imaging endoscope
JP4698966B2 (ja) * 2004-03-29 2011-06-08 オリンパス株式会社 手技支援システム
US7760938B1 (en) * 2004-10-12 2010-07-20 Melexis Tessenderlo Nv Algorithm to enhance the contrast of a monochrome image
US7738698B2 (en) * 2006-01-26 2010-06-15 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and apparatus for adjusting the contrast of an image
DE102006004006B3 (de) * 2006-01-27 2007-07-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Erzeugung eines hoch aufgelösten Bildes für faseroptische Systeme
DE102006011707B4 (de) * 2006-03-14 2010-11-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme
US7289707B1 (en) * 2006-05-12 2007-10-30 Np Photonics, Inc Multi-core optical fiber image amplifier and method of drawing
DE102007026595A1 (de) * 2007-06-08 2008-12-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Kompensation von Farbverschiebungen in faseroptischen Abbildungssystemen
US8520916B2 (en) * 2007-11-20 2013-08-27 Carestream Health, Inc. Enhancement of region of interest of radiological image
WO2009120228A1 (fr) * 2008-03-24 2009-10-01 General Electric Company Systèmes de traitement d’image et procédés pour applications chirurgicales
US8270762B1 (en) * 2008-09-27 2012-09-18 Schott Corporation Automated light-line calibration system and method of calibrating an optical fiber light line assembly
KR101544914B1 (ko) * 2009-02-12 2015-08-17 삼성전자주식회사 보간 픽셀을 생성하는 방법
CN103959328B (zh) 2011-05-16 2017-08-15 莫纳克亚技术公司 基于光纤的显微图像的连续和实时校准方法及对应的装置
US8942530B2 (en) 2011-09-20 2015-01-27 San Marino Capital, Inc. Endoscope connector method and apparatus
JP6799835B2 (ja) * 2015-08-27 2020-12-16 バー‐イラン、ユニバーシティーBar−Ilan University マルチ光結合チャネルモジュールおよび関連する計算方法
JP6654051B2 (ja) * 2016-01-15 2020-02-26 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察システム
JP6639920B2 (ja) * 2016-01-15 2020-02-05 ソニー・オリンパスメディカルソリューションズ株式会社 医療用信号処理装置、及び医療用観察システム
US10288803B2 (en) * 2016-01-20 2019-05-14 Schott Corporation, Inc. Foveal image inverter

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4574311A (en) * 1985-04-04 1986-03-04 Thinking Machines Corporation Random array sensing devices
US5257100A (en) * 1990-09-28 1993-10-26 Olympus Optical Co., Ltd. Apparatus for reducing network patterns from the image of a fiber scope

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5810032A (ja) * 1981-07-09 1983-01-20 オリンパス光学工業株式会社 内視鏡
US5784162A (en) * 1993-08-18 1998-07-21 Applied Spectral Imaging Ltd. Spectral bio-imaging methods for biological research, medical diagnostics and therapy
US5231580A (en) * 1991-04-01 1993-07-27 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Automated method and apparatus for determining characteristics of nerve fibers
JPH05328121A (ja) * 1992-05-20 1993-12-10 Ricoh Co Ltd 画像処理方法およびその装置
US5535002A (en) * 1995-04-27 1996-07-09 At&T Corp. Band matching system and method for enabling accurate determination of a disparity between two surfaces using an interferometer
US5809162A (en) * 1995-12-22 1998-09-15 Lucent Technologies Inc. Surface analysis system and method
US5956447A (en) * 1996-05-07 1999-09-21 Univ Central Florida Device and method for image acquisition through multi-mode fiber
US5751340A (en) * 1996-08-21 1998-05-12 Karl Storz Gmbh & Co. Method and apparatus for reducing the inherently dark grid pattern from the video display of images from fiber optic bundles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4574311A (en) * 1985-04-04 1986-03-04 Thinking Machines Corporation Random array sensing devices
US5257100A (en) * 1990-09-28 1993-10-26 Olympus Optical Co., Ltd. Apparatus for reducing network patterns from the image of a fiber scope

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CONDE R. ET AL.: "Measurements of the Point Spread Function for Multicore Fibers Used as Image Guides in Microendoscopy (Medical Cavities Visualization)", OPTICAL ENGINEERING, vol. 34, no. 7, July 1995 (1995-07-01), USA, pages 2092 - 2102, XP000517076 *
FOLEY T. A. & HAGEN H.: "Advances in Scattered Data Interpolation", SURVEYS ON MATHEMATICS FOR INDUSTRY, vol. 4, no. 2, 1994, AUSTRIA, pages 71 - 84, XP000575715 *
KOMIYAMA A. & HASHIMOTO M.: "Crosstalk and Mode Coupling between Cores of Image Fibers", ELECTRONICS LETTERS, vol. 25, no. 16, 3 August 1989 (1989-08-03), GB, pages 1101 - 1103, XP000071925 *
SARTOTETTO F.: "Conversion of Data Between Triangular and Rectangular Meshes for Pre- and Post-processing in Hydrologic Problems", MICROSOFTWARE FOR ENGINEERS, vol. 1, no. 2, October 1985 (1985-10-01), UK, pages 133 - 136, XP000575716 *
STARINK, J.P.P. & I.T. YOUNG: "Localization of circular objects", PATTERN RECOGNITION LETTERS, vol. 14, no. 11, November 1993 (1993-11-01), AMSTERDAM, NL, pages 895 - 905, XP000403548 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2842628A1 (fr) * 2002-07-18 2004-01-23 Mauna Kea Technologies "procede de traitement d'une image acquise au moyen d'un guide compose d'une pluralite de fibres optiques"
WO2004010377A1 (fr) 2002-07-18 2004-01-29 Mauna Kea Technologies Procede de traitement d'une image acquise au moyen d'un guide compose d'une pluralite de fibres optiques
AU2003269019B2 (en) * 2002-07-18 2009-09-10 Mauna Kea Technologies Method for processing an image acquired through a guide consisting of a plurality of optical fibers
US7903848B2 (en) 2002-07-18 2011-03-08 Mauna Kea Technologies Method for processing an image acquired through a guide consisting of a plurality of optical fibers
CN1679053B (zh) * 2002-07-18 2013-07-17 莫纳基技术公司 用于处理通过包含多个光纤的波导获取的图像的方法

Also Published As

Publication number Publication date
US5878159A (en) 1999-03-02
US6157748A (en) 2000-12-05

Similar Documents

Publication Publication Date Title
WO1997042600A1 (fr) Procede de traitement d&#39;images obtenues par fibres multicoeurs ou multifibres, en particulier d&#39;images endoscopiques
EP1702304B1 (fr) Procede et systeme de super-resolution d&#39;images confocales acquises a travers un guide d&#39;image, et dispositif utilise pour la mise en oeuvre d&#39;un tel procede
EP0840252B1 (fr) Procédé de traitement d&#39;image numérique pour l&#39;extraction automatique d&#39;objets en forme de rubans
EP1523731B1 (fr) Procede de traitement d&#39;une image acquise au moyen d&#39;un guide compose d&#39;une pluralite de fibres optiques
EP1523270B1 (fr) Procede et appareillage d&#39;imagerie de fluorescence haute resolution par fibre optique et notamment d&#39;imagerie confocale
JP2020535502A (ja) 組織画像からのアーチファクト除去
EP0287409B1 (fr) Procédé de calcul et de représentation d&#39;images de vues d&#39;un objet
FR2719463A1 (fr) Procédé de métrologie optique.
EP0822515A1 (fr) Procédé de segmentation automatique d&#39;une image numérique et dispositif mettant en oeuvre ce procédé
EP0755023A1 (fr) Procédé de filtrage spatial du bruit dans une image numérique, et dispositif mettant en oeuvre ce procédé
EP0379399A1 (fr) Procédé de calcul et d&#39;exploitation de l&#39;image en projection conique, par exemple au sens des rayons x, d&#39;un objet tridimensionnel echantillonné, et procédé de reconstruction tridimensionnelle d&#39;un objet étudié utilisant ce procédé de calcul
FR2884013A1 (fr) Systeme et procede d&#39;amelioration d&#39;images volumetriques
WO2013098512A1 (fr) Procédé et dispositif de détection et de quantification de signes cutanés sur une zone de peau
CN102481117A (zh) 用于探测在三维重建中的不良质量的系统和方法
FR2587191A1 (fr) Procede et dispositif de mesure de la direction du regard
EP0927953A1 (fr) Procédé de traitement d&#39;une image multidimensionelle bruitée et appareil d&#39;imagerie médicale mettant en oeuvre ce procédé
CN107621463A (zh) 图像重建方法、装置及显微成像装置
CN102438524A (zh) 适于伪投影的模式噪声校正
EP1190208B1 (fr) Procede de mesurage d&#39;un objet tridimensionnel, ou d&#39;un ensemble d&#39;objets
Dumripatanachod et al. A fast depixelation method of fiber bundle image for an embedded system
FR2570206A1 (fr) Appareil pour detecter et classer les caracteristiques de formes de surface de peau
FR2701766A1 (fr) Procédé d&#39;acquisition et de traitement de l&#39;image d&#39;un article plan, du type étoffe de tissu, en vue de la détection de défauts de fabrication.
EP0756152B1 (fr) Procédé et dispositif de détection de l&#39;état de surface de pièces à surface réfléchissante, applicable au contrôle de rugosité de pièces polies
FR3108176A1 (fr) Dispositif de détection de défauts de surface sur au moins une face terminale d’au moins une fibre optique.
Vanhoutte et al. Analyzing the reflections from single ommatidia in the butterfly compound eye with Voronoi diagrams

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP AM AZ BY KG KZ MD RU TJ TM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: JP

Ref document number: 97539475

Format of ref document f/p: F

122 Ep: pct application non-entry in european phase