WO2019243725A1 - Procede et dispositif de comptage de thrombocytes dans un echantillon - Google Patents

Procede et dispositif de comptage de thrombocytes dans un echantillon Download PDF

Info

Publication number
WO2019243725A1
WO2019243725A1 PCT/FR2019/051480 FR2019051480W WO2019243725A1 WO 2019243725 A1 WO2019243725 A1 WO 2019243725A1 FR 2019051480 W FR2019051480 W FR 2019051480W WO 2019243725 A1 WO2019243725 A1 WO 2019243725A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sample
image sensor
reconstruction
interest
Prior art date
Application number
PCT/FR2019/051480
Other languages
English (en)
Inventor
Pierre BLANDIN
Anais ALI-CHERIF
Olivier CIONI
Estelle GREMION
Pierre Joly
Original Assignee
Commissariat à l'énergie atomique et aux énergies alternatives
Horiba Abx Sas
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat à l'énergie atomique et aux énergies alternatives, Horiba Abx Sas filed Critical Commissariat à l'énergie atomique et aux énergies alternatives
Publication of WO2019243725A1 publication Critical patent/WO2019243725A1/fr

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Electro-optical investigation, e.g. flow cytometers
    • G01N15/1468Electro-optical investigation, e.g. flow cytometers with spatial resolution of the texture or inner structure of the particle
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • G01N2015/018
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Electro-optical investigation, e.g. flow cytometers
    • G01N15/1434Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement
    • G01N2015/1454Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement using phase shift or interference, e.g. for improving contrast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Electro-optical investigation, e.g. flow cytometers
    • G01N2015/1486Counting the particles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • G03H2001/0447In-line recording arrangement

Definitions

  • the technical field of the invention is the observation of a sample, in particular a sample comprising small particles, by imaging without a lens, or by so-called defocused imaging.
  • Lensless imaging has developed in recent years, and its applications for the characterization of samples are increasing, for example in the field of medical diagnosis, cell culture, biological analysis or in the field of agribusiness.
  • This technique makes it possible to obtain, at low cost, an image of a sample according to a high field of observation.
  • the application of holographic reconstruction algorithms to images obtained according to a lensless configuration makes it possible to obtain exploitable images of samples, which constitutes a low-cost alternative to conventional microscopy, while benefiting from a field of view. extended observation.
  • the document WO2016118884 describes an iterative method making it possible to count particles of small sizes distributed on the surface of a support. The largest particles are first detected. As iterations progress, smaller particles are detected. It should be noted that in this document, the particles are considered to be coplanar. For each of them, an optimal reconstruction distance is obtained, in order to take account of an inclination of the support relative to an image sensor.
  • the document WO2018057972 describes a method making it possible to identify living yeasts from dead yeasts. The yeasts are distributed on the same surface. The field of observation can be divided into several zones, in order to take account of an inclination of the surface relative to an image sensor. A focusing distance is thus assigned to each zone.
  • a difficulty associated with the application of holographic reconstruction algorithms is that it is necessary to know the distance between the image sensor and the sample.
  • the position of these latter, relative to the image sensor can vary, in the thickness of the sample.
  • the images obtained by holographic reconstruction can be clear for certain particles, for which the distance, relative to the image sensor, corresponds to the reconstruction distance taken into account.
  • the images obtained by holographic reconstruction are blurred for particles whose distance, relative to the image sensor, is different from the reconstruction distance taken into account. This property is exploited in digital focusing algorithms, the latter being intended to estimate a distance between a particle and an image sensor.
  • the implementation of digital focusing algorithms can prove to be difficult to carry out a precise counting of the particles, distributed in a volume, and present in the observed field.
  • the inventors have developed a method for more precise counting of particles in a sample.
  • a first object of the invention is a method of counting particles in a sample, the sample comprising a medium in which the particles are immersed, the medium being held by a holding element, the medium preferably being stationary relative to the holding element, the method comprising the following steps:
  • step c) from the image acquired during step b), application of a digital propagation operator to obtain a complex expression of the exposure light wave in different reconstruction planes, each reconstruction plan being associated at a reconstruction distance, relative to the image sensor;
  • each reconstructed image being obtained from the module and / or from the argument of a complex expression in a reconstruction plane, each reconstructed image being associated with a different reconstruction distance one from the other ;
  • step f from the regions of interest isolated in step e), estimation of a quantity of particles in the sample.
  • the method performs a combination of holographic reconstruction techniques and image segmentation, which is particularly suitable for samples comprising a large number of particles distributed in a volume. This in particular makes it possible to avoid making a determination of the position of each particle, taken individually.
  • the holding element has the function of maintaining or confining the environment in which the particles are immersed.
  • the sample can be placed on a support to hold the sample between the image sensor and the light source.
  • the reconstruction distances can be obtained by determining a focusing distance, corresponding to a distance, relative to the image sensor, to which a maximum number of particles are located, each reconstruction distance being established by applying an offset with respect to the focusing distance.
  • the difference between two successive reconstruction distances corresponds to a reconstruction step, the reconstruction step preferably being less than 20 ⁇ m.
  • the particles are preferably inscribed in a circle or in a sphere whose diameter is less than 20 ⁇ m or 10 ⁇ m or 5 ⁇ m.
  • the particles may in particular be thrombocytes, that is to say blood platelets.
  • the segmentation of each reconstructed image can be carried out by applying a thresholding, according to an intensity threshold, on each reconstructed image.
  • Each reconstructed image comprising pixels, the value of the intensity threshold can be variable from one pixel to another.
  • the value of the intensity threshold at one pixel can be established by:
  • the method may include a step of analyzing the regions of interest resulting from step e), so as to:
  • regions of interest encompassing several particles into different regions of interest comprising only one particle.
  • a region of interest whose extent is limited to one pixel is only taken into account if it appears in two adjacent reconstructed images.
  • the light source can be a laser source.
  • the light wave emitted by the light source has a spectral bandwidth less than 10 nm.
  • the light wave emitted by the light source has a spectral band centered on a wavelength less than 500 nm, and preferably between 400 nm and 500 nm, or between 400 nm and 450 nm.
  • a second object of the invention is a device for counting particles of a sample, comprising:
  • a processor configured to receive an image of the sample acquired by the image sensor and to implement steps c) to f) of a method according to the first object of the invention.
  • no image forming optics are arranged between the sample and the image sensor.
  • the device comprises an optical system defining a focusing configuration, according to which the image sensor is conjugated with a plane passing through the sample, the device being such that the image sensor or the sample are offset from the focusing configuration, so that during step b), the image sensor acquires a defocused image of the sample.
  • Figures IA and IB represent examples of devices allowing an implementation of the invention.
  • FIGS. 2A and 2B are reconstructed images, called module images, or amplitude image, of a sample comprising plates.
  • Figure 3 shows schematically the main steps of a method according to the invention.
  • FIGS. 4A, 4B and 4C show the influence of an adjustment of an image segmentation parameter on the identification of regions of interest, the latter being associated with particles.
  • FIGS. 5A and 5B, as well as 5C and 5D, illustrate the application of filtering of the watershed type on regions of interest.
  • Figures 5A and 5C are figures before filtering.
  • Figures 5B and 5D are figures obtained respectively after applying a filtering of Figures 5A and 5C.
  • FIG. 6 represents the number of particles counted by implementing the invention (ordinate axis) as a function of the number of particles counted according to a reference method (abscissa axis).
  • the results of measurements have been compared respectively without taking into account the regions of monopixel interest, comprising only one pixel, and with taking into account certain regions of monopixel interest.
  • FIGS. 7A, 7B and 7C represent the number of particles counted by implementing the invention (ordinate axis) as a function of the number of particles counted according to a reference method (abscissa axis).
  • FIG. 7 A there is a laser diode emitting in purple / blue, as well as a light emitting diode emitting in blue.
  • FIG. 7B different laser diodes emitting either in purple / blue or in red were used.
  • FIG. 7C a laser diode emitting in purple / blue was used, as well as a light emitting diode emitting in red.
  • FIG. 8 is another example of a device suitable for implementing the invention.
  • FIG. 1A represents an example of a device according to the invention.
  • a light source 11 is configured to emit a light wave 12, called an incident light wave, propagating in the direction of a sample 10, along a propagation axis Z.
  • the light wave 12 is emitted according to a spectral illumination band dl.
  • Sample 10 is a sample that we wish to characterize.
  • the sample comprises a 10 m medium, for example a liquid medium, in which 10 p particles are immersed.
  • the 10 p particles can be cells, or cell fragments, or microorganisms, or microalgae, or their fragments.
  • the term particles can also denote solid particles, in particular microbeads, for example metallic microbeads, glass microbeads or organic microbeads, commonly used in biological protocols. They may also be insoluble droplets bathing in a liquid medium, for example lipid droplets in an oil-in-water emulsion.
  • the term particle designates both endogenous particles, initially present in the sample examined, and exogenous particles, added to this sample before analysis.
  • the invention is particularly intended for small particles.
  • small particle means a particle inscribed in a circle or in a sphere whose diameter is less than 20 ⁇ m, and preferably less than 10 ⁇ m or 5 ⁇ m.
  • a targeted application is the counting of blood platelets (thrombocytes). More generally, the particles are small relative to the thickness of the sample, for example being at least 5 times or 10 times smaller than the thickness of the sample.
  • the medium 10m can be a solid medium or a medium forming a gel.
  • the 10m medium can comprise a body fluid, for example, and without limitation, blood plasma, urine, lymph or cerebrospinal fluid.
  • the 10 m medium is preferably transparent or translucent.
  • the invention is particularly suitable for small particles.
  • the sample 10 is maintained by a holding element 15.
  • the function of the holding element 15 is to maintain the medium 10 m in which the particles 10 p are arranged.
  • the holding element 15 is preferably transparent or translucent, in particular between the light source and the sensor.
  • the holding element 15 can be a transparent blade, for example a glass slide, or even a well plate, or an enclosure.
  • the holding element 15 is a fluid chamber.
  • the thickness e of the sample 10, along the propagation axis Z typically varies between 10 ⁇ m and 1 cm, and is preferably between 20 ⁇ m and 1 mm.
  • the sample 10 is maintained on a support 10s at a distance d from an image sensor 20.
  • the medium 10 m in which the particles 10 p are bathed is preferably immobile with respect to the holding element 15 or with respect to to the image sensor 20.
  • the particles 10 p can be stationary relative to the holding element 15 or relative to the image sensor 20.
  • the distance D between the light source 11 and the fluid chamber 15 is preferably greater than 1 cm. It is preferably between 2 and 30 cm.
  • the light source 11, seen by the sample is considered to be punctual. This means that its diameter (or its diagonal) is preferably less than a tenth, better a hundredth of the distance between the fluid chamber 15 and the light source 11.
  • the light source is preferably a point source, for example a laser light source or a light emitting diode. As described below, better results are obtained when the light source is a laser source, due to a narrower emission spectral band.
  • the light source 11 When the light source 11 is a light emitting diode, it is preferably associated with a diaphragm 18, forming a spatial filter, as shown in FIG. 1B.
  • the aperture of the diaphragm is typically between 5 pm and 1 mm, preferably between 50 pm and 500 pm, for example 150 pm.
  • the diaphragm can be replaced by an optical fiber, a first end of which is placed opposite the light source 11 and a second end of which is placed opposite the sample 10.
  • a diffuser 17 can be placed between the light-emitting diode and the diaphragm, as described in document US2017317125.
  • the emission spectral band D1 of the incident light wave 12 has a bandwidth less than 100 nm, and preferably less than 20 nm, or even 10 nm.
  • spectral bandwidth is meant a width at half height of said spectral band.
  • the narrower the spectral band the better the particle counting accuracy.
  • the sample 10 is placed between the light source 11 and an image sensor 20.
  • the image sensor 20 is able to form an image I 0 of the sample 10 according to a detection plane P 0 .
  • the acquired image is also designated by the term "hologram". In the example shown, it is an image sensor comprising a pixel matrix, of CCD type or a CMOS.
  • the pixel matrix forms the detection plane P 0 .
  • the detection plane P 0 preferably extends perpendicular to the axis of propagation Z of the incident light wave 12.
  • the detection plane extends along a radial plane XY, defined by two axes X and Y, the plane radial being perpendicular to the axis of propagation Z.
  • the distance d between the sample 10 and the pixel matrix of the image sensor 20 is preferably between 50 pm and 2 cm, preferably between 100 pm and 2 mm.
  • the particles 10 p present in the sample can generate a diffracted wave 13, capable of producing, at the level of the detection plane P 0 , interference, in particular with a portion of the incident light wave 12 'transmitted by the sample.
  • the light wave 14, transmitted by the sample, and to which the image sensor 20 is exposed designated by the term "exposure wave" can comprise:
  • a component 12 ’ resulting from the transmission of the incident light wave 12 by the sample, part of the latter being able to be absorbed and phase-shifted in the sample.
  • the image acquired by the image sensor includes interference patterns (or diffraction patterns), due to the different particles 10 p of the sample.
  • a processor 21, for example a microprocessor is able to process each image I 0 acquired by the image sensor 20, according to the steps described below.
  • the processor is a microprocessor connected to a programmable memory 22 in which is stored a sequence of instructions for performing the image processing and calculation operations described in this description.
  • the processor can be coupled to a screen 24 allowing the display of images acquired by the image sensor 20 or calculated by the processor 21.
  • an image I 0 acquired by the image sensor 20, also called a hologram does not allow a sufficiently precise representation of the observed sample to be obtained.
  • the acquired image I 0 may in particular include a large number of interference patterns, and may not be easily usable to identify the particles present in the sample and to count them.
  • a holographic propagation operator h can be applied to the image I 0 acquired by the image sensor, so as to calculate a complex quantity representative of the exposure light wave 14. It is then possible to reconstruct a complex expression A of the exposure light wave 14 at any point of coordinates (x, y, z) of space, and in particular in a reconstruction plane P z located at a distance
  • the function of the propagation operator h is to describe the propagation of light between the image sensor 20 and a point of coordinates (x, y, z), located at a distance
  • the propagation operator is for example the Fresnel-Helmholtz function, such as:
  • the complex expression A of the light wave 14, at any point of coordinates (x, y, z) of space is such that:
  • the coordinates (x, y) designate a radial position in a radial plane XY parallel to the detection plane P 0 .
  • the z coordinate designates a coordinate along the propagation axis Z.
  • the complex expression A is a complex quantity whose argument and modulus are respectively representative of the phase and of the intensity of the light wave 14 of exposure detected by the image sensor 20.
  • the convolution product of the image I 0 by the propagation operator h makes it possible to obtain a complex image A z representing a spatial distribution of the complex expression A in a reconstruction plane P z , extending at a distance
  • the complex image A z corresponds to a complex image of the sample in the reconstruction plane P z .
  • Image A z also represents a two-dimensional spatial distribution of the complex expression of the exposure wave 14.
  • Such a process designated by the term holographic reconstruction, makes it possible in particular to reconstruct an image of the module or of the phase of the exposure light wave 14 in the reconstruction plan.
  • an image obtained from the module or from the phase of a complex image is designated by the term "reconstructed image”.
  • the application of a holographic reconstruction operator from an acquired image, according to expression (1), can be accompanied by the formation of noise affecting the reconstructed images.
  • the application of the holographic reconstruction operator is carried out according to iterative holographic reconstruction algorithms.
  • Such reconstruction algorithms are for example described:
  • FIGS. 2A and 2B were obtained by applying a holographic reconstruction algorithm to an image acquired by an image sensor 20.
  • the sample observed was a sample of blood plasma rich in platelets (PRP - acronym of Platelet - Rich Plasma), obtained by centrifugation of a blood plasma.
  • PRP blood plasma rich in platelets
  • the sample 10 was placed in a fluid chamber 15 of thickness e equal to 100 ⁇ m, placed at a distance of 1 mm an IDS UI-1492LE type image sensor.
  • a holographic reconstruction algorithm described in WO2017162985 was applied to an image I 0 acquired by the image sensor, by considering respectively two reconstruction distances ZL and z 2 .
  • the reconstruction distances respectively define two reconstruction planes P 1 and P 2 , extending in the sample, parallel to the detection plane P 0 .
  • Two complex images A 1 and A 2 were thus obtained representative of a complex expression of the exposure light wave 14 in each reconstruction plane P 1 and P 2 considered.
  • FIGS. 2A and 2B correspond respectively to the modulus of each complex image obtained. These are images of the module M 1 and M 2 , respectively representative of the module of the light wave of exposure 14 at the distances ZL and z 2 relative to the detection plane P 0 .
  • the difference z 2 - ZL between the two reconstruction distances is small, preferably less than or equal to 20 pm, and preferably less than or equal to 10 pm.
  • a part of the plates appearing in each of these figures are surrounded by a black dotted circle in the two figures.
  • certain plates are visible in FIG. 2B and not in FIG. 2A, the latter being circumvented by a white dotted circle in FIG. 2B.
  • certain particles suddenly appear or disappear.
  • plates when plates are visible in the two consecutive figures, they appear slightly contrasted.
  • the use of reconstructed images makes it possible to perform a three-dimensional localization of the particles, by implementing a digital focusing algorithm, known in the field of digital holography.
  • a digital focusing algorithm known in the field of digital holography.
  • a plurality of images reconstructed according to different reconstruction distances are considered, these images forming a stack of images.
  • an evolution of a sharpness indicator is established on the different reconstructed images.
  • the coordinate, along the Z axis, of the particle considered corresponds to the coordinate of the reconstructed image for which the sharpness indicator is the highest.
  • the inventors have implemented a method, combining holographic image reconstruction and segmentation of reconstructed images, the main steps of which are described below, in connection with FIG. 3, in order to obtain a reliable count of particles of small size, such as platelets, in a sample.
  • Step 100 Illumination of the sample 10 and acquisition of an image I 0 of the sample 10 by the image sensor 20, this image forming a hologram.
  • One advantage of the lensless configuration, shown in FIGS. 1A or 1B, is the wide field observed, making it possible to simultaneously address a high volume of sample.
  • the field observed depends on the size of the image sensor, being slightly smaller than the detection surface of the latter, due to the spacing between the pixels of the image sensor and the sample.
  • the field observed is generally greater than 10 mm 2 , and is typically between 10 mm 2 and 50 mm 2 , which is significantly higher than with a conventional microscope. In applications related to particle counting, this allows counting based on a small number of acquired images.
  • Tests were carried out by considering several sources of light, in different spectral bands, and of different temporal coherences. These tests are described below in connection with FIGS. 7A to 7C.
  • Step 110 Obtaining a stack of complex images.
  • This step includes a reconstruction of several complex images by performing digital reconstructions at different reconstruction distances z ; of the detection plan P 0 .
  • Each index j is a natural integer representing a reconstruction distance, with 1 £ j £ J, J being the number of complex images A j in the image stack.
  • the reconstruction distances z can be established by determining a focusing distance Zf, at which most of the wafers are found, or a large number of wafers, the focusing distance being obtained by a digital focusing algorithm.
  • the reconstruction distances z can then be determined by operating a progressive shift from the focusing distance Zf.
  • the respective reconstruction distances z ; , z J + 1 of two adjacent reconstructed images A j , A z can be separated by a distance comparable to the particle size.
  • the difference between two adjacent reconstruction distances is preferably between 5 pm and 15 pm, for example 10 pm. Such a difference corresponds to a reconstruction step.
  • adjacent reconstruction distance is meant a reconstruction distance the indices j of which are consecutive.
  • each complex image A j is reconstructed by applying a reconstruction algorithm limiting the reconstruction noise, as previously described.
  • a reconstruction algorithm limiting the reconstruction noise, as previously described.
  • From is meant from the image I 0 itself or from an image obtained by processing the image I 0 , for example a normalization or a taking into account of the square root of l 'picture.
  • Step 110 there is a stack of complex images A j , each complex image being representative of a complex expression of the exposure light wave 14, in a reconstruction plane P j located at a distance z ; of the detection plan P 0 .
  • Step 120 Obtaining a stack of reconstructed images.
  • the images A j from step 110 are complex images, in the sense that they correspond to a spatial distribution of complex quantities, in a reconstruction plane P j associated with the reconstruction distance z ; . From each complex image A j , it is possible to obtain a reconstructed image I j representing a spatial distribution of a scalar quantity in the reconstruction plane P j associated with the reconstruction distance z ; .
  • the reconstructed image I j can be obtained from:
  • a reconstructed image I j is an image of scalar quantities obtained from a complex reconstructed image A j . It can in particular be established from the module and / or from the phase and / or from the real part and / or from the imaginary part of a complex image. calculated during step 110. At the end of step 120, there is a stack of reconstructed images ⁇ ..// ... / y, each reconstructed image I j being associated with a distance of reconstruction z ; .
  • Step 130 Segmentation of each reconstructed image I j .
  • FIGS. 2A and 2B are two images reconstructed by considering the module of complex images. We are talking about module images. On these images, we observe that each plate corresponds to dark pixels, forming a local contrast.
  • each reconstructed image I j is subject to segmentation, so as to delimit regions of interest ROIi.
  • the double index i, j denotes a region of interest i in a reconstructed image I j .
  • image segmentation is meant a partition of the image so as to group the pixels, for example as a function of their intensity.
  • the image segmentation results in a segmented image in which the regions of interest ROIi, spaced from one another, are delimited.
  • Each region of interest can correspond to a particle, or to a cluster of particles.
  • Segmentation allows defining at least two pixel classes: a pixel class representing the background of the image and at least one pixel class belonging to a region of interest ROIi j .
  • the segmentation can be carried out according to a value of a predetermined intensity threshold.
  • the threshold value can be adjusted on each image, for example according to an Otsu threshold, consisting in determining a value of an intensity threshold from the histogram of the image, the threshold allowing an optimal separation of the pixels according to the two classes previously described.
  • Figures 4A, 4B, 4C show the result of a segmentation, the threshold values being respectively greater than or equal to 1.1 times the average level, 1.07 times the average level and 1.05 times the average level.
  • the areas encircled by a dark line correspond to platelets, while the dark points correspond to regions of ROI interest resulting from the segmentation.
  • the value of the factor requires adjustment, in order to establish a compromise between false negatives and false positives.
  • FIGS. 4B and 4C it is observed that the threshold values of 1.07 times or 1.05 times the average level lead to a high number of false positives. These appear in the form of dark dots that are not circled.
  • step 130 there are, on each reconstructed image I j , regions of interest ROIi with each region of interest being associated with one or more plates in the image.
  • Step 140 Enumeration.
  • the regions of interest ROIi resulting from the segmentation of the reconstructed images I j are counted.
  • a composite image can be constituted, comprising the different regions of interest ROIi resulting from the segmentation of reconstructed images I j . These regions of interest are then merged into one image.
  • the regions of interest are counted on each reconstructed image independently of one another, not taking into account the regions of interest overlapping in the radial plane XY, that is to say - say delimiting the same region in the XY radial plane.
  • regions of interest may comprise several plates placed too close to one another so that the image segmentation can separate them.
  • the regions of interest ROIi j can be the object of a processing aiming to identify the regions of interest comprising several plates.
  • the treatment can be carried out according to a morphological criterion, in order to assign a number of platelets per region of interest according to the shape and / or the extent of each region of interest.
  • We can for example refer to reference shapes, corresponding to regions of interest comprising a predetermined number of plates.
  • the treatment can also be carried out by applying a so-called watershed filter, usually designated by the Anglo-Saxon term "watershed".
  • a so-called watershed filter usually designated by the Anglo-Saxon term "watershed”.
  • the image is assimilated to a topographic relief, in which a rise in water is simulated.
  • the application of the filter makes it possible to separate regions of interest separated by pixels whose intensity is lower than the level considered.
  • FIGS. 5A to 5D are experimental examples, carried out on samples comprising platelets, showing the effectiveness of filtering of the watershed type.
  • FIGS. 5A and 5B correspond to the same scenario before and after the implementation of the filter. It is observed that the filter allows a separation of a region of interest a (FIG. 5A) into two distinct regions of interest b and c (FIG. 5B).
  • Figures 5C and 5D correspond to the same scenario before and after the implementation of the filter. It is observed that the filter allows separation of a region of interest a (FIG. 5C) into three distinct regions of interest b, c and d (FIG. 5D).
  • a delicate point is the processing of regions of monopixel interest RO1 j comprising only one pixel. In fact, it is unlikely that each monopixel region of interest corresponds to a brochure.
  • a first possibility is to ignore regions of monopixel interest when counting. The risk is then to increase the number of false negatives, that is to say to obtain an incomplete count.
  • a ROI ⁇ j monopixel region of interest is considered to be representative of a wafer if it appears on two adjacent reconstructed images of the stack of images, that is to say on two reconstructed images I j / J + 1 or I j-1 and I j .
  • FIG. 6 represents, on different samples, the number of platelets N determined by implementing the invention (ordinate axis) as a function of the number of platelets determined by implementing a reference method (abscissa axis).
  • the reference method is a laboratory automaton, of the HORIBA P60 type.
  • Curve I corresponds to an implementation without taking into account the regions of monopixel interest.
  • Curve II corresponds to an implementation taking into account the regions of monopixel interest appearing on two adjacent reconstructed images.
  • the inventors have examined the influence of the incident illumination wave 12 on the counting performance, and in particular the spectral band D1 as well as the spectral bandwidth, the latter conditioning the temporal coherence of the wave.
  • the laser diode was supplied at two different intensities: 120 mA (curve I) and 90 mA (curve II), these supply currents giving a bandwidth of 4.6 nm and 8.9 nm respectively.
  • WO2017109428 describes a method for determining the optimum supply intensity of a laser diode, which is particularly suitable for the application of holographic observation of samples comprising particles.
  • FIG. 7A represents the number N of platelets determined by implementing the invention (ordinate axis) as a function of the number of platelets determined by implementing a reference method (abscissa axis). For each test, a regression line has been indicated, the equation of which is given in FIG. 7A.
  • curve I the most favorable configuration, i.e. the one for which the slope, as well as the correlation coefficient R 2 , come closest to 1, is curve I, obtained with a laser source whose emission spectral band is centered on a wavelength close to 400 nm and whose spectral bandwidth is the lowest of the three configurations tested.
  • the laser diode emitting in blue / violet, and whose emission spectral band is centered on a wavelength of 405 nm, and of spectral width 4.6 nm, which corresponds to a coherence length of 15 pm (curve I of Figure 7B);
  • the laser diode emitting in the red was supplied at two different intensities: 12 mA (curve II) and 11 mA (curve III), these supply currents giving a bandwidth of 5 nm and 8.9 nm respectively, which corresponds to a coherence length of 104 ⁇ m and 23 ⁇ m.
  • FIG. 7B represents the number N of platelets determined by implementing the invention (ordinate axis) as a function of the number of platelets determined by implementing a reference method (abscissa axis).
  • a regression line the equation of which is mentioned in the figure, as well as a correlation coefficient R 2 .
  • R 2 the correlation coefficient
  • the laser diode emitting in violet, previously described, the emission spectral band of which is centered on a wavelength of 405 nm, and of spectral width 4.6 nm, which corresponds to a coherence length of 15 ⁇ m (curve I of Figure 7C); the laser diode emitting in the red, and whose emission spectral band is centered on a wavelength of 653 nm, and of spectral width 8.9 nm, which corresponds to a coherence length of 23 pm (curve II of Figure 7C);
  • FIG. 7C represents the number N of platelets determined by implementing the invention (ordinate axis) as a function of the number of platelets determined by implementing a reference method (abscissa axis). It is observed that the most favorable configuration, that is to say the one for which the slope comes closest to 1, is the curve I, obtained with a laser source whose emission spectral band is centered on a length wave near 400 nm.
  • the device comprises an optical system 16, defining an object plane P 0bj and an image plane P im .
  • the image sensor 20 is then arranged in a so-called defocused configuration, according to which the sample extends in a plane offset from the object plane, and / or the image sensor extends in a plane offset from the plane at the image level.
  • defocused configuration is meant a configuration comprising an offset of the sample and / or of the image sensor with respect to a focusing configuration, according to which the detection plane Po is conjugated with a plane Pio according to which s 'extends the sample.
  • the offset d is preferably less than 500 ⁇ m, or even less than 200 ⁇ m. It is preferably greater than 10 pm or 20 pm.
  • the steps 100 to 140 previously described can be implemented in such a configuration.
  • the object plane P 0bj is coincident with a plane R w along which the sample extends and the image plane Pi m is offset with respect to the detection plane Po.
  • the invention may be implemented for counting other particles, preferably of dimension less than 20 ⁇ m, or 10 ⁇ m or even 5 ⁇ m.
  • the invention can be implemented, without limitation, in the field of health, environmental control, agrifood or industrial process control.

Abstract

L'invention est un procédé et un dispositif de comptage de thrombocytes dans un échantillon. Elle consiste à illuminer un échantillon et à en acquérir une image par un capteur d'image. Un algorithme de reconstruction holographique est appliqué à l'image acquise, de façon à obtenir une pile d'images reconstruites. Chaque image reconstruite est représentative d'une onde lumineuse d'exposition à laquelle est exposé le capteur d'image. Chaque image reconstruite fait l'objet d'une segmentation, de façon à isoler des régions d'intérêt correspondant à un ou plusieurs thrombocytes. A l'aide de chaque région d'intérêt, le procédé permet un dénombrement du nombre de thrombocytes dans l'échantillon.

Description

PROCEDE ET DISPOSITIF DE COMPTAGE DE THROMBOCYTES DANS UN ECHANTILLON
Description
DOMAINE TECHNIQUE
Le domaine technique de l'invention est l'observation d'un échantillon, notamment un échantillon comportant des particules de petite taille, par imagerie sans lentille, ou par imagerie dite défocalisée.
ART ANTERIEUR
L'imagerie sans lentille s'est développée ces dernières années, et ses applications pour la caractérisation d'échantillons se multiplient, par exemple dans le domaine du diagnostic médical, de la culture cellulaire, de l'analyse biologique ou dans le domaine de l'agroalimentaire. Cette technique permet en effet d'obtenir, à bas coût, une image d'un échantillon selon un champ d'observation élevé. L'application d'algorithmes de reconstruction holographiques à des images obtenues selon une configuration sans lentille permet d'obtenir des images exploitables d'échantillons, ce qui constitue une alternative à bas coût à la microscopie conventionnelle, tout en bénéficiant d'un champ d'observation étendu.
Différents documents décrivent l'utilisation de l'imagerie sans lentille pour l'observation d'échantillons comportant des particules. Les documents WO2016151248 ou WO2017178723 décrivent le recours à l'imagerie sans lentille pour caractériser des cellules dans un échantillon. La technique décrite dans ces documents est basée sur l'acquisition d'une image à l'aide d'un capteur d'image placé face à un échantillon. L'application d'un algorithme de reconstruction holographique permet de former des profils représentatifs de l'onde lumineuse à laquelle est exposé le capteur d'image. A partir des profils, on caractérise les cellules placées dans l'échantillon. Le recours à des profils permet d'être peu sensible à la position d'une cellule à caractériser dans l'échantillon, et en particulier à la distance entre la cellule et le capteur.
Le document WO2016118884 décrit un procédé itératif permettant de dénombrer des particules de petites tailles réparties à la surface d'un support. Les particules les plus grandes sont tout d'abord détectées. Au fur et à mesure des itérations, les particules de plus petites tailles sont détectées. Il est à noter que dans ce document, les particules sont considérées comme coplanaires. Pour chacune d'entre elle, une distance de reconstruction optimale est obtenue, afin de tenir compte d'une inclinaison du support par rapport à un capteur d'image. Le document WO2018057972 décrit un procédé permettant d’identifier des levures vivantes de levures mortes. Les levures sont réparties selon une même surface. Le champ d’observation peut être divisé en plusieurs zones, afin de tenir compte d’une inclinaison de la surface par rapport à un capteur d’image. Une distance de focalisation est ainsi affectée à chaque zone.
Une difficulté associée à l’application d’algorithmes de reconstruction holographique est qu’il est nécessaire de connaître la distance entre le capteur d’image et l’échantillon. Cependant, lorsque l’échantillon comporte des particules, réparties dans un volume, la position de ces dernières, par rapport au capteur d’image, peut varier, dans l’épaisseur de l’échantillon. Ainsi, les images obtenues par reconstruction holographique peuvent être nettes pour certaines particules, pour lesquelles la distance, par rapport au capteur d’image, correspond à la distance de reconstruction prise en compte. En revanche, les images obtenues par reconstruction holographique sont floues pour les particules dont la distance, par rapport au capteur d’image, est différente de la distance de reconstruction prise en compte. Cette propriété est exploitée dans les algorithmes de focalisation numérique, ces derniers étant destinés à estimer une distance entre une particule et un capteur d’image. Plus précisément, de tels algorithmes exploitent le fait qu’une particule est nette lorsque la distance qui la sépare du capteur correspond à la distance de reconstruction considérée. L’usage de ces algorithmes permet de remonter à la distance entre des particules et un capteur, ouvrant ainsi la voie à une détermination de la position 3D de particules, ainsi qu’au dénombrement de ces dernières. Un tel algorithme est par exemple décrit dans la publication Kemper B " Application of a 3D tracking, LED illumination and multi-wavelength techniques for quantitative cell analysis in digital holographie microscopy", Proc. SPIE 7184, Three-Dimensional and Multidimensional Microscopy: Image Acquisition and Processing XVI, 71840R (4 March 2009). Un autre algorithme de suivi de particules, en l’occurrence des spermatozoïdes, est décrit dans W02014012031. Dans ces publications, un algorithme de suivi de position, ou "tracking" est appliqué à chaque particule. Cependant, lorsque le nombre de particules est important, il est fastidieux d’effectuer un suivi de position pour toutes les particules, prises individuellement.
Ainsi, lorsque la taille des particules diminue, et que leur nombre augmente, la mise en oeuvre d’algorithmes de focalisation numérique peut s'avérer délicate pour effectuer un dénombrement précis des particules, réparties dans un volume, et présentes dans le champ observé. Les inventeurs ont mis au point un procédé permettant d'effectuer un dénombrement plus précis de particules dans un échantillon.
EXPOSE DE L'INVENTION Un premier objet de l'invention est un procédé de comptage de particules dans un échantillon, l'échantillon comportant un milieu dans lequel baignent les particules, le milieu étant maintenu par un élément de maintien, le milieu étant de préférence immobile par rapport à l'élément de maintien, le procédé comportant les étapes suivantes :
a) illumination de l'échantillon par une source de lumière, l'échantillon étant disposé entre la source de lumière et un capteur d'image ;
b) acquisition, à l'aide du capteur d'image, d'une image de l'échantillon, l'échantillon étant disposé entre la source de lumière et le capteur d'image, chaque image étant représentative d'une onde lumineuse d’exposition, à laquelle est exposé le capteur d’image sous l'effet de l’illumination de l’échantillon ;
c) à partir de l’image acquise lors de l’étape b), application d’un opérateur de propagation numérique pour obtenir une expression complexe de l’onde lumineuse d’exposition dans différents plans de reconstruction, chaque plan de reconstruction étant associé à une distance de reconstruction, par rapport au capteur d’image;
d) formation d’une pile d’images reconstruites, chaque image reconstruite étant obtenue à partir du module et/ou de l’argument d’une expression complexe dans un plan de reconstruction, chaque image reconstruite étant associée à une distance de reconstruction différente l’une de l’autre ;
e) segmentation de chaque image reconstruite, de façon à isoler, sur chaque image reconstruite, des régions d’intérêt, espacées les unes des autres, chaque région d’intérêt isolée correspondant à une particule ou à un amas de particules ;
f) à partir des régions d’intérêt isolées dans l’étape e), estimation d’une quantité de particules dans l’échantillon.
Ainsi, le procédé effectue une combinaison de techniques de reconstruction holographique et de segmentation d’images, ce qui convient particulièrement à des échantillons comportant un nombre important de particules réparties dans un volume. Cela permet en particulier d’éviter d’effectuer une détermination de la position de chaque particule, prise individuellement. L’élément de maintien a pour fonction de maintenir ou de confiner le milieu dans lequel baignent les particules.
L’échantillon peut être disposé sur un support, pour maintenir l’échantillon entre le capteur d’image et la source de lumière.
Dans l’étape c), les distances de reconstruction peuvent être obtenues en déterminant une distance de focalisation, correspondant à une distance, par rapport au capteur d’image, à laquelle un nombre maximal de particules sont situées, chaque distance de reconstruction étant établie en appliquant un décalage par rapport à la distance de focalisation.
La différence entre deux distances de reconstructions successives correspond à un pas de reconstruction, le pas de reconstruction étant de préférence inférieur à 20 pm.
Les particules sont de préférence inscrites dans un cercle ou dans une sphère dont le diamètre est inférieur à 20 pm ou à 10 pm ou à 5 pm.
Les particules peuvent notamment être des thrombocytes, c'est-à-dire des plaquettes de sang. Lors de l'étape e), la segmentation de chaque image reconstruite peut être réalisée en appliquant un seuillage, selon un seuil d'intensité, sur chaque image reconstruite. Chaque image reconstruite comportant des pixels, la valeur du seuil d'intensité peut être variable d'un pixel à un autre. La valeur du seuil d'intensité à un pixel peut être établie en :
définissant un voisinage autour de chaque pixel ;
calculant une intensité moyenne de pixels appartenant au voisinage ;
la valeur du seuil, à chaque pixel, dépendant de l'intensité moyenne ainsi calculée.
Le procédé peut comporter une étape d'analyse des régions d'intérêt résultant de l'étape e), de façon à :
- déterminer un nombre de particules associées à chaque région d'intérêt ;
- ou diviser des régions d'intérêt englobant plusieurs particules en différentes régions d'intérêt ne comportant qu'une seule particule.
Selon un mode de réalisation, lors de l'étape f), une région d'intérêt dont l'étendue se limite à un pixel n'est prise en compte que si elle apparaît dans deux images reconstruites adjacentes.
La source de lumière peut être une source laser. De préférence, l'onde lumineuse émise par la source de lumière présente une largeur de bande spectrale inférieure à 10 nm. De préférence, l'onde lumineuse émise par la source de lumière présente une bande spectrale centrée sur une longueur d'onde inférieure à 500 nm, et préférentiellement comprise entre 400 nm et 500 nm, ou entre 400 nm et 450 nm.
Un deuxième objet de l'invention est un dispositif pour le comptage de particules d'un échantillon, comportant :
- une source de lumière apte à émettre une onde lumineuse incidente se propageant vers l'échantillon;
- un capteur d’image ; - un support, configuré pour maintenir l'échantillon entre la source de lumière et le capteur d'image ;
et un processeur, configuré pour recevoir une image de l'échantillon acquise par le capteur d'image et à mettre en oeuvre les étapes c) à f) d’un procédé selon le premier objet de l’invention.
Selon un mode de réalisation, aucune optique de formation d’image n’est disposée entre l’échantillon et le capteur d’image.
Selon un mode de réalisation, le dispositif comporte un système optique définissant une configuration de mise au point, selon laquelle le capteur d’image est conjugué d’un plan passant par l’échantillon, le dispositif étant tel que le capteur d’image ou l’échantillon sont décalés par rapport à la configuration de mise au point, de telle sorte que lors de l’étape b), le capteur d’image acquiert une image défocalisée de l’échantillon.
D’autres avantages et caractéristiques ressortiront plus clairement de la description qui va suivre de modes particuliers de réalisation de l’invention, donnés à titre d’exemples non limitatifs, et représentés sur les figures listées ci-dessous.
FIGURES
Les figures IA et IB représentent des exemples de dispositifs permettant une mise en oeuvre de l’invention.
Les figures 2A et 2B sont des images reconstruites, dites images de module, ou image d’amplitude, d’un échantillon comportant des plaquettes.
La figure 3 schématise les principales étapes d’un procédé selon l’invention.
Les figures 4A, 4B et 4C montrent l’influence d’un ajustement d’un paramètre de segmentation d’image sur l’identification de régions d’intérêt, ces dernières étant associées à des particules. Les figures 5A et 5B, ainsi que 5C et 5D, illustrent l’application d’un filtrage de type ligne de partage des eaux sur des régions d’intérêt. Les figures 5A et 5C sont des figures avant le filtrage. Les figures 5B et 5D sont des figures obtenues respectivement après application d’un filtrage des figures 5A et 5C.
La figure 6 représente le nombre de particules comptées en mettant en oeuvre l’invention (axe des ordonnées) en fonction du nombre de particules comptées selon une méthode de référence (axe des abscisses). Sur la figure 6, on a comparé les résultats de mesures respectivement sans prise en compte des régions d’intérêt monopixel, ne comportant qu’un seul pixel, et avec prise en compte de certaines régions d’intérêt monopixel. Les figures 7 A, 7B et 7C représentent le nombre de particules comptées en mettant en oeuvre l'invention (axe des ordonnées) en fonction du nombre de particules comptées selon une méthode de référence (axe des abscisses). Sur la figure 7 A, on a une diode laser émettant dans le violet/bleu, ainsi qu'une diode électroluminescente émettant dans le bleu. Sur la figure 7B, on a utilisé différentes diodes laser émettant soit dans le violet/bleu, soit dans le rouge. Sur la figure 7C, on a utilisé une diode laser émettant dans le violet/bleu, ainsi qu'une diode électroluminescente émettant dans le rouge.
La figure 8 est un autre exemple de dispositif convenant à une mise en oeuvre de l'invention.
EXPOSE DE MODES DE REALISATION PARTICULIERS
La figure IA représente un exemple de dispositif selon l'invention. Une source de lumière 11 est configurée pour émettre une onde lumineuse 12, dite onde lumineuse incidente, se propageant en direction d'un échantillon 10, selon un axe de propagation Z. L'onde lumineuse 12 est émise selon une bande spectrale d’illumination Dl.
L'échantillon 10 est un échantillon que l'on souhaite caractériser. L’échantillon comporte un milieu 10m, par exemple un milieu liquide, dans lequel baignent des particules 10p. Les particules 10p peuvent être des cellules, ou des fragments cellulaires, ou des microorganismes, ou des microalgues, ou leurs fragments. Le terme particules peut également désigner particules solides, en particulier des microbilles, par exemple des microbilles métalliques, des microbilles de verre ou des microbilles organiques, couramment mises en oeuvre dans des protocoles biologiques. Il peut également s'agir de gouttelettes insolubles baignant dans un milieu liquide, par exemple des gouttelettes lipidiques dans une émulsion de type huile dans eau. Ainsi, le terme particule désigne à la fois des particules endogènes, initialement présentes dans l'échantillon examiné, et des particules exogènes, ajoutées à cet échantillon avant l'analyse. L’invention s'adresse notamment à des particules de petite taille. Par particule de petite taille, on entend une particule inscrite dans un cercle ou dans une sphère dont le diamètre est inférieur à 20 pm, et de préférence inférieur à 10 pm ou 5 pm. Une application visée est le comptage de plaquettes sanguines (thrombocytes). De façon plus générale, les particules sont de petite taille relativement à l'épaisseur de l'échantillon, en étant par exemple de taille au moins 5 fois ou 10 fois plus faible que l'épaisseur de l'échantillon. Le milieu 10m peut être un milieu solide ou un milieu formant un gel. Le milieu 10m peut comporter un liquide corporel, par exemple, et de façon non limitative, du plasma sanguin, de l'urine, de la lymphe ou du liquide céphalo-rachidien. Le milieu 10m est de préférence transparent ou translucide. L'invention est particulièrement adaptée à des particules de petite taille. L'échantillon 10 est maintenu par un élément de maintien 15. L’élément de maintien 15 a pour fonction de maintenir le milieu 10m dans lequel les particules 10p sont disposées. L’élément de maintien 15 est de préférence transparent ou translucide, en particulier entre la source de lumière et le capteur. L’élément de maintien 15 peut être une lame transparente, par exemple une lame de verre, ou encore une plaque à puits, ou une enceinte. Dans cet exemple l’élément de maintien 15 est une chambre fluidique. L'épaisseur e de l'échantillon 10, selon l'axe de propagation Z, varie typiquement entre 10 pm et 1 cm, et est de préférence comprise entre 20 pm et 1 mm. L’échantillon 10 est maintenu sur un support 10s à une distance d d’un capteur d’image 20. Le milieu 10m dans lequel baignent les particules 10p est de préférence immobile par rapport à l’élément de maintien 15 ou par rapport au capteur d’image 20. Les particules 10p peuvent être immobiles par rapport à l’élément de maintien 15 ou par rapport au capteur d’image 20.
La distance D entre la source de lumière 11 et la chambre fluidique 15 est de préférence supérieure à 1 cm. Elle est de préférence comprise entre 2 et 30 cm. Avantageusement, la source de lumière 11, vue par l'échantillon, est considérée comme ponctuelle. Cela signifie que son diamètre (ou sa diagonale) est préférentiellement inférieur au dixième, mieux au centième de la distance entre la chambre fluidique 15 et la source de lumière 11.
La source de lumière est de préférence une source ponctuelle, par exemple une source de lumière laser ou une diode électroluminescente. Comme décrit par la suite, de meilleurs résultats sont obtenus lorsque la source de lumière est une source laser, du fait d’une bande spectrale d’émission plus étroite.
Lorsque la source de lumière 11 est une diode électroluminescente, elle est de préférence associée à un diaphragme 18, formant un filtre spatial, comme représenté sur la figure IB. L'ouverture du diaphragme est typiquement comprise entre 5 pm et 1 mm, de préférence entre 50 pm et 500 pm, par exemple 150 pm. Le diaphragme peut être remplacé par une fibre optique, dont une première extrémité est placée face à la source de lumière 11 et dont une deuxième extrémité est placée en regard de l'échantillon 10. Un diffuseur 17 peut être disposé entre la diode électroluminescente et le diaphragme, comme décrit dans le document US2017317125.
De préférence, la bande spectrale d'émission Dl de l'onde lumineuse incidente 12 a une largeur de bande inférieure à 100 nm, et de préférence inférieure à 20 nm, voire à 10 nm. Par largeur de bande spectrale, on entend une largeur à mi-hauteur de ladite bande spectrale. Comme décrit par la suite, plus la bande spectrale est étroite, meilleure est la précision du comptage des particules. L'échantillon 10 est disposé entre la source de lumière 11 et un capteur d'image 20. Le capteur d'image 20 est apte à former une image I0 de l’échantillon 10 selon un plan de détection P0. L’image acquise est également désigné par le terme "hologramme". Dans l'exemple représenté, il s'agit d'un capteur d'image comportant une matrice de pixels, de type CCD ou un CMOS. La matrice de pixels forme le plan de détection P0. Le plan de détection P0 s'étend de préférence perpendiculairement à l'axe de propagation Z de l'onde lumineuse incidente 12. Le plan de détection s'étend selon un plan radial XY, défini par deux axes X et Y, le plan radial étant perpendiculaire à l'axe de propagation Z.
La distance d entre l'échantillon 10 et la matrice de pixels du capteur d'image 20 est préférentiellement comprise entre 50 pm et 2 cm, de préférence comprise entre 100 pm et 2 mm.
On remarque, dans les modes de réalisation représentés sur les figures IA et IB, l'absence d'optique de grossissement ou de formation d’image entre le capteur d'image 20 et l'échantillon 10. Cela n'empêche pas la présence éventuelle de microlentilles de focalisation au niveau de chaque pixel du capteur d'image 20, ces dernières n'ayant pas de fonction de grandissement de l'image acquise par le capteur d'image, leur fonction étant d’optimiser l’efficacité de collecte de la lumière par les pixels.
Sous l'effet de l'onde lumineuse incidente 12, les particules 10p présentes dans l’échantillon peuvent engendrer une onde diffractée 13, susceptible de produire, au niveau du plan de détection P0, des interférences, en particulier avec une partie de l'onde lumineuse incidente 12’ transmise par l'échantillon. L’onde lumineuse transmise 12’ correspond à une partie de l'onde lumineuse incidente 12 non absorbée par l’échantillon. Ainsi, l'onde lumineuse 14, transmise par l'échantillon, et à laquelle est exposé le capteur d’image 20, désignée par le terme "onde d’exposition", peut comprendre :
une composante 13 résultant de la diffraction de l'onde lumineuse incidente 12 par chaque particule de l’échantillon ;
une composante 12’ résultant de la transmission de l'onde lumineuse incidente 12 par l'échantillon, une partie de cette dernière pouvant être absorbée et déphasée dans l’échantillon.
Ces composantes forment des interférences dans le plan de détection P0. Aussi, l’image acquise par le capteur d’image comporte des figures d’interférences (ou figures de diffraction), dues aux différentes particules 10p de l’échantillon. Un processeur 21, par exemple un microprocesseur, est apte à traiter chaque image I0 acquise par le capteur d'image 20, selon les étapes décrites ci-après. En particulier, le processeur est un microprocesseur relié à une mémoire programmable 22 dans laquelle est stockée une séquence d'instructions pour effectuer les opérations de traitement d'images et de calculs décrites dans cette description. Le processeur peut être couplé à un écran 24 permettant l'affichage d'images acquises par le capteur d’image 20 ou calculées par le processeur 21.
Du fait de l’absence d’optique de formation d’image, une image I0 acquise par le capteur d'image 20, également appelée hologramme, ne permet pas d'obtenir une représentation suffisamment précise de l'échantillon observé. L’image acquise I0 peut notamment comporter un grand nombre de figures d’interférence, et peut ne pas être aisément exploitable pour identifier les particules présentes dans l’échantillon et procéder à leur comptage.
On peut appliquer, à l’image I0 acquise par le capteur d'image, un opérateur de propagation holographique h, de façon à calculer une grandeur complexe représentative de l'onde lumineuse d’exposition 14. Il est alors possible de reconstruire une expression complexe A de l'onde lumineuse d’exposition 14 en tout point de coordonnées (x, y, z) de l'espace, et en particulier dans un plan de reconstruction Pz situé à une distance | z | du capteur d'image 20, dite distance de reconstruction, ce plan de reconstruction étant par exemple le plan Pio selon lequel s'étend l'échantillon. Une première façon d’obtenir l’expression complexe A(x, y, z) en un point ( x, y, z ) est d’appliquer l’expression : A(x, y, z) = I0(x, y, z) * h (1), * désignant l’opérateur produit de convolution.
L'opérateur de propagation h a pour fonction de décrire la propagation de la lumière entre le capteur d’image 20 et un point de coordonnées (x, y, z), situé à une distance | z | du capteur d’image. Il est alors possible de déterminer le module M(x, y, z) et/ou la phase f (x, y, z) l'onde lumineuse 14, à la distance de reconstruction | z | , avec :
M(x, y, z) = abs [A(x, y, z)] ;
- q x, y, z) = arg [A x, y, z)] .
Les opérateurs abs et arg désignent respectivement le module et l'argument.
L'opérateur de propagation est par exemple la fonction de Fresnel-Helmholtz, telle que :
Figure imgf000010_0001
L'expression complexe A de l'onde lumineuse 14, en tout point de coordonnées ( x, y, z ) de l'espace, est telle que :
Figure imgf000010_0002
Dans la suite de cette description, les coordonnées (x, y) désignent une position radiale dans un plan radial XY parallèle au plan de détection P0. La coordonnée z désigne une coordonnée selon l'axe de propagation Z.
L'expression complexe A est une grandeur complexe dont l'argument et le module sont respectivement représentatifs de la phase et de l'intensité de l'onde lumineuse 14 d’exposition détectée par le capteur d'image 20. Le produit de convolution de l'image I0 par l'opérateur de propagation h permet d'obtenir une image complexe Az représentant une distribution spatiale de l'expression complexe A dans un plan de reconstruction Pz, s'étendant à une distance | z | du plan de détection P0, parallèlement à ce dernier. Dans cet exemple, le plan de détection P0 a pour équation z = 0. L’image complexe Az correspond à une image complexe de l'échantillon dans le plan de reconstruction Pz. L’image Az est définie à des coordonnées radiales (x, y), de telle sorte que Az(x, y) = A(x, y, z). L’image Az représente également une distribution spatiale bidimensionnelle de l’expression complexe de l'onde d’exposition 14. Un tel procédé, désigné par le terme reconstruction holographique, permet notamment de reconstruire une image du module ou de la phase de l’onde lumineuse d’exposition 14 dans le plan de reconstruction. Pour cela, on peut former des images Mz et <pz représentant respectivement le module ou la phase de l’image complexe Az, avec Mz = mod (. Az ) et <pz = arg(Zlz). Dans la suite du texte, une image obtenue à partir du module ou de la phase d’une image complexe est désignée par le terme "image reconstruite".
L’application d’un opérateur de reconstruction holographique, à partir d’une image acquise, selon l’expression (1), peut s'accompagner de la formation d'un bruit affectant les images reconstruites. Afin de limiter l'apparition de ce bruit, l'application de l'opérateur de reconstruction holographique est effectuée selon des algorithmes itératifs de reconstruction holographique. De tels algorithmes de reconstruction sont par exemple décrits :
dans le document WO2016189257, en particulier dans les étapes 100 à 150 décrites dans ce dernier ;
ou dans le document WO2017162985, et plus précisément selon les étapes 110 à 160 décrites dans ce dernier.
Les images représentées sur les figures 2A et 2B ont été obtenues en appliquant un algorithme de reconstruction holographique à une image acquise par un capteur d'image 20. L'échantillon observé était un échantillon de plasma sanguin riche en plaquettes (PRP - acronyme de Platelet- Rich Plasma), obtenu par une centrifugation d'un plasma sanguin. L'échantillon 10 était disposé dans une chambre fluidique 15 d'épaisseur e égale à 100 pm, disposée à une distance de 1 mm d'un capteur d'image de type IDS UI-1492LE. Pour obtenir les figures 2A et 2B, on a appliqué un algorithme de reconstruction holographique décrit dans WO2017162985 à une image I0 acquise par le capteur d'image, en considérant respectivement deux distances de reconstruction Z-L et z2. Les distances de reconstruction définissent respectivement deux plans de reconstruction P1 et P2, s'étendant dans l'échantillon, parallèlement au plan de détection P0. On a ainsi obtenu deux images complexes A1 et A2 représentatives d'une expression complexe de l'onde lumineuse d'exposition 14 dans chaque plan de reconstruction P1 et P2 considéré. Les figures 2A et 2B correspondent respectivement au module de chaque image complexe obtenue. Il s'agit d'images du module M1 et M2, respectivement représentatives du module de l'onde lumineuse d'exposition 14 aux distances Z-L et z2 par rapport au plan de détection P0.
L'écart z2— Z-L entre les deux distances de reconstruction est faible, de préférence inférieur ou égal à 20pm, et de préférence inférieur ou égal à 10 pm. Une partie des plaquettes apparaissant sur chacune de ces figures sont contournées d'un cercle en pointillés noirs sur les deux figures. En dépit du faible décalage entre les distances de reconstruction Z-L et z2, on observe que certaines plaquettes sont visibles sur une figure 2B et non sur la figure 2A, ces dernières étant contournées d'un cercle en pointillés blancs sur la figure 2B. Aussi, sur deux figures consécutives, respectivement reconstruites en considérant des distances de reconstruction proches, certaines particules apparaissent ou disparaissent brusquement. De plus, lorsque des plaquettes sont visibles sur les deux figures consécutives, elles apparaissent faiblement contrastées.
Lorsque la taille des particules est plus importante, le recours à des images reconstruites permet d'effectuer une localisation tridimensionnelle des particules, en mettant en oeuvre un algorithme de focalisation numérique, connu dans le domaine de l'holographie numérique. Selon un tel algorithme, on considère une pluralité d'images reconstruites selon différentes distances de reconstruction, ces images formant une pile d'images. Pour chaque particule identifiée, on établit une évolution d'un indicateur de netteté sur les différentes images reconstruites. La coordonnée, selon l'axe Z, de la particule considérée correspond à la coordonnée de l'image reconstruite pour laquelle l'indicateur de netteté est le plus élevé.
Cependant, les inventeurs ont constaté que lorsque le nombre de particules est élevé, il n'est pas optimal de mettre en oeuvre un algorithme de focalisation numérique, sur chaque particule, prise individuellement, comme effectué dans l'art antérieur. En effet, cela est trop consommateur en ressources de calcul : mémoire et/ou temps de calcul. Une difficulté supplémentaire apparaît lorsque les particules sont de petites tailles, typiquement inférieure à 20 pm ou à 10 pm : les particules n'apparaissent alors que sur certaines images reconstruites, proches les unes des autres, et leur contraste est faible, ce qui ne permet pas une mise en oeuvre optimale de la focalisation numérique. Cependant, un algorithme de focalisation numérique peut toutefois être mis en oeuvre, de façon à estimer une distance de focalisation moyenne Zf, cette dernière correspondant à une distance, par rapport au capteur d'image 20, à laquelle se trouvent une majorité des particules 10p où à laquelle se trouvent un grand nombre de particules.
Les inventeurs ont mis en oeuvre un procédé, combinant la reconstruction holographique d'images et la segmentation d'images reconstruites, dont les principales étapes sont décrites-ci- dessous, en lien avec la figure 3, pour obtenir un dénombrement fiable de particules de petite taille, telles que des plaquettes, dans un échantillon.
Etape 100 : Illumination de l'échantillon 10 et acquisition d'une image I0 de l'échantillon 10 par le capteur d’image 20, cette image formant un hologramme. Un intérêt de la configuration sans lentille, représentée sur les figures IA ou IB est le large champ observé, permettant d’adresser simultanément un volume d’échantillon élevé. Le champ observé dépend de la taille du capteur d’image, en étant légèrement inférieur à la surface de détection de ce dernier, du fait de l’espacement entre les pixels du capteur d’image et l’échantillon. Le champ observé est généralement supérieur à 10 mm2, et est typiquement compris entre 10 mm2 et 50 mm2, ce qui est significativement plus élevé qu'avec un microscope conventionnel. Dans des applications liées au comptage de particules, cela permet d'effectuer un comptage basé sur un faible nombre d'images acquises.
Des essais ont été effectués en considérant plusieurs sources de lumière, dans différentes bandes spectrales, et de différentes cohérences temporelles. Ces essais sont décrits ci-après en lien avec les figures 7A à 7C.
Etape 110 : Obtention d'une pile d'images complexes.
Cette étape comporte une reconstruction de plusieurs images complexes en effectuant des reconstructions numériques à différentes distances de reconstruction z; du plan de détection P0. On obtient alors une pile d'images complexes Aj. Chaque image complexe Aj de la pile d'images est reconstruite à une distance de reconstruction z;, avec zJ= 1 < z; < zJ =7, où :
Zj= 1 est une distance minimale du capteur d'image, selon l'axe Z, à laquelle une image complexe Aj=1 est reconstruite ;
Zj— j est une distance maximale du capteur d'image, selon l'axe Z, à laquelle une image complexe Aj=] est reconstruite. Chaque indice j est un entier naturel représentant une distance de reconstruction, avec 1 £ j £ J, J étant le nombre d'images complexes Aj dans la pile d'images.
De préférence, les distances de reconstruction z; encadrent l'échantillon. Si l'échantillon 10 s'étend, selon l'axe de propagation Z, entre deux distances zmin et zmax, par rapport au capteur d'image 20, avec zmin< zmax, les distances de reconstruction minimale zJ= 1 et maximale zJ =7 sont telles que zJ= 1 < zmin < zmax £ Zj=J. Les inventeurs ont constaté que si la première distance de reconstruction zJ= 1 ou la dernière distance de reconstruction zJ=7 sont trop éloignées des plaquettes, on augmente le risque de fausse détection. Il est donc préférable de disposer d'un a priori quant aux distances probables des plaquettes par rapport au plan de détection P0.
Les distances de reconstruction z; peuvent être éta blies en déterminant une distance de focalisation Zf, à laquelle se trouvent une majeure partie des plaquettes, ou un grand nombre de plaquettes, la distance de focalisation étant obtenue par un algorithme de focalisation numérique. Les distances de reconstruction z; peuvent alors être déterminées en opérant un décalage progressif à partir de la distance de focalisation Zf.
Les distances de reconstruction respectives z;, zJ+ 1 de deux images reconstruites Aj, Az adjacentes peuvent être écartées d'une distance comparable à la dimension des particules. Lorsque ces dernières sont des plaquettes, l'écart entre deux distances de reconstruction adjacentes est de préférence compris entre 5pm et 15 pm, par exemple 10 pm. Un tel écart correspond à un pas de reconstruction. Par distance de reconstruction adjacente, on entend une distance de reconstruction dont les indices j sont consécutifs.
Chaque image complexe Aj de la pile d'images est obtenue à partir de l'image I0 acquise lors de l'étape 100, selon les différentes distances de propagation zJ =1 ... Zj ....Zj=] . De préférence, chaque image complexe Aj est reconstruite en appliquant un algorithme de reconstruction limitant le bruit de reconstruction, comme précédemment décrit. On peut par exemple utiliser un algorithme décrit dans WO2017162985. Par "à partir de", on entend à partir de l'image I0 elle-même ou d'une image obtenue par traitement de l'image I0, par exemple une normalisation ou une prise en compte de la racine carrée de l'image.
A l'issue de l'étape 110, on dispose d'une pile d'images complexes Aj, chaque image complexe étant représentative d'une expression complexe de l'onde lumineuse d'exposition 14, dans un plan de reconstruction Pj situé à une distance z; du plan de détection P0. Etape 120 : Obtention d'une pile d'images reconstruites.
Les images Aj issues de l'étape 110 sont des images complexes, au sens où elles correspondent à une distribution spatiale de grandeurs complexes, dans un plan de reconstruction Pj associé à la distance de reconstruction z;. A partir de chaque image complexe Aj, on peut obtenir une image reconstruite Ij représentant une distribution spatiale d'une grandeur scalaire dans le plan de reconstruction Pj associé à la distance de reconstruction z;. L'image reconstruite Ij peut être obtenue à partir :
d'une image du module
Figure imgf000015_0001
de chaque image complexe Aj, avec Ij ( x, y ) = M; (x, y) = mod(Aj(x, y)) ;
et/ou d'une image de la phase <pj de chaque image complexe Aj, avec <Pj(x, y ) = ar9 (Aj (x, y)) ;
et/ou d'une image de la partie réelle Rej de chaque image complexe Aj, avec Rej(x, y ) = Re(Aj(x, y)), Re désignant l'opérateur "partie réelle";
et/ou d'une image de la partie imaginaire Irrij de chaque image complexe Aj, avec Im.j(x, y) = Im Aj x, y)), Im désignant l'opérateur "partie imaginaire".
D'une façon générale, une image reconstruite Ij est une image de grandeurs scalaires obtenues à partir d'une image complexe reconstruite Aj. Elle peut notamment être établie à partir du module et/ou de la phase et/ou de la partie réelle et/ou de la partie imaginaire d'une image complexe
Figure imgf000015_0002
calculée lors de l'étape 110. A l'issue de l'étape 120, on dispose d'une pile d'images reconstruites ·..// ... /y, chaque image reconstruite Ij étant associée à une distance de reconstruction z;.
Etape 130 : Segmentation de chaque image reconstruite Ij.
Les figures 2A et 2B sont deux images reconstruites en considérant le module d'images complexes. On parle d'images de module. Sur ces images, on observe que chaque plaquette correspond à des pixels sombres, formant un contraste local. Lors de l'étape 130, chaque image reconstruite Ij fait l'objet d'une segmentation, de façon à délimiter des régions d'intérêt ROIi . Le double indice i,j désigne une région d'intérêt i dans une image reconstruite Ij. Par segmentation d'image, on entend une partition de l'image de façon à regrouper les pixels, par exemple en fonction de leur intensité. La segmentation d'image aboutit à une image segmentée dans laquelle les régions d'intérêt ROIi , espacées les unes des autres, sont délimitées. Chaque région d'intérêt peut correspondre à une particule, ou à un amas de particules. La segmentation permet de définir au moins deux classes de pixels : une classe de pixels représentant le fond de l'image et au moins une classe de pixels appartenant à une région d'intérêt ROIij. La segmentation peut être réalisée selon une valeur d'un seuil d'intensité prédéterminée. La valeur du seuil peut être ajustée sur chaque image, par exemple selon un seuillage d'Otsu, consistant à déterminer une valeur d'un seuil d'intensité à partir de l'histogramme de l'image, le seuil permettant une séparation optimale des pixels selon les deux classes précédemment décrites.
D'autres méthodes de segmentation sont connues de l'homme du métier. On peut par exemple citer la méthode décrite dans Bradley D. "Adaptative thresholding using the intégral image". Cette méthode est basée sur une définition d'un voisinage de chaque pixel, dans lequel on calcule une intensité (ou niveau de gris) moyenne. On observe alors si l'intensité du pixel considéré se détache d'un facteur appliqué à l'intensité moyenne calculée dans le voisinage. Le voisinage de chaque pixel est déterminé en considérant une fenêtre s'étendant de part et d'autre du pixel, et dont la taille est paramétrable. Les paramètres de ce procédé de segmentation sont :
le facteur que l'on applique à l'intensité moyenne calculée dans la fenêtre, de façon à obtenir le seuil ;
la taille de la fenêtre.
Les inventeurs ont utilisé une taille de fenêtre de 25 x 25 pixels. Les figures 4A, 4B, 4C montrent le résultat d'une segmentation, les valeurs du seuil étant respectivement supérieure ou égale à 1.1 fois le niveau moyen, 1.07 fois le niveau moyen et 1.05 fois le niveau moyen.
Sur les figures 4A à 4C, les zones encerclées d'un trait sombre correspondent à des plaquettes, tandis que les points sombres correspondent à des régions d'intérêt ROI issues de la segmentation. La valeur du facteur nécessite un ajustement, de façon établir un compromis entre les faux négatifs et les faux positifs. Sur les figures 4B et 4C, on observe que les valeurs de seuil de 1.07 fois ou 1.05 fois le niveau moyen conduisent à un nombre élevé de faux positifs. Ces derniers apparaissent sous la forme de points sombres non encerclés.
A l'issue de l'étape 130, on dispose, sur chaque image reconstruite Ij, de régions d'intérêt ROIi à chaque région d'intérêt étant associée une ou plusieurs plaquettes dans l'image.
Etape 140 Dénombrement.
Au cours de l'étape 140, les régions d'intérêt ROIi issues de la segmentation des images reconstruites Ij sont dénombrées. Selon un mode de réalisation, on peut constituer une image composite, comportant les différentes régions d'intérêt ROIi issues de la segmentation des images reconstruites Ij. Ces régions d'intérêt sont alors fusionnées en une même image. De façon alternative, on procède au dénombrement des régions d'intérêt sur chaque image reconstruite indépendamment l'une de l'autre, en ne prenant pas en compte les régions d'intérêt se superposant dans le plan radial XY, c'est-à-dire délimitant une même région dans le plan radial XY.
Certaines régions d'intérêt peuvent comprendre plusieurs plaquettes disposées trop proches les unes des autres pour que la segmentation d'image puisse les séparer. Afin de tenir compte d'une telle éventualité, les régions d'intérêt ROIij peuvent faire l'objet d'un traitement visant à identifier les régions d'intérêt comportant plusieurs plaquettes. Le traitement peut être réalisé selon un critère morphologique, afin d'attribuer un nombre de plaquettes par région d'intérêt en fonction de la forme et/ou de l'étendue de chaque région d'intérêt. On peut par exemple se référer à des formes de référence, correspondant à des régions d'intérêt comportant un nombre prédéterminé de plaquettes.
Le traitement peut également être effectué en appliquant un filtre dit de ligne de partage des eaux, usuellement désigné par le terme anglosaxon "watershed". Durant l'application d'un tel filtre, connu de l'homme du métier, l'image est assimilée à un relief topographique, dans lequel une montée des eaux est simulée. L'application du filtre permet de séparer des régions d'intérêt séparées par des pixels dont l'intensité est inférieure au niveau considéré.
Les figures 5A à 5D sont des exemples expérimentaux, effectués sur des échantillons comportant des plaquettes, montrant l'efficacité d'un filtrage de type watershed. Les figures 5A et 5B correspondent à un même cas de figure avant et après la mise en oeuvre du filtre. On observe que le filtre permet une séparation d'une région d'intérêt a (figure 5A) en deux régions d'intérêt distinctes b et c (figure 5B). Les figures 5C et 5D correspondent à un même cas de figure avant et après la mise en oeuvre du filtre. On observe que le filtre permet séparation d'une région d'intérêt a (figure 5C) en trois régions d'intérêt distinctes b, c et d (figure 5D).
Lors de l'étape 140, un point délicat est le traitement de régions d'intérêt monopixel ROl j ne comportant qu'un seul pixel. En effet, il est peu proba ble que chaque région d'intérêt monopixel corresponde à une plaquette. Une première possibilité est de ne pas prendre en compte les régions d'intérêt monopixel lors du dénombrement. Le risque est alors d'accroître le nombre de faux négatifs, c'est-à-dire d'obtenir un dénombrement incomplet. Afin de réduire le risque d'occurrence d'un faux négatif, une région d'intérêt monopixel ROI^j est considérée comme représentative d'une plaquette si elle apparaît sur deux images reconstruites adjacentes de la pile d'images, c'est-à-dire sur deux images reconstruites Ij /J+1 ou Ij-1 et Ij.
La figure 6 représente, sur différents échantillons, le nombre de plaquettes N déterminé en mettant en oeuvre l'invention (axe des ordonnées) en fonction du nombre de plaquettes déterminé en mettant en oeuvre une méthode de référence (axe des abscisses). La méthode de référence est un automate de laboratoire, de type HORIBA P60. La courbe I correspond à une mise en oeuvre sans prise en compte les régions d'intérêt monopixel. La courbe II correspond à une mise en oeuvre en prenant en compte les régions d'intérêt monopixel apparaissant sur deux images reconstruites adjacentes. Sur chaque courbe, on a représenté une équation d'une droite obtenue par régression linéaire. On observe que la prise en compte des régions d'intérêt monopixel, sous réserve d'une apparition sur deux images reconstruites successives, permet de rapprocher la pente de la courbe de corrélation de 1, et d'obtenir un coefficient de corrélation R2 proche de 1.
Les inventeurs ont examiné l'influence de l'onde incidente d'illumination 12 sur les performances de comptage, et en particulier la bande spectrale Dl ainsi que la largeur de bande spectrale, cette dernière conditionnant la cohérence temporelle de l'onde.
On a tout d'abord utilisé deux sources de lumière :
une diode laser émettant dans le bleu/violet, et dont la bande spectrale d'émission est centrée sur une longueur d'onde de 405 nm (courbes I et II de la figure 7A);
une diode électroluminescente, et dont la bande spectrale d'émission est centrée sur une longueur d'onde de 450 nm et de largeur de bande de 20 nm (courbe III de la figure 7A).
La diode laser a été alimentée selon deux intensités différentes : 120 mA (courbe I) et 90 mA (courbe II), ces courants d'alimentation conférant respectivement une largeur de bande de 4.6 nm et de 8.9 nm. Un procédé permettant la détermination de l'intensité d'alimentation optimale d'une diode laser, convenant particulièrement à l'application l'observation, par holographie, d'échantillons comportant des particules, est décrit dans WO2017109428.
La figure 7A représente le nombre N de plaquettes déterminé en mettant en oeuvre l'invention (axe des ordonnées) en fonction du nombre de plaquettes déterminé en mettant en oeuvre une méthode de référence (axe des abscisses). On a indiqué, pour chaque essai, une droite de régression, dont l'équation est mentionnée sur la figure 7A. On observe que la configuration la plus favorable, c'est-à-dire celle pour laquelle la pente, ainsi que le coefficient de corrélation R2, se rapprochent le plus de 1, est la courbe I, obtenue avec une source laser dont la bande spectrale d'émission est centrée sur une longueur d'onde proche de 400 nm et dont la largeur de bande spectrale est la plus faible des trois configurations testées.
On a ensuite utilisé deux sources de lumière :
la diode laser émettant dans le bleu/violet, et dont la bande spectrale d'émission est centrée sur une longueur d'onde de 405 nm, et de largeur spectrale 4.6 nm, ce qui correspond à une longueur de cohérence de 15 pm (courbe I de la figure 7B) ;
une diode laser émettant dans le rouge, et dont la bande spectrale d'émission est centrée sur une longueur d'onde de 653 nm (courbes II et III de la figure 7B).
La diode laser émettant dans le rouge a été alimentée selon deux intensités différentes : 12 mA (courbe II) et 11 mA (courbe III), ces courants d'alimentation conférant respectivement une largeur de bande de 5 nm et de 8.9 nm, ce qui correspond à une longueur de cohérence de 104 pm et de 23 pm.
La figure 7B représente le nombre N de plaquettes déterminé en mettant en oeuvre l'invention (axe des ordonnées) en fonction du nombre de plaquettes déterminé en mettant en oeuvre une méthode de référence (axe des abscisses). On a indiqué, pour chaque essai, une droite de régression, dont l'équation est mentionnée sur la figure, ainsi qu'un coefficient de corrélation R2. On observe que la configuration la plus favorable, c'est-à-dire celle pour laquelle la pente se rapproche le plus de 1, est la courbe I, obtenue avec une source laser dont la bande spectrale d'émission est centrée sur une longueur d'onde proche de 400 nm. Par ailleurs, la comparaison des courbes II et III montre qu'il est préférable que la bande spectrale soit la plus fine possible, de façon à maximiser la longueur de cohérence.
On a ensuite utilisé trois sources de lumière :
la diode laser émettant dans le violet, précédemment décrite, dont la bande spectrale d'émission est centrée sur une longueur d'onde de 405 nm, et de largeur spectrale 4.6 nm, ce qui correspond à une longueur de cohérence de 15 pm (courbe I de la figure 7C); la diode laser émettant dans le rouge, et dont la bande spectrale d'émission est centrée sur une longueur d'onde de 653 nm, et de largeur spectrale 8.9 nm, ce qui correspond à une longueur de cohérence de 23 pm (courbe II de la figure 7C) ;
une diode électroluminescence émettant dans le rouge, dont la bande spectrale d'émission est centrée sur une longueur d'onde de 640 nm, et de largeur spectrale 20 nm (courbe III de la figure 7C). La figure 7C représente le nombre N de plaquettes déterminé en mettant en œuvre l'invention (axe des ordonnées) en fonction du nombre de plaquettes déterminé en mettant en œuvre une méthode de référence (axe des abscisses). On observe que la configuration la plus favorable, c'est-à-dire celle pour laquelle la pente se rapproche le plus de 1, est la courbe I, obtenue avec une source laser dont la bande spectrale d'émission est centrée sur une longueur d'onde proche de 400 nm. En utilisant une longueur d'onde plus faible, on a constaté qu'on améliore la résolution de l'hologramme, c'est-à-dire de l'image acquise par le capteur d'image. C'est la raison pour laquelle on obtient des valeurs de coefficient de corrélation R2 plus proches de 1 lorsque la longueur d'onde est proche de 400 nm. Par ailleurs, la comparaison des courbes II et III montre qu'il est préférable que la bande spectrale soit la plus fine possible.
L'invention a été décrite en mettant en œuvre une configuration d'imagerie sans lentille, selon laquelle aucune optique de formation d'image n'est interposée entre l'échantillon 10 et le capteur d'image 20. Selon une variante, illustrée sur la figure 8, le dispositif comporte un système optique 16, définissant un plan objet P0bj et un plan image Pim. Le capteur d'image 20 est alors disposé selon une configuration dite défocalisée, selon laquelle l'échantillon s'étend selon un plan décalé par rapport au plan objet, et/ou le capteur d'image s'étend selon un plan décalé par rapport au plan image. Par configuration défocalisée, on entend une configuration comportant un décalage de l'échantillon et/ou du capteur d'image par rapport à une configuration de mise au point, selon laquelle le plan de détection Po est conjugué d'un plan Pio selon lequel s'étend l'échantillon. Le décalage d est de préférence inférieur à 500 pm, voire à 200 pm. Il est de préférence supérieur à 10 pm ou 20 pm. Les étapes 100 à 140 précédemment décrites peuvent être mises en œuvre dans une telle configuration. Dans l'exemple représenté sur la figure 8, le plan objet P0bj est confondu avec un plan Rw selon lequel s'étend l'échantillon et le plan image Pim est décalé par rapport au plan de détection Po.
Bien que décrite en lien avec un comptage de plaquettes, l'invention pourra être mise en œuvre pour le comptage d'autres particules, de préférence de dimension inférieure à 20pm, ou 10 pm voire 5 pm. L'invention peut être mise en œuvre, de façon non limitative, dans le domaine de la santé, du contrôle de l'environnement, de l'agroalimentaire ou du contrôle de procédés industriels.

Claims

REVENDICATIONS
1. Procédé de comptage de thrombocytes dans un échantillon, l'échantillon comportant un milieu (10m) dans lequel baignent les thrombocytes (10p), le milieu étant maintenu par un élément de maintien (15), le milieu étant immobile par rapport à l'élément de maintien (15), le procédé comportant les étapes suivantes :
a) illumination de l'échantillon (10) par une source de lumière (11), l'échantillon étant disposé entre la source de lumière (11) et un capteur d'image (20) ;
b) acquisition, à l'aide du capteur d'image (20), d'une image (/0) de l'échantillon (10), l'échantillon étant disposé entre la source de lumière (11) et le capteur d'image (20), chaque image étant représentative d'une onde lumineuse (14) d’exposition, à laquelle est exposé le capteur d’image (20) sous l'effet de l’illumination de l’échantillon ;
c) à partir de l’image acquise (/0) lors de l’étape b), application d’un opérateur de propagation numérique (h) pour obtenir une expression complexe (Aj) de l’onde lumineuse d’exposition (14) dans différents plans de reconstruction (P,), chaque plan de reconstruction (z;) étant associé à une distance de reconstruction (z;), par rapport au capteur d’image (20) ;
d) formation d’une pile d’images reconstruites, (I ... /y), chaque image reconstruite (Ij) étant obtenue à partir du module et/ou de l’argument d’une expression complexe (Aj) dans un plan de reconstruction (P;), chaque image reconstruite étant associée à une distance de reconstruction (zj) différente l’une de l’autre ;
e) segmentation de chaque image reconstruite, de façon à isoler, sur chaque image reconstruite, des régions d’intérêt (PO/y), espacées les unes des autres, chaque région d’intérêt isolée correspondant à un thrombocyte ou à un amas de thrombocytes ; f) à partir des régions d’intérêt (PO/y) isolées dans l’étape e), estimation d’une quantité de thrombocytes dans l’échantillon ;
le procédé étant tel que :
lors de l’illumination, la source de lumière émet une onde lumineuse présentant une bande spectrale centrée sur une longueur d’onde inférieure à 500 nm, et préférentiellement comprise entre 400 nm et 500 nm.
2. Procédé selon la revendication 1, dans lequel lors de l'étape f), une région d'intérêt dont l'étendue se limite à un pixel n'est prise en compte que si elle apparaît dans deux images reconstruites adjacentes.
3. Procédé selon l'une quelconque des revendications précédentes, dans lequel dans l'étape c), les distances de reconstruction sont obtenues en déterminant une distance de focalisation
Figure imgf000022_0001
), correspondant à une distance, par rapport au capteur d'image, à laquelle un nombre maximal de thrombocytes sont situés, chaque distance de reconstruction (z; ) étant établie en appliquant un décalage par rapport à la distance de focalisation.
4. Procédé selon l'une quelconque des revendications précédentes, dans lequel la différence entre deux distances de reconstructions successives correspond à un pas de reconstruction, le pas de reconstruction étant inférieur à 20 pm.
5. Procédé selon l'une quelconque des revendications précédentes, dans lequel les thrombocytes sont inscrits dans un cercle ou dans une sphère dont le diamètre est inférieur à 20 pm ou à 10 pm ou à 5 pm.
6. Procédé selon l'une quelconque des revendications précédentes, dans lequel lors de l'étape e), la segmentation de chaque image reconstruite est réalisée en appliquant un seuillage, selon un seuil d'intensité, sur chaque image reconstruite.
7. Procédé selon la revendication 6, dans lequel chaque image reconstruite comportant des pixels, la valeur du seuil d'intensité est variable d'un pixel à un autre.
8. Procédé selon la revendication 7, dans lequel la valeur du seuil d'intensité à un pixel est éta blie en :
définissant un voisinage autour de chaque pixel ;
calculant une intensité moyenne de pixels appartenant au voisinage ;
la valeur du seuil, à chaque pixel, dépendant de l'intensité moyenne ainsi calculée.
9. Procédé selon l'une quelconque des revendications précédentes, comportant une étape d'analyse des régions d'intérêt résultant de l'étape e), de façon à :
- déterminer un nombre de thrombocytes associés à chaque région d'intérêt ;
- ou diviser des régions d'intérêt englobant plusieurs thrombocytes en différentes régions d'intérêt ne comportant qu'une seule particule.
10. Procédé selon l'une quelconque des revendications précédentes, dans lequel la source de lumière est une source laser.
11. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'onde lumineuse émise par la source de lumière présente une largeur de bande spectrale inférieure à
10 nm.
12. Dispositif pour le comptage de thrombocytes d'un échantillon, comportant :
- une source de lumière (11) apte à émettre une onde lumineuse incidente (12) se propageant vers l'échantillon (10) ;
- un capteur d’image (20) ;
- un support (10s), configuré pour maintenir l'échantillon (10) entre la source de lumière
(11) et le capteur d'image (20) ;
un processeur (21), configuré pour recevoir une image (/0) de l'échantillon acquise par le capteur d'image (20) et à mettre en oeuvre les étapes c) à f) d’un procédé selon l’une quelconque des revendications 1 à 11.
13. Dispositif selon la revendication 12, dans lequel aucune optique de formation d’image n’est disposée entre l’échantillon (10) et le capteur d’image (20).
14. Dispositif selon la revendication 12, comportant un système optique (16) définissant une configuration de mise au point, selon laquelle le capteur d’image (20) est conjugué d’un plan passant par l’échantillon, le dispositif étant tel que le capteur d’image (20) ou l’échantillon (10) sont décalés par rapport à la configuration de mise au point, de telle sorte que lors de l’étape b), le capteur d’image (20) acquiert une image défocalisée de l’échantillon (10).
PCT/FR2019/051480 2018-06-20 2019-06-18 Procede et dispositif de comptage de thrombocytes dans un echantillon WO2019243725A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1855463 2018-06-20
FR1855463A FR3082943A1 (fr) 2018-06-20 2018-06-20 Procede de comptage de particules de petite taille dans un echantillon

Publications (1)

Publication Number Publication Date
WO2019243725A1 true WO2019243725A1 (fr) 2019-12-26

Family

ID=63722532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2019/051480 WO2019243725A1 (fr) 2018-06-20 2019-06-18 Procede et dispositif de comptage de thrombocytes dans un echantillon

Country Status (2)

Country Link
FR (1) FR3082943A1 (fr)
WO (1) WO2019243725A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3138522A1 (fr) 2022-07-29 2024-02-02 Horiba Abx Sas Dispositif de détection de particules en imagerie sans lentille

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014012031A1 (fr) 2012-07-13 2014-01-16 The Regents Of The University Of California Suivi de sperme tridimensionnel (3d) exempt de lentille à haut débit
WO2016118884A1 (fr) 2015-01-22 2016-07-28 The Regents Of The University Of California Dispositif et procédé de classification de nanoparticules par microscopie sur puce à résolution temporelle
WO2016151248A1 (fr) 2015-03-24 2016-09-29 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'analyse de particules
WO2016189257A1 (fr) 2015-05-28 2016-12-01 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'observation d'un échantillon
WO2017109428A1 (fr) 2015-12-24 2017-06-29 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'observation d'un échantillon par imagerie sans lentille
WO2017162985A1 (fr) 2016-03-23 2017-09-28 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'observation d'un échantillon par calcul d'une image complexe
WO2017178723A1 (fr) 2016-03-23 2017-10-19 Commissariat à l'énergie atomique et aux énergies alternatives Procédé de caractérisation holographique d'une particule dans un échantillon
US20170317125A1 (en) 2014-11-21 2017-11-02 Commissariat á l'énergie atomique et aux énergies alternatives Lens-free imaging system comprising a diode, a diaphragm, and a diffuser between the diode and the diaphragm
WO2018057972A1 (fr) 2016-09-23 2018-03-29 The Regents Of The University Of California Système et procédé pour déterminer la viabilité et la concentration de cellules de levure
WO2018085657A1 (fr) * 2016-11-04 2018-05-11 miDiagnostics NV Système et procédé de détection d'objet dans une imagerie sans lentille holographique par apprentissage et codage de dictionnaire convolutionnel

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014012031A1 (fr) 2012-07-13 2014-01-16 The Regents Of The University Of California Suivi de sperme tridimensionnel (3d) exempt de lentille à haut débit
US20170317125A1 (en) 2014-11-21 2017-11-02 Commissariat á l'énergie atomique et aux énergies alternatives Lens-free imaging system comprising a diode, a diaphragm, and a diffuser between the diode and the diaphragm
WO2016118884A1 (fr) 2015-01-22 2016-07-28 The Regents Of The University Of California Dispositif et procédé de classification de nanoparticules par microscopie sur puce à résolution temporelle
WO2016151248A1 (fr) 2015-03-24 2016-09-29 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'analyse de particules
WO2016189257A1 (fr) 2015-05-28 2016-12-01 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'observation d'un échantillon
WO2017109428A1 (fr) 2015-12-24 2017-06-29 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'observation d'un échantillon par imagerie sans lentille
WO2017162985A1 (fr) 2016-03-23 2017-09-28 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'observation d'un échantillon par calcul d'une image complexe
WO2017178723A1 (fr) 2016-03-23 2017-10-19 Commissariat à l'énergie atomique et aux énergies alternatives Procédé de caractérisation holographique d'une particule dans un échantillon
WO2018057972A1 (fr) 2016-09-23 2018-03-29 The Regents Of The University Of California Système et procédé pour déterminer la viabilité et la concentration de cellules de levure
WO2018085657A1 (fr) * 2016-11-04 2018-05-11 miDiagnostics NV Système et procédé de détection d'objet dans une imagerie sans lentille holographique par apprentissage et codage de dictionnaire convolutionnel

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
EDWIN MALKIEL ET AL: "Measurements of plankton distribution in the ocean using submersible holography", MEASUREMENT SCIENCE AND TECHNOLOGY, IOP, BRISTOL, GB, vol. 10, no. 12, 1 December 1999 (1999-12-01), pages 1142 - 1152, XP020064869, ISSN: 0957-0233, DOI: 10.1088/0957-0233/10/12/305 *
KEMPER B: "Application of a 3D tracking, LED illumination and multi-wavelength techniques for quantitative cell analysis in digital holographie microscopy", PROC. SPIE 7184, THREE-DIMENSIONAL AND MULTIDIMENSIONAL MICROSCOPY: IMAGE ACQUISITION AND PROCESSING, vol. XVI, 4 March 2009 (2009-03-04), pages 71840R
P. WACHULAK ET AL: "Holographic imaging with a nanometer resolution using compact table-top EUV laser", OPTO-ELECTRONICS REVIEW, vol. 18, no. 1, 30 December 2009 (2009-12-30), pages 80 - 90, XP055634626, DOI: 10.2478/s11772-009-0023-x *

Also Published As

Publication number Publication date
FR3082943A1 (fr) 2019-12-27

Similar Documents

Publication Publication Date Title
EP3433679B1 (fr) Procédé d&#39;observation d&#39;un échantillon par calcul d&#39;une image complexe
EP3274689B1 (fr) Procédé et dispositif d&#39;analyse de particules
EP3433678A1 (fr) Procédé de caractérisation holographique d&#39;une particule dans un échantillon
EP3234550B1 (fr) Méthode d&#39;identification de particules biologiques par piles d&#39;images holographiques défocalisées
WO2016151249A1 (fr) Procédé de détermination de l&#39;état d&#39;une cellule
EP3519899B1 (fr) Dispositif d&#39;observation d&#39;un échantillon et procédé d&#39;observation d&#39;un échantillon
EP3559631B1 (fr) Procédé de numération de particules dans un échantillon par imagerie sans lentille
EP3584560A1 (fr) Procédé d&#39;observation d&#39;un échantillon par imagerie sans lentille, avec prise en compte d&#39;une dispersion spatiale dans l&#39;échantillon
EP3637194B1 (fr) Procédé de détermination de paramètres d&#39;une particule
EP3640743A1 (fr) Procédé d&#39;observation d&#39;un échantillon
WO2018060589A1 (fr) Procédé de numération de leucocytes dans un échantillon
WO2014009519A1 (fr) Procédé et système de reconstruction de propriétés optiques d&#39;objets diffractants baignant dans un milieu liquide
EP3397944B1 (fr) Dispositif et procédé d&#39;observation bimodale d&#39;un objet
WO2019243725A1 (fr) Procede et dispositif de comptage de thrombocytes dans un echantillon
WO2019224474A1 (fr) Dispositif et procédé d&#39;observation d&#39;un échantillon fluorescent par imagerie défocalisée
EP3371574B1 (fr) Dispositif et procédé d&#39;observation d&#39;un objet par imagerie sans lentille
EP3545362B1 (fr) Procédé de formation d&#39;une image de haute résolution par imagerie sans lentille
EP3899669A1 (fr) Procédé de caractérisation d&#39;une particule à partir d&#39;un hologramme
EP4020093A1 (fr) Procédé de formation d&#39;une image complexe d&#39;un échantillon

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19746528

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19746528

Country of ref document: EP

Kind code of ref document: A1