EP4268120A1 - Procédé de caractérisation de spermatozoïdes - Google Patents

Procédé de caractérisation de spermatozoïdes

Info

Publication number
EP4268120A1
EP4268120A1 EP21839575.4A EP21839575A EP4268120A1 EP 4268120 A1 EP4268120 A1 EP 4268120A1 EP 21839575 A EP21839575 A EP 21839575A EP 4268120 A1 EP4268120 A1 EP 4268120A1
Authority
EP
European Patent Office
Prior art keywords
image
sample
plane
spermatozoon
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP21839575.4A
Other languages
German (de)
English (en)
Inventor
Cédric ALLIER
Olivier CIONI
Ondrej MANDULA
Agnès CAMUS
Eric Schmitt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Publication of EP4268120A1 publication Critical patent/EP4268120A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1434Optical arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N2015/1006Investigating individual particles for cytology
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N2015/1027Determining speed or velocity of a particle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1434Optical arrangements
    • G01N2015/144Imaging characterised by its optical setup
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N2015/1497Particle shape

Definitions

  • the technical field of the invention is the observation of mobile or motile microscopic particles in a sample, with a view to characterizing them.
  • a targeted application is the characterization of spermatozoa.
  • the observation of motile cellular particles, such as spermatozoa, in a sample is usually carried out using a microscope.
  • the microscope comprises a lens defining an object plane, extending into the sample, as well as an image plane, coinciding with a detection plane of an image sensor.
  • the microscope images the sperm cells in a focused configuration.
  • the choice of such a modality supposes a compromise between the spatial resolution, the observed field and the depth of field.
  • a high numerical aperture decreases the depth of field.
  • motile particles supposes an optimization of the objective, knowing that, in such a configuration, it is not possible to obtain at the same time a good spatial resolution, a wide observed field and a great depth. of field.
  • these properties are particularly important when observing microscopic motile particles, in particular when the latter are numerous: the size of the particles requires good spatial resolution; their number justifies an extended observed field, so as to be able to maximize the number of particles observed on the same image; their movement requires a significant depth of field, so that the particles appear clearly on the image.
  • a high magnification microscope it is usual to use a high magnification microscope.
  • the small size of the observed field is compensated by the use of a translation stage.
  • the latter allows image acquisition by moving the lens relative to the sample, parallel to the latter.
  • the shallow depth of field is compensated by limiting the thickness of the sample: the latter is for example placed in a thin fluidic chamber, typically less than 20 ⁇ m, so as to limit the movement of the particles in a direction perpendicular to the object plane.
  • the objective can be brought closer or further from the sample, so as to move the object plane in the sample, according to its thickness. This results in a complex and expensive device, requiring precise displacement of the lens.
  • the document WO2019/125583 describes general principles relating to the analysis of the motility or the morphology of spermatozoa, by mentioning the use of an artificial intelligence algorithm with supervised learning.
  • lensless imaging An alternative to conventional microscopy, as described in the aforementioned publication, has been proposed by lensless imaging. It is known that lensless imaging, coupled with holographic reconstruction algorithms, allows cell observation while maintaining a high field of view, as well as a large depth of field. Patents US9588037 or US8842901 describe for example the use of lensless imaging for the observation of spermatozoa. Patents US10481076 or US10379027 also describe the use of lensless imaging, coupled with reconstruction algorithms, to characterize cells.
  • a first object of the invention is a method for characterizing at least one mobile particle in a sample, the method comprising: a) acquisition of at least one image of the sample during an acquisition period, at the using an image sensor and forming a series of images from the acquired images; b) using each image of the series of images resulting from a) as an input image of a detection convolutional neural network, the detection convolutional neural network being configured to detect the particles and to produce , from each image, an output image on which each detected particle is assigned an intensity distribution centered on the particle and extending around the particle; c) for each detected particle, from each output image resulting from b), estimation of a position of each detected particle in each image of the series of images; d) characterization of each particle detected from the estimation of the position resulting from c), established from each image of the series of images.
  • steps a) to d) can be performed with a single image.
  • the series of images comprises a single image.
  • each particle can be represented in the form of a point.
  • the particle (or each particle) can in particular be a spermatozoon.
  • Step d) can comprise a characterization, in particular morphological, of each spermatozoon detected.
  • Step d) then comprises: for each of the spermatozoon detected, from each image resulting from a), and from the positions resulting from c), extraction of a thumbnail comprising the detected spermatozoon, the position of the spermatozoon detected in the thumbnail being predetermined, so as to obtain, for detected sperm, a series of thumbnails, the size of each thumbnail being smaller than the size of each image acquired during step a); - for each spermatozoon detected, use of the series of thumbnails as input data for a classification neural network, the classification neural network being configured to classify the spermatozoon among predetermined classes. These may in particular be morphological classes.
  • the method can be such that each detected sperm is centered with respect to each thumbnail.
  • Step d) may comprise a characterization of the motility of the spermatozoon. Step d) can then comprise, from the positions of the spermatozoon resulting from step c):
  • the process may include:
  • the sample extends along a plane of the sample
  • the image sensor extends along a detection plane
  • an optical system extends between the sample and the image sensor, the optical system defining an object plane and an image plane;
  • the object plane is offset from the sample plane by an object defocusing distance and/or the image plane is offset from the sample plane by an image defocusing distance.
  • the method can be such that: the sample is placed on a sample support, resting on at least one spring, the spring being configured to push the sample support towards the optical system;
  • the optical system is connected to at least one abutment, extending, from the optical system, towards the sample holder; - so that during step a), under the effect of the spring, the sample support rests on the stop.
  • no imaging optics extend between the sample and the image sensor.
  • step a) comprises a normalization of each image acquired by an average of said image or by an average of images of the series of images.
  • the series of images is made from each acquired image, after normalization.
  • step a) comprises an application of a high-pass filter to each acquired image.
  • the series of images is performed from each image acquired, after application of the high-pass filter.
  • the intensity distribution assigned to each particle is decreasing, such that the intensity decreases as a function of the distance relative to the particle.
  • the intensity distribution assigned to each particle can be a two-dimensional parametric statistical distribution.
  • a second object of the invention is a device for observing a sample, the sample comprising mobile particles, the device comprising:
  • - a light source configured to illuminate the sample
  • an image sensor configured to form an image of the sample
  • a holding structure configured to hold the sample between the light source and the image sensor
  • processing unit connected to the image sensor, and configured to implement steps a) to d) of a method according to the first object of the invention from at least one image acquired by the sensor of picture.
  • no imaging optics extend between the image sensor and the sample.
  • the holding structure can be configured to maintain a fixed distance between the image sensor and the sample.
  • the image sensor extends along a detection plane;
  • the device comprises an optical system, extending between the image sensor and the support plane, the optical system defining an image plane and an object plane, the device being such that: • the image plane is offset from the detection plane by an image defocusing distance;
  • FIG. 1A represents a first embodiment of a device enabling the invention to be implemented.
  • Figure IB is a three-dimensional view of the device shown schematically in Figure IA.
  • Figure IC shows an assembly making it possible to maintain the sample at a fixed distance from an optical system.
  • Figure 1D shows the assembly shown in Figure IC in an observation position.
  • FIG. 2 represents a second embodiment of a device enabling the invention to be implemented.
  • Figure 3 shows the main steps of a method for characterizing mobile particles in the sample.
  • FIGS. 4A, 4B and 4C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
  • FIG. 5A is an example of an image of a sample obtained by implementing a device according to the first embodiment of the invention.
  • Figure 5B shows the image depicted in Figure 5A after processing by a detection neural network.
  • FIG. 5C shows an example of obtaining trajectories of particles detected on image 5B.
  • Figure 6 shows vignettes centered on a single spermatozoon, the vignettes being extracted from a series of nine images acquired using a defocused imaging modality.
  • FIGS. 7A, 7B and 7C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
  • FIGS. 8A, 8B and 8C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
  • FIG. 8A has been processed by a high-pass filter.
  • FIGS. 9A and 9B represent performance of particle detection by the detection neural network, under different conditions.
  • the performances are the sensitivity (FIG. 9A) and the specificity (FIG. 9B).
  • Figures 10A to IOC represent confusion matrices, expressing the classification performance of spermatozoa, using images acquired according to the defocused modality, the classification being carried out respectively: by implementing a holographic reconstruction algorithm from an image obtained by holographic reconstruction and processed by a neural network; by implementing a classification neural network whose input layer comprises a single image acquired according to a defocused configuration, without holographic reconstruction; by implementing a classification neural network, the input layer of which comprises a series of images of a particle, each image being acquired according to a defocused configuration, without holographic reconstruction.
  • FIG. IA a first embodiment of a device 1 for implementing the invention.
  • the device allows the observation of a sample 10 interposed between a light source 11 and an image sensor 20.
  • the light source 11 is configured to emit an incident light wave 12 propagating up to 'to the sample parallel to a propagation axis Z.
  • the device includes a sample holder 10s configured to receive the sample 10, such that the sample is held on the holder 10s.
  • the sample thus maintained extends along a plane, called the sample plane Pw.
  • the plane of the sample corresponds for example to a mean plane around which the sample 10 extends.
  • the sample support can be a glass slide, for example 1 mm thick.
  • the sample notably comprises a liquid medium 10 m in which mobile and possibly motile particles 10i are immersed.
  • the 10 m medium can be a biological liquid or a buffer liquid. It may for example comprise a bodily fluid, in the pure or diluted state.
  • bodily fluid is meant a fluid generated by a living body. It may in particular be, without limitation, blood, urine, cerebrospinal fluid, semen, lymph.
  • the sample 10 is preferably contained in a fluidic chamber 10 c .
  • the fluidic chamber is for example a fluidic chamber with a thickness of between 20 ⁇ m and 100 ⁇ m.
  • the thickness of the fluidic chamber, and therefore of the sample 10, along the axis of propagation Z typically varies between 10 ⁇ m and 200 ⁇ m, and is preferably between 20 ⁇ m and 50 ⁇ m.
  • the mobile particles are spermatozoa.
  • the sample contains sperm, possibly diluted.
  • the fluidic chamber 10 c can be a counting chamber dedicated to the analysis of the mobility or the concentration of cells. It may for example be a counting chamber marketed by Leja, with a thickness of between 20 ⁇ m and 100 ⁇ m.
  • the sample comprises mobile particles, for example microorganisms, for example microalgae or plankton, or cells, for example cells in the process of sedimentation.
  • the distance D between the light source 11 and the sample 10 is preferably greater than 1 cm. It is preferably between 2 and 30 cm.
  • the light source 11, seen by the sample is considered as point. This means that its diameter (or its diagonal) is preferably less than one tenth, better still one hundredth of the distance between the sample and the light source.
  • the light source 11 is for example a light-emitting diode. It is preferably associated with a diaphragm 14, or spatial filter.
  • the aperture of the diaphragm is typically between 5 ⁇ m and 1 mm, preferably between 50 ⁇ m and 1 mm. In this example, the diaphragm has a diameter of 400 ⁇ m.
  • the diaphragm can be replaced by an optical fiber, a first end of which is placed facing the light source and a second end of which is placed facing the sample 10.
  • the device can also comprise a diffuser 13 , placed between the light source 13 and the diaphragm 14. The use of a diffuser/diaphragm assembly is for example described in US10418399
  • the image sensor 20 is configured to form an image of the sample according to a detection plane P20.
  • the image sensor 20 comprises a matrix of pixels, of CCD or CMOS type.
  • the detection plane P20 preferably extends perpendicular to the axis of propagation Z.
  • the image sensor has a high sensitive surface, typically greater than 10 mm 2 .
  • the image sensor is an IDS-UI-3160CP-M-GL sensor comprising pixels of 4.8 ⁇ 4.8 ⁇ m 2 , the sensitive surface being 9.2 mm ⁇ 5.76 mm, ie 53 mm 2 .
  • the image sensor 20 is optically coupled to the sample 10 by an optical system 15.
  • the optical system includes an objective 15i and a tube lens 152. The latter is intended to project a formed image on the sensitive surface of the image sensor 20 (53 mm 2 surface).
  • the 15i objective is a Motic CCIS EF-N Plan Achromat lOx objective, with a numerical aperture of 0.25;
  • lens 152 is a Thorlabs LBF254-075-A lens - 75 mm focal length.
  • Such an assembly provides an observation field of 3 mm 2 , with a spatial resolution of 1 ⁇ m.
  • the short focal length of the lens makes it possible to optimize the bulk of the device 1 and to adjust the magnification to the size of the image sensor.
  • the image sensor is configured to acquire images of the sample, according to an acquisition frequency of a few tens of images per second, for example 60 images per second.
  • the sampling frequency is typically between 5 and 100 frames per second.
  • the optical system 15 defines an object plane P o and an image plane Pi.
  • the image sensor 20 is configured to acquire an image according to a defocused configuration.
  • the image plane Pi coincides with the detection plane P 2 o, while the object plane P o is offset by an object focusing distance 6 of between 10 ⁇ m and 500 ⁇ m, relative to the sample.
  • the focusing distance is preferably between 50 ⁇ m and 100 ⁇ m, for example 70 ⁇ m.
  • the object plane P o extends outside the sample 10. According to another possibility, the object plane extends into the sample, while the image plane is shifted with respect to the detection plane, by a distance image defocus.
  • the image focusing distance is preferably between 50 ⁇ m and 100 ⁇ m, for example 70 ⁇ m.
  • the object plane P o and the image plane Pi are both offset respectively with respect to the plane of the sample and with respect to the detection plane.
  • the defocusing distance is preferably greater than 10 ⁇ m and less than 1 mm, or even 500 ⁇ m, and preferably between 50 ⁇ m and 150 ⁇ m.
  • the image sensor 20 is exposed to a light wave, called exposure light wave.
  • the image acquired by the image sensor comprises figures interference, which can also be designated by the term “diffraction patterns", formed by: a part of the light wave 12 emitted by the light source 11, and having passed through the sample without interacting with the latter; diffraction waves, formed by the diffraction of part of the light wave 12 emitted by the light source in the sample. These include the diffraction formed by the particles.
  • a processing unit 30, comprising for example a microprocessor, is capable of processing each image acquired by the image sensor 20.
  • the processing unit comprises a programmable memory 31 in which is stored a sequence of instructions for perform the image processing and calculation operations described in this description.
  • the processing unit 30 can be coupled to a screen 32 allowing the display of images acquired by the image sensor 20 or resulting from the processing carried out by the processing unit 30.
  • the image acquired by the image sensor 20, according to a defocused imaging modality, is a diffraction figure of the sample, sometimes called a hologram. It does not make it possible to obtain an accurate representation of the observed sample.
  • a holographic reconstruction operator so as to calculate a complex expression representative of the light wave to which the sensor is exposed. image, and this at any point of coordinates (x, y, z) in space, and in particular in a reconstruction plane corresponding to the plane of the sample.
  • the complex expression returns the intensity or phase of the exposure light wave.
  • Figure IB is a representation of an example of a device as shown schematically in Figure IA.
  • Figures 1C and 1D represent a detail of the arrangement of the sample 10 facing the optical system 15, and more precisely facing the lens 15i.
  • the sample support 10 s is connected to elastic return means 16 a , for example springs. The springs tend to Bring the 10s sample holder closer to the 15i objective.
  • the device also includes abutments 16b, integral with the lens 15i.
  • the objective 15i and the stops 16b are fixed relative to the image sensor 20.
  • the stops 16b and the return means 16a form a holding structure 16, intended to hold the sample between the light source 11 and the image sensor 20.
  • Figures 1C and 1D represent the maintenance of the sample on the sample support respectively during the positioning of the sample and during its observation.
  • a rigid link 16c connects the lens 15i to the stops 16b.
  • the springs 16a are compressed.
  • the support of the sample 10s comes to bear against the stops 16b. This makes it possible to control the distance A between the objective 15i and the sample 10, independently of the thickness of the sample support 10 s . This makes it possible to overcome variations in the thickness of the sample support.
  • the thickness can fluctuate over a relatively wide range, for example ⁇ 100 ⁇ m.
  • the assembly described in connection with FIGS. 1C and 1D makes it possible to control the distance A between the objective 15i and the sample 10, to within ⁇ 5 ⁇ m, independently of such fluctuations in the thickness of the plate 10 s .
  • the inventors believe that such an assembly makes it possible to avoid having to resort to an autofocus system to produce images
  • Figures 1C and 1D also show a heating resistor 19 connected to a temperature controller 18. The function of these elements is to maintain a temperature of the fluidic chamber 10 c at 37°C.
  • FIG. 2 represents a second embodiment of device 1' suitable for implementing the invention.
  • the device 1' comprises a light source 11, a diffuser 13, a diaphragm 14, an image sensor 20, a holding structure 17 and a processing unit 30 as described in connection with the first embodiment.
  • the holding structure 17 is configured to define a fixed distance between the sample and the image sensor.
  • the device does not include an image forming lens between the image sensor 20 and the sample 10.
  • the image sensor 20 is preferably brought closer to the sample, the distance between the image sensor 20 and sample 10 being typically between 100 ⁇ m and 3 mm.
  • the image sensor acquires images according to a lensless imaging modality.
  • the sample is preferably contained in a fluidic chamber 10 c , for example a “Leja” chamber as described in connection with the first embodiment.
  • a fluidic chamber 10 c for example a “Leja” chamber as described in connection with the first embodiment.
  • the advantage of such an embodiment is that it does not require precise positioning of an optical system 15 with respect to the sample 10, and that it confers a high field of observation.
  • the disadvantage is obtaining images of lower quality, but which remain usable.
  • the holding structure is arranged so that the distance between the sample, when the sample 10 is placed on the holding structure 17, and the image sensor 20, is constant.
  • the holding structure 17 is connected to a base 20', on which the image sensor 20 extends.
  • - Printed circuit on which the image sensor 20 is placed.
  • the sample 10, contained in the fluidic chamber 10 c is held, by the sample holder 10 s , on the holding structure 17.
  • the support sample is for example a transparent slide. The sample extends between the 10s sample holder and the image sensor. Thus, the distance between the sample 10 and the image sensor 20 is not affected by a fluctuation in the thickness of the support 10s.
  • FIG. 3 schematizes the main steps of a method for processing several images acquired by an image sensor according to the defocused imaging modality (first embodiment) or imaging without lens (second embodiment).
  • the method is described in connection with the observation of spermatozoa, it being understood that it can be applied to the observation of other types of motile particles.
  • Step 100 Acquisition of a series of images I O n
  • n is a natural number designating the rank of each image acquired, with 1 ⁇ n ⁇ N, N being the total number images acquired.
  • the images acquired are images acquired either according to a defocused imaging modality or according to a lensless imaging modality.
  • the number N of images acquired can be between 5 and 50.
  • the images can be acquired according to an acquisition frequency of 60 Hz.
  • Step 110 Preprocessing
  • the objective is to perform a pre-processing of each image acquired, so as to limit the effects of a fluctuation in the intensity of the incident light wave or in the sensitivity of the camera.
  • the pre-processing consists in normalizing each image acquired by an average of the intensity of at least one image acquired, and preferably of all the images acquired.
  • the pre-processing can include an application of a high-pass filter to each image, possibly normalized.
  • the high pass filter eliminates low frequencies from the image.
  • a Gaussian filter is applied, by carrying out a convolution product of the image I n by a Gaussian kernel K.
  • the width at mid-height of the Gaussian kernel is for example 20 pixels.
  • Step 120 Particle detection
  • This step consists in detecting and precisely positioning the spermatozoa, and this on each image I O n , resulting from step 100 or from each image I′ n preprocessed during step 110.
  • This step is carried out using of a CNNd detection convolutional neural network.
  • the CNNd neural network comprises an input layer, in the form of an input image I in n .
  • the input image I in n is either an acquired image I O n , or a preprocessed image I n , I′ n .
  • the detection neural network CNNd From the input image I in n , the detection neural network CNNd generates an output image I or t, n -
  • the output image I outin is such that each spermatozoon 10i detected on the image d input I in n , in a position appears as an intensity distribution centered around said position. That is, from an input image the CNNd neural network allows: detection of spermatozoa; a position estimate of each 10i sperm detected; a generation of an output image/ out n comprising a predetermined intensity distribution around each position.
  • Each position (x ⁇ y ⁇ is a two-dimensional position, in the detection plane P20.
  • the distribution is such that the intensity is maximum at each position (%j,yi) and that the intensity is considered negligible beyond a neighborhood Vt of each position.
  • neighborhood is meant a region extending according to a predetermined number of pixels, for example between 5 and 20 pixels, around each position (x ⁇ y ⁇ ).
  • the distribution D t can be of the niche type, in which case in the neighborhood each pixel is of constant intensity is high, and beyond the neighborhood each pixel has zero intensity.
  • the distribution D t is centered on each position (x ⁇ y ⁇ ) and is strictly decreasing around the latter. It may for example be a two-dimensional Gaussian intensity distribution, centered on each position (Xj,yj).
  • the width at mid-height is for example less than 20 pixels, and preferably less than 10 or 5 pixels. Any other form of parametric distribution can be considered, knowing that it is preferable that the distribution be symmetrical around each position, and preferably strictly decreasing from position (xj,yj). Assigning a distribution at each position (xj,yj) makes it possible to obtain an output image / out n in which each spermatozoon is simple to detect. In this, the output image I out n is a detection image, based on which each sperm can be detected.
  • the output image of the neural network is formed by a resultant of each intensity distribution D t defined respectively around each position (x ⁇ yj).
  • the convolutional detection neural network comprised 20 layers comprising either 10 or 32 characteristics (more usually designated by the term “features”) per layer. The number of features was determined empirically. The transition from one layer to another is performed by applying a convolution kernel of size 3x3. The output image is obtained by combining the characteristics of the last convolution layer.
  • the neural network was programmed in a Matlab environment (publisher: The Mathworks). The neural network has previously been the subject of learning (step 80), so as to parameterize the convolution filters. During the learning, learning sets were used, each set comprising: an input image, obtained by the image sensor and preprocessed by normalization and possibly filtering, using animal semen.
  • FIGS. 4A, 4B and 4C are a set of test images, comprising respectively: an image of a sample of bovine semen acquired by the image sensor and having undergone normalization and high pass filtering according to step 110; a manually annotated image, which corresponds to a reference image, usually designated by the term “ground truth” (reality); an image resulting from the application of the detection convolutional neural network.
  • FIG. 4C The image of FIG. 4C is consistent with the reference image (FIG. 4B), which attests to the detection performance of the CNNd neural network.
  • the inventors have noted that FIG. 4C shows a position not shown on the reference image: a check showed that it was an annotation omission on the reference image.
  • the application of the convolutional neural network of detection CNNd allows precise detection and positioning of sperm. And this without resorting to an image reconstruction implementing a holographic propagation operator, as suggested in the prior art.
  • the input image of the neural network is an image formed in the detection plane, and not in a reconstruction plane remote from the detection plane.
  • the detection neural network generates low-noise output images: the signal-to-noise ratio associated with each sperm detection is high, which facilitates subsequent operations.
  • Step 120 is repeated for different images of the same series of images, so as to obtain a series of output images I tool I O ut,N-
  • step 120 from each output image I out l I 0U t,N> a local maximum detection algorithm is applied, so as to obtain, for each image, a list of 2D coordinates, each coordinate corresponding to a position of a spermatozoon.
  • a list L out l L 0Ut w is established -Each list L out n comprises corresponds to the 2D positions, in the detection plane, of spermatozoa detected in a picture I outin .
  • FIG. 5A represents an image acquired during step 100. More precisely, it is a detail of an image acquired according to a defocused mode. This is an image of a sample containing bovine semen.
  • Figure 5B shows an image resulting from the application of the detection neural network in Figure 5A, after normalization and application of a high-pass filter.
  • the comparison between images 5A and 5B shows the gain provided by the detection convolutional neural network in terms of signal-to-noise ratio.
  • Step 130 position tracking
  • a position tracking algorithm is applied, usually designated by the term “tracking algorithm”.
  • an algorithm is implemented allowing tracking of the position of the spermatozoon, parallel to the detection plane, between the different images of the series of images.
  • the implementation of the position tracking algorithm is efficient because it is performed from the lists L out l L 0Ut N resulting from step 120. As previously indicated, these images have a signal to noise ratio high, which facilitates the implementation of the position tracking algorithm.
  • the position tracking algorithm may be a “nearest neighbor” type algorithm. Step 130 allows a trajectory of each sperm to be determined parallel to the detection plane.
  • output images I tool I O ut,N have been superimposed by considering an image stack of 30 images. It is observed that the trajectory, parallel to the detection plane, of each spermatozoon can be determined precisely.
  • Step 140 characterization of the motility
  • each trajectory can be characterized on the basis of metrics applied to the trajectories resulting from step 130. Knowing the frequency of acquisition of the images, it is possible to quantify displacement speeds of each spermatozoon detected, and in particular: a speed of the linear trajectory VSL , usually designated by the term “velocity straightline path", which corresponds to the speed calculated on the basis of a distance, in a straight line, between the first and last points of the trajectory (the first point is determined from the first acquired image of the series of images, and the last point is determined from the last acquired image of the series of images) a speed of the curvilinear path VCL, usually referred to by the term “velocity curvilinear path”: this is a speed established by summing the distances traveled between each image, and by dividing by the duration of the acquisition period; a speed of the average trajectory VAP, usually designated by the term “velocity average path”: this is a speed established after smoothing the trajectory of a particle:
  • indicators making it possible to characterize the motility of the spermatozoa known to those skilled in the art.
  • indicators of the type straightness indicator STR, obtained by a ratio between VSL and VAP, usually designated by the term “straightness”. This indicator is all the higher as the sperm moves in a straight line; LIN linearity indicator, obtained by a ratio between VSL and VCL, usually designated by the term “linearity”. This indicator is also all the higher as the sperm moves in a straight line.
  • WOB oscillation indicator obtained by a VAP/VCL ratio, usually designated by the term wobble.
  • a spermatozoon is considered to be: motile if the length of the trajectory is greater than a first threshold, for example 10 pixels, and its displacement along the average trajectory (VAPx At, At being the acquisition period) is greater than a predefined length, corresponding for example to the length of a sperm head; progressive if the length of the trajectory is greater than the first threshold, and if the straightness STR and the speed of the average trajectory VAP are respectively greater than two threshold values STRth and VAPthi; slow if the length of the trajectory is greater than the first threshold and if the speed of the linear trajectory VSL and the speed of the average trajectory VAP are respectively less than two threshold values VSL t h2 and VAP t h2; static if the length of the trajectory is greater than the first threshold and if the speed of the linear trajectory VSL and the speed of the average trajectory VAP are respectively lower than two threshold values V
  • the threshold values STR t h, VSL t h2, VSL t h3 are determined beforehand, with VSL t h2 ⁇ VSL t h3- The same applies to the values VAP t hi, VAP t h2 and VAP t h3 with VAP t hi> VAP t hi> VAP t h3-
  • Step 150 Extract thumbnails for each sperm.
  • a thumbnail V in is extracted, and this in each image I O n acquired by the image sensor during step 100.
  • Each thumbnail V in is a portion of an image I O n acquired by the image sensor.
  • a vignette V in is extracted around the position assigned to the sperm.
  • the position of the spermatozoon 10d, in each image I O n is obtained following the implementation of the position tracking algorithm (step 130).
  • each thumbnail V in is predetermined. Relative to each thumbnail V in , the position (%j, yj) of the spermatozoon 10j considered is fixed: preferably, the position (x ⁇ y ⁇ ) of the spermatozoon 10i is centered in each thumbnail V in .
  • a thumbnail V in may for example comprise a few tens or even a few hundreds of pixels, typically between 50 and 500 pixels.
  • a thumbnail is 64 x 64 pixels. Due to the size and concentration of spermatozoa in the sample, a V in thumbnail may include several spermatozoa to be characterised. However, only the spermatozoon 10j occupying a predetermined position in the thumbnail V in , for example at the center of the thumbnail, is characterized using said thumbnail.
  • Figure 6 shows nine V in thumbnails extracted from I outin images resulting from step 100, using the positions (%j, yj) resulting from trajectory tracking of a spermatozoon resulting from step 130.
  • Step 160 Classification of the morphology of each spermatozoon
  • a CNN c classification neural network is used, so as to classify each 10i spermatozoon previously detected by the convolutional neural network detection CNNd.
  • the neural network is fed with thumbnails ... V i N extracted during step 150.
  • the convolutional neural network of classification CNN c can for example comprise 6 convolutional layers, comprising between 16 and 64 characteristics: 16 characteristics for the first four layers, 32 characteristics for the fifth layer, and 64 characteristics for the sixth layer.
  • the passage from one layer to another is carried out by applying a convolution kernel of size 3 by 3
  • the output layer comprises nodes, each node corresponding to a probability of belonging to a morphological class.
  • Each morphological class corresponds to a morphology of the analyzed sperm. It can for example be a known classification, the classes being:
  • flagellum abnormality curved or coiled flagellum
  • the output layer can thus have 11 classes.
  • the neural network is programmed in a Matlab environment (publisher: The Mathworks).
  • the neural network has previously been the subject of learning (step 90), so as to parameterize the convolution filters.
  • learning games were used, each game comprising: thumbnails, extracted from images acquired by the image sensor; a manual annotation of the morphology of each sperm analyzed.
  • the annotation was carried out on the basis of thumbnails having been the subject of a holographic reconstruction.
  • FIGS. 7A, 7B and 7C represent respectively an image acquired by the image sensor, an image reference, manually annotated, and an image resulting from the detection neural network. Image 7C was obtained without implementing the filter during step 110.
  • FIGS. 8A, 8B and 8C respectively represent an image acquired by the image sensor, a reference image, annotated manually, and an image resulting from the detection neural network.
  • Image 8C was obtained by implementing a high pass filter during step 110.
  • image 8C includes detected spermatozoa, marked by arrows, which do not appear on image 7C. Applying the filter improves the detection performance of the classification neural network.
  • FIGS. 9A and 9B respectively represent the detection sensitivity and the detection specificity of the CNNd detection neural network (curves a, b and c), in comparison with a conventional algorithm (curve d).
  • the classical algorithm was based on morphological operations of erosion/dilation type image processing.
  • curves a, b and c correspond respectively: to the neural network trained with 10,000 annotations; the trained neural network with 20,000 annotations; to the neural network trained with 20,000 annotations, each image acquired by the sensor having been subject to high-pass filtering.
  • Sensitivity and specificity were determined on 14 different samples (abscissa axis) of diluted bovine semen (factor 10). It is observed that the performances of the neural network, whatever the configuration (curves a, b and c) are superior to that of the classical algorithm, which is remarkable. Furthermore, the best performance is obtained in configuration c, according to which the neural network is trained with 20,000 annotations and is fed with an image that has been preprocessed with a high-pass filter. It is recalled that the sensitivity corresponds to the rate of true positives over the sum of the rates of true positives and false negatives, and that the specificity corresponds to the rate of true positives over the sum of the rates of true and false positives.
  • Figure 10A is a confusion matrix representing the classification performance of a CNN c classification neural network parameterized to receive, as an input image, an image resulting from a holographic reconstruction.
  • the neural network is a convolutional neural network, as previously described, trained using images acquired using a defocused device, as previously described. Using this neural network, each acquired image undergoes a holographic reconstruction, in a sample plane extending through the sample, using a holographic reconstruction algorithm as described in US20190101484. From the reconstructed image, a thumbnail centered on the sperm to be characterized is extracted. The thumbnail forms an input image of the neural network.
  • Figure 10B is a confusion matrix representing the classification performance of a classification neural network parameterized to receive, as an input image, a single thumbnail, centered on the spermatozoon to be characterized, and extracted from a image acquired in a defocused configuration.
  • the neural network is a convolutional neural network, structured as described in step 160, except that the neural network is powered by a single tile.
  • Figure 10C is a confusion matrix representing the classification performance of a classification neural network as described in step 160, fed by a series of 5 vignettes extracted from images acquired in defocused configuration.
  • each confusion matrix corresponds to classes 1 to 10 previously described.
  • a single input image makes it possible to obtain a satisfactory classification performance.
  • morphological classification it is not necessary to have a series of images comprising several images. A single image may suffice. However, the classification performance is better when using multiple images.
  • the invention allows an analysis of a sample comprising spermatozoa without resorting to a translation stage. Furthermore, it allows characterization directly from the image acquired by the image sensor, that is to say on the basis of diffraction figures of the different spermatozoa, and this without requiring the use of algorithms of digital reconstruction. Currently, the use of such an algorithm results in a processing time of 10 seconds per image. That is 300 seconds for a series of 30 images. Furthermore, as represented in FIGS. 10A to 10C, the invention allows a more precise classification than a classification based on a neural network of identical structure, fed by reconstructed images.
  • Another advantage of the invention is the tolerance of defocusing.
  • the inventors estimate that the invention tolerates shifts of ⁇ 25 ⁇ m between the optical system and the sample.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Dispersion Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Signal Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Procédé de caractérisation d'une particule mobile dans un échantillon (10), le procédé comportant: a) acquisition d'au moins une image (I o,n) de l'échantillon durant une période d'acquisition, à l'aide d'un capteur d'image (20) et formation d'une série d'images, la série d'images comportant au moins une image; b) utilisation de chaque image de la série d'images résultant de a) en tant qu'imagé d'entrée (I in,n) d'un réseau de neurones convolutif de détection (CNNd), le réseau de neurones convolutif de détection étant configuré pour détecter les particules et pour produire, à partir de chaque image, une image de sortie (I out,n) sur laquelle à chaque particule détectée est assignée une distribution d'intensité, centrée sur la particule et s'étendant autour de la particule; c) pour chaque particule détectée, à partir de chaque image de sortie (I out,n) résultant de b), estimation d'une position (xi, yi) de chaque particule détectée dans chaque image de la série d'images; d) caractérisation de chaque particule détectée à partir de l'estimation de la position résultant de c), établie à partir de chaque image de la série d'images.

Description

Description
Titre : Procédé de caractérisation de spermatozoïdes
DOMAINE TECHNIQUE
Le domaine technique de l'invention est l'observation de particules microscopiques mobiles ou motiles dans un échantillon, en vue de leur caractérisation. Une application visée est la caractérisation de spermatozoïdes.
ART ANTERIEUR
L'observation de particules cellulaires motiles, telles des spermatozoïdes, dans un échantillon, est usuellement effectuée à l'aide d'un microscope. Le microscope comporte un objectif définissant un plan objet, s'étendant dans l'échantillon, ainsi qu'un plan image, confondu avec un plan de détection d'un capteur d'image. Le microscope effectue des images des spermatozoïdes selon une configuration focalisée. Le choix d'une telle modalité suppose un compromis entre la résolution spatiale, le champ observé et la profondeur de champ. Plus l'ouverture numérique de l'objectif est élevée, meilleure est la résolution spatiale, au détriment de la taille du champ observé. De même, une ouverture numérique élevée diminue la profondeur de champ.
On comprend que l'observation de particules motiles suppose une optimisation de l'objectif, sachant que, dans une telle configuration, il n'est pas possible d'obtenir à la fois une bonne résolution spatiale, un champ observé large et une grande profondeur de champ. Or, ces propriétés sont particulièrement importantes lors de l'observation de particules microscopiques motiles, notamment lorsque ces dernières sont nombreuses : la taille des particules nécessite une bonne résolution spatiale ; leur nombre justifie un champ observé étendu, de façon à pouvoir maximiser le nombre de particules observées sur une même image ; leur mouvement requiert une profondeur de champ importante, de façon que les particules apparaissent nettement sur l'image.
Compte tenu de ces impératifs, il est usuel d'utiliser un microscope à fort grossissement. La faible taille du champ observée est compensée par le recours à une platine de translation. Cette dernière permet une acquisition d'images en déplaçant l'objectif relativement à l'échantil lion, parallèlement à ce dernier. La faible profondeur de champ est compensée en limitant l'épaisseur de l'échantillon : ce dernier est par exemple disposé dans une chambre fluidique de faible épaisseur, typiquement inférieure à 20 pm, de façon à limiter le déplacement des particules selon une direction perpendiculaire au plan objet. Par ailleurs, l'objectif peut être rapproché ou éloigné de l'échantillon, de façon à déplacer le plan objet dans l'échantillon, selon son épaisseur. Il en résulte un dispositif complexe et coûteux, nécessitant un déplacement précis de l'objectif.
Le document WO2019/125583 décrit des principes généraux relatifs à l'analyse de la motilité ou de la morphologie de spermatozoïdes, en évoquant le recours à un algorithme d'intelligence artificielle à apprentissage supervisé.
La publication Amann R. et al « Computer-assisted sperm analysis (CASA) : Capabilities and potentiel developments », décrit le recours à un dispositif d'imagerie conventionnelle, focalisé, utilisant une chambre fluidique de faible épaisseur.
Une alternative à la microscopie classique, telle que décrite dans la publication précitée, a été proposée par l'imagerie sans lentille. Il est connu que l'imagerie sans lentille, couplée à des algorithmes de reconstruction holographique, permet une observation de cellules en conservant un champ d'observation élevé, ainsi qu'une grande profondeur de champ. Les brevets US9588037 ou US8842901 décrivent par exemple le recours à l'imagerie sans lentille pour l'observation de spermatozoïdes. Les brevets US10481076 ou US10379027 décrivent également le recours à l'imagerie sans lentille, couplée à des algorithmes de reconstruction, pour caractériser des cellules.
On sait que le recours à des algorithmes de reconstruction numérique permet d'obtenir des images nettes de particules. De tels algorithmes sont par exemple décrits dans US10564602, US20190101484 ou US20200124586. Dans ce type d'algorithme, à partir d'un hologramme acquis dans un plan de détection, on reconstruit une image de l'échantillon dans un plan de reconstruction, distant du plan de détection. Il est usuel que le plan de reconstruction d'étende à travers l'échantillon. Cependant, ce type d'algorithme peut nécessiter un temps de calcul relativement long.
Une telle contrainte est acceptable lorsque les particules sont considérées comme immobiles dans l'échantillon. Cependant, lorsque l'on souhaite caractériser des particules mobiles, et en particulier des particules motiles, le temps de calcul peut devenir trop important. En effet, la caractérisation de particules mobiles nécessite une acquisition de plusieurs images, à des fréquences élevées, de façon à pouvoir caractériser le mouvement des particules dans l'échantillon. Les inventeurs proposent une alternative aux brevets précédemment cités, permettant de caractériser des particules motiles, et en particulier des spermatozoïdes, en utilisant un procédé d'observation simple. Le procédé conçu par les inventeurs permet la caractérisation d'un grand nombre de particules sans nécessiter de déplacement d'un objectif relativement à l'échantillon.
EXPOSE DE L'INVENTION
Un premier objet de l'invention est un procédé de caractérisation d'au moins une particule mobile dans un échantillon, le procédé comportant: a) acquisition d'au moins une image de l'échantillon durant une période d'acquisition, à l'aide d'un capteur d'image et formation d'une série d'images à partir des images acquises ; b) utilisation de chaque image de la série d'images résultant de a) en tant qu'imagé d'entrée d'un réseau de neurones convolutif de détection, le réseau de neurones convolutif de détection étant configuré pour détecter les particules et pour produire, à partir de chaque image, une image de sortie sur laquelle à chaque particule détectée est assignée une distribution d'intensité centrée sur la particule et s'étendant autour de la particule ; c) pour chaque particule détectée, à partir de chaque image de sortie résultant de b), estimation d'une position de chaque particule détectée dans chaque image de la série d'images ; d) caractérisation de chaque particule détectée à partir de l'estimation de la position résultant de c), établie à partir de chaque image de la série d'images.
Selon une possibilité, les étapes a) à d) peuvent être effectuées avec une seule image. Dans ce cas, la série d'images comporte une seule image.
Selon une possibilité, sur l'image de sortie, chaque particule peut être représentée sous la forme d'un point.
La particule (ou chaque particule) peut notamment être un spermatozoïde.
L'étape d) peut comporter une caractérisation, notamment morphologique, de chaque spermatozoïde détecté. L'étape d) comporte alors : pour chaque du spermatozoïde détecté, à partir de chaque image résultant de a), et des positions résultant de c), extraction d'une vignette comportant le spermatozoïde détecté, la position du spermatozoïde détecté dans la vignette étant prédéterminée, de façon à obtenir, pour spermatozoïde détecté, une série de vignettes, la taille de chaque vignette étant inférieure à la taille de chaque image acquise lors de l'étape a) ; - pour chaque spermatozoïde détecté, utilisation de la série de vignettes en tant que donnée d'entrée d'un réseau de neurones de classification, le réseau de neurones de classification étant configuré pour classifier le spermatozoïde parmi des classes prédéterminées. Il peut notamment s'agir de classes morphologiques.
Le procédé peut être tel que chaque spermatozoïde détecté est centré par rapport à chaque vignette.
L'étape d) peut comporter une caractérisation de la motilité du spermatozoïde. L'étape d) peut alors comporter, à partir des positions du spermatozoïde résultant de l'étape c) :
- une détermination d'une trajectoire du spermatozoïde durant la période d'acquisition;
- un calcul d'une vitesse du spermatozoïde à partir de la trajectoire ;
- une classification du spermatozoïde en fonction de la vitesse.
Le procédé peut comporter :
- une détermination d'une distance, en ligne droite, entre un premier point et un dernier point de la trajectoire, et un calcul d'une vitesse de trajectoire linéaire à partir de ladite distance ;
- et/ou une détermination de distances parcourues entre chaque image acquise, et un calcul d'une vitesse de la trajectoire curvilinéaire à partir desdites distances ;
- et/ou une détermination d'une trajectoire lissée, et un calcul d'une vitesse de la trajectoire moyenne à partir de la trajectoire lissée.
Selon un mode de réalisation,
- l'échantillon s'étend selon un plan de l'échantillon ;
- le capteur d'image s'étend selon un plan de détection ;
- un système optique s'étend entre l'échantillon et le capteur d'image, le système optique définissant un plan objet et un plan image ;
- le plan objet est décalé par rapport au plan de l'échantillon d'une distance de défocalisation objet et/ou le plan image est décalé par rapport au plan de l'échantillon d'une distance de défocalisation image.
Dans un tel mode de réalisation, le procédé peut être tel que: l'échantillon est disposé sur un support d'échantillon, reposant sur au moins un ressort, le ressort étant configuré pour pousser le support d'échantillon vers le système optique ;
- le système optique est relié à au moins une butée, s'étendant, à partir du système optique, vers le support d'échantillon ; - de telle sorte que durant l'étape a), sous l'effet du ressort, le support d'échantillon s'appuie sur la butée.
Selon un mode de réalisation, aucune optique de formation d'image ne s'étend entre l'échantillon et le capteur d'image.
Selon un mode de réalisation, l'étape a) comporte une normalisation de chaque image acquise par une moyenne de ladite image ou par une moyenne d'images de la série d'images. Dans ce cas, la série d'images est effectuée à partir de chaque image acquise, après normalisation.
Selon un mode de réalisation, l'étape a) comporte une application d'un filtre passe-haut à chaque image acquise. Dans ce cas, la série d'images est effectuée à partir de chaque image acquise, après application du filtre passe-haut.
Avantageusement, lors de l'étape b), la distribution d'intensité assignée à chaque particule est décroissante, de telle sorte que l'intensité décroît en fonction de la distance par rapport à la particule.
Avantageusement, lors de l'étape b), La distribution d'intensité assignée à chaque particule peut être une distribution statistique paramétrique bidimensionnelle.
Un deuxième objet de l'invention est un dispositif d'observation d'un échantillon, l'échantillon comportant des particules mobiles, le dispositif comportant :
- une source de lumière, configurée pour illuminer l'échantillon ;
- un capteur d'image, configuré pour former une image de l'échantillon ;
- une structure de maintien, configurée pour maintenir l'échantillon entre la source de lumière et le capteur d'image ;
- une unité de traitement, reliée au capteur d'image, et configurée pour mettre en œuvre les étapes a) à d) d'un procédé selon le premier objet de l'invention à partir d'au moins une image acquise par le capteur d'image.
Selon un mode de réalisation, aucune optique de formation d'image ne s'étend entre le capteur d'image et l'échantillon. La structure de maintien peut être configurée pour maintenir une distance fixe entre le capteur d'image et l'échantillon.
Selon un mode de réalisation,
- le capteur d'image s'étend selon un plan de détection ; le dispositif comporte un système optique, s'étendant entre le capteur d'image et le plan support, le système optique définissant un plan image et un plan objet, le dispositif étant tel que : • le plan image est décalé par rapport au plan de détection d'une distance de défocalisation image ;
• et/ou le plan support et décalé par rapport au plan objet d'une distance de défocalisation objet .
L'invention sera mieux comprise à la lecture de l'exposé des exemples de réalisation présentés, dans la suite de la description, en lien avec les figures listées ci-dessous.
FIGURES
La figure IA représente un premier mode de réalisation de dispositif permettant une mise en œuvre de l'invention.
La figure IB est une vue tridimensionnelle du dispositif schématisé sur la figure IA.
La figure IC montre un montage permettant de maintenir l'échantillon à distance fixe d'un système optique.
La figure 1D montre le montage représenté sur la figure IC dans une position d'observation.
La figure 2 représente un deuxième mode de réalisation de dispositif permettant une mise en œuvre de l'invention.
La figure 3 montre les principales étapes d'un procédé de caractérisation de particules mobiles dans l'échantillon.
Les figures 4A, 4B et 4C représentent respectivement une image acquise, une image de référence et une image résultant du réseau de neurones de détection.
La figure 5A est un exemple d'image d'un échantillon obtenue en mettant en œuvre un dispositif selon le premier mode de réalisation de l'invention. La figure 5B montre l'image représentée sur la figure 5A après un traitement par un réseau de neurones de détection. La figure 5C montre un exemple d'obtention de trajectoires de particules détectées sur l'image 5B.
La figure 6 montre des vignettes centrées sur un même spermatozoïde, les vignettes étant extraites d'une série de neuf images acquises selon une modalité d'imagerie défocalisée.
Les figures 7A, 7B et 7C représentent respectivement une image acquise, une image de référence et une image résultant du réseau de neurones de détection.
Les figures 8A, 8B et 8C représentent respectivement une image acquise, une image de référence et une image résultant du réseau de neurones de détection. Sur cette série d'images, la figure 8A a fait l'objet d'un traitement par un filtre passe-haut.
Les figures 9A et 9B représentent des performances de détection de particules par le réseau de neurones de détection, dans différentes conditions. Les performances sont la sensibilité (figure 9A) et la spécificité (figure 9B). Les figures 10A à IOC représentent des matrices de confusion, exprimant les performances de classification de spermatozoïdes, à l'aide d'images acquises selon la modalité défocalisée, la classification étant effectuée respectivement : en mettant en œuvre un algorithme de reconstruction holographique à partir d'une image obtenue par reconstruction holographique et traitée par un réseau de neurones ; en mettant en œuvre un réseau de neurones de classification dont la couche d'entrée comporte une unique image acquise selon une configuration défocalisée, sans reconstruction holographique ; en mettant en œuvre un réseau de neurones de classification, dont la couche d'entrée comporte une série d'images d'une particule, chaque image étant acquise selon une configuration défocalisée, sans reconstruction holographique.
EXPOSE DE MODES DE REALISATION PARTICULIERS
On a représenté, sur la figure IA, un premier mode de réalisation d'un dispositif 1 permettant une mise en œuvre de l'invention. Selon ce premier mode de réalisation, le dispositif permet l'observation d'un échantillon 10 interposé entre une source de lumière 11 et un capteur d'image 20. La source de lumière 11 est configurée pour émettre une onde lumineuse incidente 12 se propageant jusqu'à l'échantillon parallèlement à un axe de propagation Z.
Le dispositif comporte un support d'échantillon 10s configuré pour recevoir l'échantillon 10, de sorte que l'échantillon soit maintenu sur le support 10s. L'échantillon ainsi maintenu s'étend selon un plan, dit plan d'échantillon Pw. Le plan de l'échantillon correspond par exemple à un plan moyen autour duquel s'étend l'échantillon 10. Le support d'échantillon peut être une lame de verre, par exemple d'épaisseur 1mm.
L'échantillon comprend notamment un milieu liquide 10m dans lequel baignent des particules mobile et éventuellement motiles 10i. Le milieu 10m peut être un liquide biologique ou un liquide tampon. Il peut par exemple comporter un liquide corporel, à l'état pur ou dilué. Par liquide corporel, on entend un liquide généré par un corps vivant. Il peut en particulier s'agir, à titre non limitatif, de sang, d'urine, de liquide céphalorachidien, de sperme, de lymphe.
L'échantillon 10 est de préférence contenu dans une chambre fluidique 10c. La chambre fluidique est par exemple une chambre fluidique d'épaisseur, comprise entre 20 pm et 100 pm. L'épaisseur de la chambre fluidique, et donc de l'échantillon 10, selon l'axe de propagation Z, varie typiquement entre 10 pm et 200pm, et est de préférence comprise entre 20 pm et 50 pm pm.
Un des objectifs de l'invention est la caractérisation de particules en mouvement dans l'échantillon. Dans l'exemple de réalisation décrit, les particules mobiles sont des spermatozoïdes. Dans ce cas, l'échantillon comporte du sperme, éventuellement dilué. Dans ce cas, la chambre fluidique 10c peut être une chambre de comptage dédiée à l'analyse de la mobilité ou de la concentration de cellules. Il peut par exemple s'agir d'une chambre de comptage commercialisées par Leja, d'épaisseur comprise entre 20 pm et 100 pm.
Selon d'autres applications, l'échantillon comporte des particules mobiles, par exemple des microorganismes, par exemple microalgues ou plancton, ou des cellules, par exemple des cellules en cours de sédimentation.
La distance D entre la source de lumière 11 et l'échantillon 10 est de préférence supérieure à 1 cm. Elle est de préférence comprise entre 2 et 30 cm. Avantageusement, la source de lumière 11, vue par l'échantillon, est considérée comme ponctuelle. Cela signifie que son diamètre (ou sa diagonale) est préférentiellement inférieur au dixième, mieux au centième de la distance entre l'échantillon et la source de lumière.
La source de lumière 11 est par exemple une diode électroluminescente. Elles est de préférence associée à un diaphragme 14, ou filtre spatial. L'ouverture du diaphragme est typiquement comprise entre 5 pm et 1 mm, de préférence entre 50 pm et 1 mm. Dans cet exemple, le diaphragme a un diamètre est de 400 pm. Selon une autre configuration, le diaphragme peut être remplacé par une fibre optique, dont une première extrémité est placée face à la source de lumière et dont une deuxième extrémité est placée en regard de l'échantillon 10. Le dispositif peut également comporter un diffuseur 13, disposé entre la source de lumière 13 et le diaphragme 14. Le recours à un assemblage diffuseur/diaphragme est par exemple décrit dans US10418399
Le capteur d'image 20 est configuré pour former une image de l'échantillon selon un plan de détection P20. Dans l'exemple représenté, le capteur d'image 20 comporte une matrice de pixels, de type CCD ou un CMOS. Le plan de détection P20 s'étend de préférence perpendiculairement à l'axe de propagation Z. De préférence, le capteur d'image présente une surface sensible élevée, typiquement supérieure à 10 mm2. Dans cet exemple, le capteur d'image est un capteur IDS-UI-3160CP-M-GL comportant des pixels de 4.8x4.8 pm2, la surface sensible étant de 9.2 mm x 5.76 mm, soit 53 mm2. Dans l'exemple représenté sur la figure IA, le capteur d'image 20 est optiquement couplé à l'échantillon 10 par un système optique 15. Dans l'exemple représenté, le système optique comporte un objectif 15i et une lentille de tube 152. Cette dernière est destinée à projeter une image formée, sur la surface sensible du capteur d'image 20 (surface de 53 mm2).
Dans cet exemple : l'objectif 15i est un objectif Motic CCIS EF-N Plan Achromat lOx, d'ouverture numérique 0.25 ; la lentille 152 est une lentille Thorlabs LBF254-075-A - focale 75 mm.
Un tel montage confère un champ d'observation de 3 mm2, avec une résolution spatiale de 1 pm. La courte focale de la lentille permet d'optimiser l'encombrement du dispositif 1 et d'ajuster le grossissement à la dimension du capteur d'image.
Le capteur d'image est configuré pour acquérir des images de l'échantillon , selon une fréquence d'acquisition de quelques dizaines d'images par seconde, par exemple 60 images par seconde. La fréquence d'échantillonnage est typiquement comprise entre 5 et 100 images par seconde.
Le système optique 15 définit un plan objet Po et un plan image Pi. Dans le mode de réalisation représenté sur la figure IA, le capteur d'image 20 est configuré pour acquérir une image selon une configuration défocalisée. Le plan image Pi est confondu avec le plan de détection P2o, tandis que le plan objet Po est décalé d'une distance de focalisation objet 6 comprise entre 10 pm et 500 pm, par rapport à l'échantillon. La distance de focalisation est de préférence comprise entre 50 pm et 100 pm, par exemple 70 pm. Le plan objet Po s'étend en dehors de l'échantillon 10. Selon une autre possibilité, le plan objet s'étend dans l'échantillon, tandis que le plan image est décalé par rapport au plan de détection, d'une distance de défocalisation image. La distance de focalisation image est de préférence comprise entre 50 pm et 100 pm, par exemple 70 pm. Selon une autre possibilité, le plan objet Po et le plan image Pi sont tous les deux décalés respectivement par rapport au plan de l'échantillon et par rapport au plan de détection. Quelle que soit la configuration retenue, la distance de défocalisation est de préférence supérieure à 10 pm et inférieure à 1 mm, voire à 500 pm, et de préférence entre 50 pm et 150 pm. L'observation d'un échantillon cellulaire selon une configuration défocalisée a été décrit dans le brevet US10545329.
Selon une telle modalité, le capteur d'image 20 est exposé à une onde lumineuse, dite onde lumineuse d'exposition. L'image acquise par le capteur d'image comporte des figures d'interférence, pouvant également être désignées par le terme "figures de diffraction", formées par : une partie de l'onde lumineuse 12 émise par la source de lumière 11, et ayant traversé l'échantillon sans interagir avec ce dernier ; des ondes de diffraction, formées par la diffraction d'une partie de l'onde lumineuse 12 émise par la source de lumière dans l'échantillon. Il s'agit notamment de la diffraction formée par les particules.
Une unité de traitement 30, comportant par exemple un microprocesseur, est apte à traiter chaque image acquise par le capteur d'image 20. En particulier, l'unité de traitement comporte une mémoire programmable 31 dans laquelle est stockée une séquence d'instructions pour effectuer les opérations de traitement d'images et de calculs décrites dans cette description. L'unité de traitement 30 peut être couplée à un écran 32 permettant l'affichage d'images acquises par le capteur d'image 20 ou résultant du traitement effectué par l'unité de traitement 30.
L'image acquise par le capteur d'image 20, selon une modalité d'imagerie défocalisée, est une figure de diffraction de l'échantillon, parfois appelé hologramme. Elle ne permet pas d'obtenir une représentation précise de l'échantillon observé. De façon usuelle dans le domaine de l'holographie, on peut appliquer, à chaque image acquise par le capteur d'image, un opérateur de reconstruction holographique de façon à calculer une expression complexe représentative de l'onde lumineuse à laquelle est exposé le capteur d'image, et cela en tout point de coordonnées (x, y, z) de l'espace, et en particulier dans un plan de reconstruction correspondant au plan de l'échantillon. L'expression complexe permet d'obtenir l'intensité ou la phase de l'onde lumineuse d'exposition. Une telle reconstruction holographique est décrite en lien avec l'art antérieur, ainsi que dans US10545329.
Cependant, pour des raisons de rapidité de traitement, les inventeurs ont suivi une approche différente de celle suggérée par l'art antérieur, sans recours à un algorithme de reconstruction holographique appliqué aux images acquises par le capteur d'image. Le procédé mis en œuvre par le capteur est décrit par la suite, en lien avec la figure 3.
La figure IB est une représentation d'un exemple de dispositif tel que schématisé sur la figure IA. Les figures IC et 1D représentent un détail de la disposition de l'échantillon 10 face au système optique 15, et plus précisément face à l'objectif 15i. Le support de l'échantillon 10s est relié à des moyens de rappel élastiques 16a, par exemple des ressorts. Les ressorts tendent à rapprocher le support d'échantillon 10s de l'objectif 15i. Le dispositif comporte également des butées 16b, solidaires de l'objectif 15i. L'objectif 15i et les butées 16b sont fixes par rapport au capteur d'image 20. Les butées 16b et les moyens de rappel 16a forment une structure de maintien 16, destinée à maintenir l'échantillon entre la source de lumière 11 et le capteur d'image 20.
Les figures IC et 1D représentent le maintien de l'échantillon sur le support d'échantillon respectivement durant la mise en place de l'échantillon et durant son observation. Une liaison rigide 16c relie l'objectif 15i aux butées 16b. Durant la mise en place de l'échantillon (figure IC), les ressorts 16a sont comprimés. Durant l'observation de l'échantillon (figure ID), sous l'effet d'une détente des ressors 16a, le support de l'échantillon 10s vient en appui contre les butées 16b. Cela permet de maîtriser la distance A entre l'objectif 15i et l'échantillon 10, indépendamment de l'épaisseur du support d'échantillon 10s. Cela permet de s'affranchir de variations de l'épaisseur du support d'échantillon. Par exemple, lorsque ce dernier est une lame de verre d'épaisseur 1mm, l'épaisseur peut fluctuer selon une plage relativement importante, par exemple ± 100 pm. Le montage décrit en lien avec les figures IC et 1D permet de maîtriser la distance A entre l'objectif 15i et l'échantillon 10, à ± 5 pm près, indépendamment de telles fluctuations d'épaisseur de la lame 10s. Les inventeurs estiment qu'un tel montage permet d'éviter le recours à un système autofocus pour effectuer des images
Sur le figures IC et 1D, on a également représenté une résistance chauffante 19 reliée à un contrôleur de température 18. La fonction de ces éléments est de maintenir une température de la chambre fluidique 10c à 37°C.
La figure 2 représente un deuxième mode de réalisation de dispositif l' convenant à la mise en œuvre de l'invention. Le dispositif l' comporte une source de lumière 11, un diffuseur 13, un diaphragme 14, un capteur d'image 20, une structure de maintien 17 et une unité de traitement 30 tels que décrits en lien avec le premier mode de réalisation. La structure de maintien 17 est configurée pour définir une distance fixe entre l'échantillon et le capteur d'image. Selon ce mode de réalisation, le dispositif ne comporte pas de lentille de formation d'image entre le capteur d'image 20 et l'échantillon 10. Le capteur d'image 20 est de préférence rapproché de l'échantillon, la distance entre le capteur d'image 20 et l'échantillon 10 étant typiquement comprise entre 100 pm et 3 mm. Selon ce mode de réalisation, le capteur d'image acquiert des images selon une modalité d'imagerie sans lentille. L'échantillon est de préférence contenu dans une chambre fluidique 10c, par exemple une chambre « Leja » telle que décrite en lien avec le premier mode de réalisation. L'avantage d'un tel mode de réalisation est qu'il ne nécessite pas un positionnement précis d'un système optique 15 par rapport à l'échantillon 10, et qu'il confère un champ d'observation élevé. L'inconvénient est l'obtention d'images de moindre qualité, mais qui demeurent exploitables.
De préférence, la structure de maintien est agencée façon que la distance entre l'échantillon, lorsque l'échantillon 10 est disposé sur la structure de maintien 17, et le capteur d'image 20, est constante. Dans l'exemple représenté sur la figure 2, la structure de maintien 17 est reliée à une base 20', sur laquelle s'étend le capteur d'image 20. La base peut par exemple être une plaque de type PCB (Printed Circuit Board - Circuit imprimé), sur laquelle est posé le capteur d'image 20. L'échantillon 10, contenu dans la chambre fluidique 10c, est maintenu, par le support d'échantillon 10s, sur la structure de maintien 17. Le support d'échantillon est par exemple une lame transparente. L'échantillon s'étend entre le support d'échantillon 10s et le capteur d'image. Ainsi, la distance entre l'échantillon 10 et le capteur d'image 20 n'est pas affectée par une fluctuation de l'épaisseur du support 10s.
La figure 3 schématise les principales étapes d'un procédé de traitement de plusieurs images acquises par un capteur d'image selon la modalité d'imagerie défocalisée (premier mode de réalisation) ou d'imagerie sans lentille (deuxième mode de réalisation). Le procédé est décrit en lien avec l'observation de spermatozoïdes, étant entendu qu'il peut s'appliquer à l'observation d'autres types de particules motiles.
Etape 100 : Acquisition d'une série d'images IO n
Au cours de cette étape, on acquiert une série d'images IO n selon l'une des modalités précédemment décrites, n est un entier naturel désignant le rang de chaque image acquise, avec 1< n < N, N étant le nombre total d'images acquises. Les images acquises sont des images acquises soit selon une modalité d'imagerie défocalisée, soit selon une modalité d'imagerie sans lentille. Le nombre N d'images acquises peut être compris entre 5 et 50. Comme précédemment indiqué, les images peuvent être acquises selon une fréquence d'acquisition de 60 Hz.
Dans les résultats présentés ci-après, les images ont été acquises en utilisant une modalité d'imagerie défocalisée, telle que décrite en lien avec les figures IA à 1D.
Etape 110 : Prétraitement
L'objectif est d'effectuer un prétraitement de chaque image acquise, de façon à limiter les effets d'une fluctuation de l'intensité de l'onde lumineuse incidente ou de la sensibilité de la caméra. Le prétraitement consiste à normaliser chaque image acquise par une moyenne de l'intensité d'au moins une image acquise, et de préférence de l'ensemble des images acquises.
Ainsi, à partir de chaque image IO n, la normalisation permet d'obtenir une image normalisée In, telle que In = x 100 où IO n est une moyenne d'une ou plusieurs images de la série d'images, et de préférence de chaque image de la série d'images.
Selon une possibilité, le prétraitement peut inclure une application d'un filtre passe-haut à chaque image, éventuellement normalisée. Le filtre passe-haut permet d'éliminer les basses fréquences de l'image.
Selon une possibilité, on applique un filtre gaussien, en effectuant un produit de convolution de l'image In par un noyau gaussien K. La largeur à mi-hauteur du noyau gaussien est par exemple de 20 pixels. Le prétraitement consiste alors à soustraire, à l'image In, l'image In * K résultant de l'application du filtre gaussien, de telle sorte que l'image résultant du prétraitement est : I'n = In ~ In * . * est l'opérateur produit de convolution.
L'effet d'un tel filtrage est décrit par la suite, en lien avec les figures 7A à 7C et 8A à 8C.
Etape 120 : Détection de particules
Cette étape consiste à détecter et à positionner précisément les spermatozoïdes, et cela sur chaque image IO n, résultant de l'étape 100 ou de chaque image I'n prétraitée lors de l'étape 110. Cette étape est effectuée à l'aide d'un réseau de neurones convolutif de détection CNNd. Le réseau de neurones CNNd comporte une couche d'entrée, sous la forme d'une image d'entrée Iin n. L'image d'entrée Iin n est soit une image acquise IO n, soit une image In, I'n prétraitée . A partir de l'image d'entrée Iin n, le réseau de neurones de détection CNNd génère une image de sortie Iout,n- L'image de sortie Ioutin est telle que chaque spermatozoïde 10i détecté sur l'image d'entrée Iin n, en une position apparaît sous la forme d'une distribution d'intensité centrée autour de ladite position. Autrement dit, à partir d'une image d'entrée le réseau de neurones CNNd permet : une détection de spermatozoïdes ; une estimation de la position de chaque spermatozoïde 10i détecté; une génération d'une image de sortie /out n comportant une distribution d'intensité prédéterminée autour de chaque position .
Ainsi, Iout n — CN NdUin.n) Chaque position (x^y^ est une position bidimensionnelle, dans le plan de détection P20. La distribution est telle que l'intensité est maximale au niveau de chaque position (%j,yi) et que l'intensité soit considérée comme négligeable au-delà d'un voisinage Vt de chaque position. Par voisinage on entend une région s'étendant selon un nombre de pixels, prédéterminé, par exemple entre 5 et 20 pixels, autour de chaque position (x^y^). La distribution Dt peut être de type créneau, auquel cas dans le voisinage chaque pixel est d'intensité constante est élevée, et au-delà du voisinage chaque pixel a une intensité nulle.
De préférence, la distribution Dt est centrée sur chaque position (x^y^) et est strictement décroissante autour de cette dernière. Il peut par exemple s'agir d'une distribution d'intensité gaussienne bidimensionnelle, centrée sur chaque position (Xj,yj). La largeur à mi hauteur est par exemple inférieure à 20 pixels, et de préférence inférieure à 10 ou 5 pixels. Toute autre forme de distribution paramétrique peut être envisagée, sachant qu'il est préférable que la distribution soit symétrique autour de chaque position, et de préférence strictement décroissante à partir de la position (xj,yj). Le fait d'assigner une distribution à chaque position (xj,yj) permet d'obtenir une image de sortie /out n dans laquelle chaque spermatozoïde est simple à détecter. En cela, l'image de sortie Iout n est une image de détection, sur la base de laquelle chaque spermatozoïde peut être détecté.
L'image de sortie du réseau de neurones est formée par une résultante de chaque distribution d'intensité Dt définie respectivement autour de chaque position (x^yj).
Dans l'exemple implémenté par les inventeurs, le réseau de neurones convolutif de détection comportait 20 couches comportant soit 10, soit 32 caractéristiques (plus usuellement désignées par le terme « features ») par couche. Le nombre de caractéristiques était déterminé de façon empirique. Le passage d'une couche à une autre est effectué en appliquant un noyau de convolution de taille 3x3. L'image de sortie est obtenue en combinant les caractéristiques de la dernière couche de convolution. Le réseau de neurones a été programmé sous environnement Matlab (éditeur : The Mathworks). Le réseau de neurones a préalablement fait l'objet d'un apprentissage (étape 80), de façon à paramétrer les filtres de convolution. Au cours de l'apprentissage, on a utilisé des jeux d'apprentissage, chaque jeu comportant : une image d'entrée, obtenue par le capteur d'image et prétraitée par normalisation et éventuellement filtrage, en utilisant des semences d'animaux. une image de sortie, sur laquelle la position de chaque spermatozoïde était annotée manuellement. L'apprentissage a été effectuée en utilisant 10000 ou 20000 positions annotées (soit entre 1000 et 3000 positions annotées par image). L'effet de la taille du jeu d'apprentissage (10000 ou 20000 annotations) est discuté en lien avec les figures 9A et 9B.
Les figures 4A, 4B et 4C sont un jeu d'images de test, comportant respectivement : une image d'un échantillon de semences de bovin acquise par le capteur d'image et ayant fait l'objet d'une normalisation et filtrage passe haut selon l'étape 110 ; une image annotée manuellement, qui correspond à une image de référence, usuellement désignée par le terme « ground truth » (réalité) ; une image résultant de l'application du réseau de neurones convolutif de détection.
L'image de la figure 4C est cohérente avec l'image de référence (figure 4B) ce qui atteste de la performance de détection du réseau de neurones CNNd. Les inventeurs ont noté que la figure 4C montre une position non représentée sur l'image de référence : une vérification a montré qu'il s'agissait d'un oubli d'annotation sur l'image de référence.
Ainsi, sur la base d'un hologramme, et moyennant d'éventuels prétraitements de type normalisation ou filtre passe haut, pour faire ressortir les fréquences hautes, l'application du réseau de neurones convolutif de détection CNNd permet une détection et un positionnement précis de spermatozoïdes. Et cela sans recourir à une reconstruction d'image mettant en œuvre un opérateur de propagation holographique, comme suggéré dans l'art antérieur. L'image d'entrée du réseau de neurones est une image formée dans le plan de détection, et non dans un plan de reconstruction distant du plan de détection. En outre, le réseau de neurones de détection génère des images de sorties peu bruitées : le rapport signal à bruit associé à chaque détection de spermatozoïde est élevé, ce qui facilite les opérations ultérieures.
L'étape 120 est réitérée pour différentes images d'une même série d'images, de façon à obtenir une série d'images de sortie Ioutil IOut,N-
Au cours de l'étape 120, à partir de chaque image de sortie Iout l I0Ut,N> on applique un algorithme de détection de maximum local, de façon à obtenir, pour chaque image, une liste de coordonnées 2D, chaque coordonnée correspondant à une position d'un spermatozoïde. Ainsi, à partir de chaque image de sortie Ioutil IOut,N> on établit une liste Lout l L0Ut w-Chaque liste Lout n comporte correspond aux positions 2D, dans le plan de détection, de spermatozoïdes détectés dans une image Ioutin. La figure 5A représente une image acquise lors de l'étape 100. Plus précisément, il s'agit d'un détail d'une image acquise selon une modalité défocalisée. Il s'agit d'une image d'un échantillon comportant du sperme de bovin. Une telle image est difficilement interprétable par un utilisateur. La figure 5B montre une image résultant de l'application du réseau de neurones de détection à la figure 5A, après normalisation et application d'un filtre passe-haut. La comparaison entre les images 5A et 5B montre le gain apporté par le réseau de neurones convolutif de détection en matière de rapport signal à bruit.
Etape 130 : suivi de position
Au cours de cette étape, à partir des listes Lout l LoutN respectivement établies à partir des images de sortie Ioutil IOut,N> résultant d'une même série d'images I0 1 ... I0 N, on applique un algorithme de suivi de position, usuellement désigné par le terme « algorithme de tracking ». Pour chaque spermatozoïde détecté suite à l'étape 120, on met en œuvre un algorithme permettant un suivi de la position du spermatozoïde, parallèlement au plan de détection, entre les différentes images de la série d'images. La mise en œuvre de l'algorithme de suivi de position est performante du fait qu'il est effectué à partir des listes Lout l L0Ut N résultant de l'étape 120. Comme précédemment indiqué, ces images présentent un rapport signal sur bruit élevé, ce qui facilite la mise en œuvre de l'algorithme de suivi de position. L'algorithme de suivi de position peut être un algorithme de type « plus proche voisin ». L'étape 130 permet une détermination d'une trajectoire de chaque spermatozoïde parallèlement au plan de détection.
Sur la figure 5C, on a superposé des images de sortie Ioutil IOut,N en considérant une pile d'images de 30 images. On observe que la trajectoire, parallèlement au plan de détection, de chaque spermatozoïde, peut être déterminée de façon précise.
Etape 140 : caractérisation de la motilité
Au cours de l'étape 140, pour chaque spermatozoïde, chaque trajectoire peut être caractérisée sur la base de métriques appliquées aux trajectoires résultant de l'étape 130. Connaissant la fréquence d'acquisition des images, il est possible de quantifier des vitesses de déplacement de chaque spermatozoïde détecté, et en particulier : une vitesse de la trajectoire linéaire VSL , usuellement désignée par le terme « velocity straighline path », qui correspond à la vitesse calculée sur la base d'une distance, en ligne droite, entre les premier et dernier points de la trajectoire (le premier point est déterminé à partir de première image acquise de la série d'images, et le dernier point est déterminé à partir de la dernière image acquise de la série d'images) une vitesse de la trajectoire curvilinéaire VCL, usuellement désignée par le terme « velocity curvilinear path » : il s'agit d'une vitesse établie en sommant les distances parcourues entre chaque image, et en divisant par la durée de la période d'acquisition ; une vitesse de la trajectoire moyenne VAP, usuellement désignée par le terme « velocity average path » : il s'agit d'une vitesse établie après lissage de la trajectoire d'une particule : la distance parcourue selon la trajectoire lissée (ou trajectoire moyenne) est divisée par la durée de la période d'acquisition.
A partir des vitesses calculées, il est possible de définir des indicateurs permettant de caractériser la motilité des spermatozoïdes, connus de l'homme du métier. Il s'agit par exemple d'indicateurs de type : indicateur de rectitude STR, obtenu par un ratio entre VSL et VAP, usuellement désigné par le terme « straightness ». Cet indicateur est d'autant plus élevé que le spermatozoïde se déplace en ligne droite ; indicateur de linéarité LIN, obtenu par un ratio entre VSL et VCL, usuellement désigné par le terme « linearity ». Cet indicateur est également d'autant plus élevé que le spermatozoïde se déplace en line droite. indicateur d'oscillation WOB, obtenu par un ratio VAP/VCL, usuellement désigné par le terme wobble.
La quantification des vitesses ou paramètres listés ci-dessus permet de catégoriser les spermatozoïdes en fonction de leur motilité. Par exemple, un spermatozoïde est considéré comme : motile si la longueur de la trajectoire est supérieure à un premier seuil, par exemple 10 pixels, et que son déplacement le long de la trajectoire moyenne (VAPx At, At étant la période d'acquisition) est supérieure à une longueur prédéfinie, correspondant par exemple à la longueur d'une tête de spermatozoïde ; progressif si la longueur de la trajectoire est supérieure au premier seuil, et si la rectitude STR et la vitesse de la trajectoire moyenne VAP sont respectivement supérieures à deux valeurs seuils STRth et VAPthi ; lent si la longueur de la trajectoire est supérieure au premier seuil et si la vitesse de la trajectoire linéaire VSL et la vitesse de la trajectoire moyenne VAP sont respectivement inférieures à deux valeurs seuils VSLth2 et VAPth2 ; statique si la longueur de la trajectoire est supérieure au premier seuil et si la vitesse de la trajectoire linéaire VSL et la vitesse de la trajectoire moyenne VAP sont respectivement inférieures à deux valeurs seuils VSLth3 et VAPth3- non catégorisé si la longueur de la trajectoire est inférieure au premier seuil.
Les valeurs seuils STRth, VSLth2, VSLth3 sont préalablement déterminées, avec VSLth2^ VSLth3- Il en est de même des valeurs VAPthi, VAPth2 et VAPth3 avec VAPthi>VAPthi> VAPth3-
Etape 150 : Extraction de vignettes pour chaque spermatozoïde.
Au cours de cette image, on extrait, pour chaque spermatozoïde détecté par le réseau de détection CNNd, une vignette Vi n, et cela dans chaque image IO n acquise par le capteur d'image lors de l'étape 100.
Chaque vignette Vi n est une portion d'une image IO n acquise par le capteur d'image. Pour chaque spermatozoïde détecté 10i, à partir de chaque image IO n, on extrait une vignette Vi n autour de la position assignée au spermatozoïde. La position du spermatozoïde 10j, dans chaque image IO n, est obtenue suite à la mise en œuvre de l'algorithme de suivi de position (étape 130).
La taille de chaque vignette Vi n est prédéterminée. Relativement à chaque vignette Vi n, la position (%j, yj) du spermatozoïde 10j considéré est fixe : de préférence, la position (x^ y^) du spermatozoïde 10i est centrée dans chaque vignette Vi n.
Une vignette Vi n peut par exemple comporter quelques dizaines voire quelques centaines de pixels, typiquement entre 50 et 500 pixels. Dans cet exemple, une vignette comporte 64 x 64 pixels. Du fait de la taille, et de la concentration des spermatozoïdes dans l'échantillon, une vignette Vi n peut comporter plusieurs spermatozoïdes à caractériser. Cependant, seul le spermatozoïde 10j occupant une position prédéterminée dans la vignette Vi n, par exemple au centre de la vignette, est caractérisé en utilisant ladite vignette.
La figure 6 montre neuf vignettes Vi n extraites à partir d'images Ioutin résultant de l'étape 100, en utilisant les positions (%j, yj) résultant du suivi de trajectoire d'un spermatozoïde résultant de l'étape 130.
Etape 160 Classification de la morphologie de chaque spermatozoïde
Au cours de cette étape, on utilise un réseau de neurones de classification CNNc, de façon à classifier chaque spermatozoïde 10i préalablement détecté par le réseau de neurones convolutif de détection CNNd. Pour chaque spermatozoïde 10i, le réseau de neurones est alimentée par les vignettes ... Vi N extraites lors de l'étape 150.
Le réseau de neurones convolutif de classification CNNc peut par exemple comporter 6 couches convolutives, comportant entre 16 et 64 caractéristiques : 16 caractéristiques pour les quatre premières couches, 32 caractéristiques pour la cinquième couche, et 64 caractéristiques pour la sixième couche. Le passage d'une couche à une autre est effectué en appliquant un noyau de convolution de taille 3 par 3 La couche de sortie comporte des nœuds, chaque nœud correspondant à une probabilité d'appartenance à une classe morphologique. Chaque classe morphologique correspond à une morphologie du spermatozoïde analysé. Il peut par exemple s'agit d'une classification connue, les classes étant :
0 : indéfini
1 : normal
2 : stump (moignon)
3 : gouttelette distale
4 : décapité
5 : microcéphale
6 : gouttelette proximale
7 : DMR (Distal Midpiece reflex, usuellement désigné Courbure de l'extrémité distale de la pièce intermédiaire)
8 : anomalie de la tête
9 : anomalie du flagelle : flagelle courbé ou enroulé
10 : agrégats.
La couche de sortie peut ainsi compter 11 classes.
Le réseau de neurones est programmé sous environnement Matlab (éditeur : The Mathworks). Le réseau de neurones a préalablement fait l'objet d'un apprentissage (étape 90), de façon à paramétrer les filtres de convolution. Au cours de l'apprentissage, on a utilisé des jeux d'apprentissage, chaque jeu comportant : des vignettes, extraites d'images acquises par le capteur d'image ; une annotation manuelle de la morphologie de chaque spermatozoïde analysé. L'annotation a été effectuée sur la base de vignettes ayant fait l'objet d'une reconstruction holographique.
Essais expérimentaux Différents tests ont été effectués pour examiner les performances du réseau de neurones de détection CNNd. On a testé la sensibilité de la détection par rapport à l'application d'un filtre passe-haut au cours de l'étape 110. Les figures 7A, 7B et 7C représentent respectivement une image acquise par le capteur d'image, une image de référence, annotée manuellement, et une image résultant du réseau de neurones de détection. L'image 7C a été obtenue sans mise en œuvre du filtre durant l'étape 110.
Les figures 8A, 8B et 8C représentent respectivement une image acquise par le capteur d'image, une image de référence, annotée manuellement, et une image résultant du réseau de neurones de détection. L'image 8C a été obtenue en mettant en œuvre d'un filtre passe haut durant l'étape 110.
On observe que l'image 8C comporte des spermatozoïdes détectés, repérés par des flèches, qui n'apparaissent pas sur l'image 7C. L'application du filtre améliore la performance de détection du réseau de neurones de classification.
Les figures 9A et 9B représentent respectivement la sensibilité de détection et la spécificité de détection du réseau de neurones de détection CNNd (courbes a, b et c), en comparaison avec un algorithme classique (courbe d). L'algorithme classique était basé sur des opérations morphologiques de traitement d'image de type érosion/dilatation.
Sur chacune des figures 9A et 9B, les courbes a, b et c correspondent respectivement : au réseau de neurones entraîné avec 10000 annotations ; au réseau de neurones entraîné avec 20000 annotations ; au réseau de neurones entraîné avec 20000 annotations, chaque image acquise par le capteur ayant fait l'objet d'un filtrage passe-haut.
La sensibilité et la spécificité (axes des ordonnées) ont été déterminées sur 14 échantillons différents (axe des abscisses) de sperme dilué de bovin (facteur 10). On observe que les performances du réseau de neurones, quel que soit la configuration (courbes a, b et c) sont supérieures à celle de l'algorithme classique, ce qui est remarquable. Par ailleurs, la meilleure performance est obtenue dans la configuration c, selon laquelle le réseau de neurones est entraîné avec 20000 annotations et est alimenté avec une image ayant fait l'objet d'un prétraitement avec un filtre passe-haut. On rappelle que la sensibilité correspond au taux de vrais positifs sur la somme des taux de vrais positifs et de faux négatifs, et que la spécificité correspond au taux de vrais positifs sur la somme des taux de vrais et faux positifs.
La figure 10A est une matrice de confusion représentant les performances de classification d'un réseau de neurones de classification CNNc paramétré pour recevoir, en tant qu'imagé d'entrée, une image résultant d'une reconstruction holographique. Le réseau de neurones est un réseau de neurones convolutif, tel que précédemment décrit, entraîné à l'aide d'images acquises à l'aide d'un dispositif défocalisé, tel que précédemment décrit. En utilisant ce réseau de neurones, chaque image acquise fait l'objet d'une reconstruction holographique, dans un plan d'échantillon s'étendant à travers l'échantillon, en utilisant un algorithme de reconstruction holographique tel que décrit dans US20190101484. A partir de l'image reconstruite, on extrait une vignette centrée sur le spermatozoïde à caractériser. La vignette forme une image d'entrée du réseau de neurone.
La figure 10B est une matrice de confusion représentant les performances de classification d'un réseau de neurones de classification paramétré pour recevoir, en tant qu'imagé d'entrée, une seule vignette, centrée sur le spermatozoïde à caractériser, et extraite d'une image acquise selon une configuration défocalisée. Le réseau de neurones est un réseau de neurones convolutif, structuré comme décrit lors de l'étape 160, si ce n'est que le réseau de neurones est alimenté par une seule vignette.
La figure 10C est une matrice de confusion représentant les performances de classification d'un réseau de neurones de classification tel que décrit dans l'étape 160, alimenté par une série de 5 vignettes extraites d'images acquises en configuration défocalisée.
Les axes de chaque matrice de confusion correspondent aux classes 1 à 10 précédemment décrites.
On remarque que les performances de classification des algorithmes décrits en lien avec les figures 10B et 10C sont supérieures à celui décrit sur la figure 10A. Par exemple que s'agissant de la classe 6 (anomalie « gouttelette proximale »), la performance de classification passe de 31% (figure 10A), à 61% (figure 10B), et à 96,9% (figure 10C).
On remarque également qu'une seule image d'entrée permet d'obtenir une performance de classification satisfaisante. Aussi, pour la classification morphologique, il n'est pas nécessaire de disposer d'une série d'images comportant plusieurs d'images. Une seule image peut suffire. Cependant, la performance de classification est meilleure lorsqu'on utilise plusieurs images.
L'invention permet une analyse d'un échantillon comportant des spermatozoïdes sans recourir à une platine de translation. Par ailleurs, elle permet une caractérisation directement à partir de l'image acquise par le capteur d'image, c'est-à-dire sur la base de figures de diffraction des différents spermatozoïdes, et cela sans nécessiter le recours à des algorithmes de reconstruction numérique. Actuellement, le recours à un tel algorithme se traduit par une durée de traitement de 10 secondes par image. Soit 300 secondes pour une série de 30 images. Par ailleurs, comme représenté sur les figures 10A à 10C, l'invention permet une classification plus précise qu'une classification basée sur un réseau de neurones de structure identique, alimenté par des images reconstruites.
Un autre avantage de l'invention est la tolérance à l'égard d'une défocalisation. Les inventeurs estiment que l'invention tolère des décalages de ± 25 pm entre le système optique et l'échantillon.

Claims

23
REVENDICATIONS . Procédé de caractérisation d'au moins une particule mobile (10j) dans un échantillon (10), le procédé comportant: a) acquisition d'au moins une image (IO n) de l'échantillon durant une période d'acquisition, à l'aide d'un capteur d'image (20) et formation d'une série d'images, la série d'images comportant au moins une image, chaque image de l'échantillon étant acquise selon une modalité d'imagerie défocalisée ou selon une modalité d'imagerie sans lentille, de façon que chaque particule forme, sur chaque image, une figure de diffraction ; b) utilisation de chaque image de la série d'images résultant de a) en tant qu'imagé d'entrée ( n,n) d'un réseau de neurones convolutif de détection (CNNd), le réseau de neurones convolutif de détection étant configuré pour détecter les particules et pour produire, à partir de chaque image, une image de sortie (Iout,n) sur laquelle à chaque particule détectée est assignée une distribution d'intensité, centrée sur la particule et s'étendant autour de la particule ; c) pour chaque particule détectée, à partir de chaque image de sortie (/out n) résultant de b), estimation d'une position de chaque particule détectée dans chaque image de la série d'images ; d) caractérisation de chaque particule détectée à partir de l'estimation de la position résultant de c), établie à partir de chaque image de la série d'images. . Procédé selon la revendication 1, dans lequel la particule est un spermatozoïde. . Procédé selon la revendication 2, dans lequel l'étape d) comporte une caractérisation morphologique de chaque spermatozoïde détecté, l'étape d) comportant : pour chaque du spermatozoïde détecté, à partir de chaque image résultant de a), et des positions résultant de c), extraction d'une vignette ( j n) comportant le spermatozoïde détecté, la position du spermatozoïde détecté dans la vignette étant prédéterminée, de façon à obtenir, pour spermatozoïde détecté, une série de vignettes, la taille de chaque vignette étant inférieure à la taille de chaque image acquise lors de l'étape a) ;
- pour chaque spermatozoïde détecté, utilisation de la série de vignettes en tant que donnée d'entrée d'un réseau de neurones de classification (CNNc), le réseau de neurones de classification étant configuré pour classifier le spermatozoïde parmi des classes morphologiques prédéterminées.
4. Procédé selon la revendication 3, dans lequel chaque spermatozoïde détecté est centré par rapport à chaque vignette.
5. Procédé selon la revendication 3 ou la revendication 4, dans lequel l'étape d) comporte une caractérisation de la motilité du spermatozoïde, l'étape d) comportant, à partir des positions du spermatozoïde résultant de l'étape c) :
- une détermination d'une trajectoire du spermatozoïde durant la période d'acquisition;
- un calcul d'une vitesse du spermatozoïde à partir de la trajectoire ;
- une classification du spermatozoïde en fonction de la vitesse.
6. Procédé selon la revendication 5, comportant :
- une détermination d'une distance, en ligne droite, entre un premier point et un dernier point de la trajectoire, et un calcul d'une vitesse de trajectoire linéaire à partir de ladite distance ;
- et/ou une détermination de distances parcourues entre chaque image acquise, et un calcul d'une vitesse de la trajectoire curvilinéaire à partir desdites distances ;
- et/ou une détermination d'une trajectoire lissée, et un calcul d'une vitesse de la trajectoire moyenne à partir de la trajectoire lissée.
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel :
- l'échantillon s'étend selon un plan de l'échantillon (Pio);
- le capteur d'image s'étend selon un plan de détection (P20);
- un système optique (15) s'étend entre l'échantillon et le capteur d'image, le système optique définissant un plan objet (Po) et un plan image (Pi);
- le plan objet est décalé par rapport au plan de l'échantillon d'une distance de défocalisation objet et/ou le plan image est décalé par rapport au plan de l'échantillon d'une distance de défocalisation image, de façon que lors de l'étape a), chaque image de l'échantillon est acquise selon une modalité d'imagerie défocalisée.
8. Procédé selon la revendication 7, dans lequel : l'échantillon est disposé sur un support d'échantillon (10s), reposant sur au moins un ressort (16a), le ressort étant configuré pour pousser le support d'échantillon vers le système optique ; - le système optique est relié à au moins une butée (16b), s'étendant, à partir du système optique, vers le support d'échantillon ;
- de telle sorte que durant l'étape a), sous l'effet du ressort, le support d'échantillon s'appuie sur la butée.
9. Procédé selon l'une quelconque des revendications 1 à 6, dans lequel aucune optique de formation d'image ne s'étend entre l'échantillon et le capteur d'image, de façon que lors de l'étape a), chaque image de l'échantillon est acquise selon une modalité d'imagerie sans lentille.
10. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape a) comporte une normalisation de chaque image acquise par une moyenne de ladite image ou par une moyenne d'images de la série d'images.
11. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape a) comporte une application d'un filtre passe-haut à chaque image acquise.
12. Procédé selon l'une quelconque des revendications précédentes, dans lequel lors de l'étape b), la distribution d'intensité assignée à chaque particule est décroissante, de telle sorte que l'intensité décroît en fonction de la distance par rapport à la particule.
13. Procédé selon l'une quelconque des revendications précédentes, dans lequel lors de l'étape b), la distribution d'intensité assignée à chaque particule est une distribution statistique paramétrique bidimensionnelle.
14. Dispositif (1, l') d'observation d'un échantillon, l'échantillon comportant des particules mobiles, le dispositif comportant :
- une source de lumière (11), configurée pour illuminer l'échantillon ;
- un capteur d'image (20), configuré pour former une image de l'échantillon ;
- une structure de maintien (16, 17), configurée pour maintenir l'échantillon entre la source de lumière et le capteur d'image ;
- une unité de traitement (30), reliée au capteur d'image, et configurée pour mettre en œuvre les étapes a) à d) d'un procédé selon l'une quelconque des revendications 1 à 13 à partir d'au moins une image acquise par le capteur d'image. 26
15. Dispositif selon la revendication 14, dans lequel aucune optique de formation d'image ne s'étend entre le capteur d'image et l'échantillon.
16. Dispositif selon la revendication 15, dans lequel la structure de maintien (17) est configurée pour maintenir une distance fixe entre le capteur d'image et l'échantillon.
17. Dispositif selon la revendication 14, dans lequel :
- le capteur d'image s'étend selon un plan de détection ; le dispositif comporte un système optique (15), s'étendant entre le capteur d'image et le plan support, le système optique définissant un plan image et un plan objet, le dispositif étant tel que :
• le plan image est décalé par rapport au plan de détection d'une distance de défocalisation image ;
• et/ou le plan support et décalé par rapport au plan objet d'une distance de défocalisation objet .
18. Dispositif selon la revendication 17, dans lequel :
- la structure de maintien (16) comporte un support d'échantillon (10s), monté sur un ressort (16a);
- le système optique (15) est relié mécaniquement à au moins une butée (16b) ;
- le ressort est agencé de façon que le support d'échantillon s'appuie contre la butée, de façon à maîtriser une distance entre le système optique et l'échantillon.
EP21839575.4A 2020-12-22 2021-12-20 Procédé de caractérisation de spermatozoïdes Pending EP4268120A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2013979A FR3118169A1 (fr) 2020-12-22 2020-12-22 Procédé de caractérisation de spermatozoïdes
PCT/EP2021/086909 WO2022136325A1 (fr) 2020-12-22 2021-12-20 Procédé de caractérisation de spermatozoïdes

Publications (1)

Publication Number Publication Date
EP4268120A1 true EP4268120A1 (fr) 2023-11-01

Family

ID=74592263

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21839575.4A Pending EP4268120A1 (fr) 2020-12-22 2021-12-20 Procédé de caractérisation de spermatozoïdes

Country Status (4)

Country Link
US (1) US20240044771A1 (fr)
EP (1) EP4268120A1 (fr)
FR (1) FR3118169A1 (fr)
WO (1) WO2022136325A1 (fr)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012082776A2 (fr) 2010-12-14 2012-06-21 The Regents Of The University Of California Procédé et dispositif permettant une microscopie optofluidique et holographique
US9588037B2 (en) 2012-07-13 2017-03-07 The Regents Of The University Of California High throughput lens-free three-dimensional tracking of sperm
FR3028951B1 (fr) 2014-11-21 2017-01-06 Commissariat Energie Atomique Systeme d'imagerie sans lentille comprenant une diode, un diaphragme et un diffuseur entre la diode et le diaphragme
FR3030749B1 (fr) * 2014-12-19 2020-01-03 Commissariat A L'energie Atomique Et Aux Energies Alternatives Methode d'identification de particules biologiques par piles d'images holographiques defocalisees
FR3034196B1 (fr) 2015-03-24 2019-05-31 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede d'analyse de particules
FR3034197B1 (fr) * 2015-03-24 2020-05-01 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede de determination de l'etat d'une cellule
FR3036800B1 (fr) 2015-05-28 2020-02-28 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede d’observation d’un echantillon
FR3049347B1 (fr) 2016-03-23 2018-04-27 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede d’observation d’un echantillon par calcul d’une image complexe
FR3075372B1 (fr) 2017-12-18 2020-08-28 Commissariat Energie Atomique Dispositif et procede d'observation d'un echantillon avec un systeme optique chromatique
US10094759B1 (en) * 2017-12-22 2018-10-09 Hillel Llc Imaging device for measuring sperm motility
FR3081552B1 (fr) * 2018-05-23 2020-05-29 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif et procede d'observation d'un echantillon fluorescent par imagerie defocalisee
FR3087538B1 (fr) 2018-10-17 2020-10-09 Commissariat Energie Atomique Procede d'observation d'un echantillon

Also Published As

Publication number Publication date
US20240044771A1 (en) 2024-02-08
WO2022136325A1 (fr) 2022-06-30
FR3118169A1 (fr) 2022-06-24

Similar Documents

Publication Publication Date Title
EP3274689B1 (fr) Procédé et dispositif d&#39;analyse de particules
EP3433679B1 (fr) Procédé d&#39;observation d&#39;un échantillon par calcul d&#39;une image complexe
EP3274694B1 (fr) Procédé de détermination de l&#39;état d&#39;une cellule
EP2020896B1 (fr) Tete optique miniaturisee a haute resolution spatiale et haute sensibilite, notamment pour l&#39;imagerie de fluorescence confocale fibree
EP3069185B1 (fr) Dispositif et methode de mise au point tridimensionnelle pour microscope
WO2017178723A1 (fr) Procédé de caractérisation holographique d&#39;une particule dans un échantillon
EP1468321A1 (fr) TETE OPTIQUE DE FOCALISATION MINIATURISEE&amp;comma; NOTAMMENT POUR ENDOSCOPE
EP3199941A1 (fr) Procédé d&#39;observation d&#39;un échantillon par imagerie sans lentille
EP3137874A1 (fr) Procédé et système de détection d&#39;au moins une particule dans un liquide corporel, et procédé associé de diagnostic de la méningite
FR3082944A1 (fr) Procede d&#39;observation d&#39;un echantillon par imagerie sans lentille, avec prise en compte d&#39;une dispersion spatiale dans l&#39;echantillon
FR3060746A1 (fr) Procede de numeration de particules dans un echantillon par imagerie sans lentille
EP3640743A1 (fr) Procédé d&#39;observation d&#39;un échantillon
EP3637194A1 (fr) Procédé de détermination de paramètres d&#39;une particule
FR3056749A1 (fr) Procede de numeration de leucocytes dans un echantillon
EP3754431B1 (fr) Procédé de reconstruction holographique
EP4268120A1 (fr) Procédé de caractérisation de spermatozoïdes
EP3443362B1 (fr) Procede et appareil de positionnement d&#39;un micro- ou nano-objet sous controle visuel
EP3371574B1 (fr) Dispositif et procédé d&#39;observation d&#39;un objet par imagerie sans lentille
EP3502666A1 (fr) Dispositif de mesure d&#39;un rayonnement rétrodiffusé par un échantillon et procédé de mesure utilisant un tel dispositif
EP4232946A1 (fr) Procédé de classification d&#39;une séquence d&#39;images d&#39;entrée représentant une particule dans un échantillon au cours du temps
WO2019243725A1 (fr) Procede et dispositif de comptage de thrombocytes dans un echantillon
EP3545362B1 (fr) Procédé de formation d&#39;une image de haute résolution par imagerie sans lentille
EP3903098B1 (fr) Procédé de caractérisation d&#39;un échantillon par imagerie de phase
EP3575774B1 (fr) Procédé d&#39;observation de particules, en particulier des particules submicroniques
EP4020093A1 (fr) Procédé de formation d&#39;une image complexe d&#39;un échantillon

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230615

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)