EP4268120A1 - Method for characterising sperm cells - Google Patents
Method for characterising sperm cellsInfo
- Publication number
- EP4268120A1 EP4268120A1 EP21839575.4A EP21839575A EP4268120A1 EP 4268120 A1 EP4268120 A1 EP 4268120A1 EP 21839575 A EP21839575 A EP 21839575A EP 4268120 A1 EP4268120 A1 EP 4268120A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- image
- sample
- plane
- spermatozoon
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000002245 particle Substances 0.000 claims abstract description 65
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 18
- 238000013528 artificial neural network Methods 0.000 claims description 46
- 230000003287 optical effect Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 15
- 238000012512 characterization method Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000000877 morphologic effect Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 6
- 230000004899 motility Effects 0.000 claims description 6
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 230000000284 resting effect Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 description 7
- 210000004027 cell Anatomy 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 210000000582 semen Anatomy 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 241000283690 Bos taurus Species 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000001124 body fluid Anatomy 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 210000003495 flagella Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 101100283966 Pectobacterium carotovorum subsp. carotovorum outN gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 210000002751 lymph Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 244000005700 microbiome Species 0.000 description 1
- 208000004141 microcephaly Diseases 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004062 sedimentation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/10—Investigating individual particles
- G01N15/14—Optical investigation techniques, e.g. flow cytometry
- G01N15/1434—Optical arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/10—Investigating individual particles
- G01N15/14—Optical investigation techniques, e.g. flow cytometry
- G01N15/1429—Signal processing
- G01N15/1433—Signal processing using image recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/10—Investigating individual particles
- G01N2015/1006—Investigating individual particles for cytology
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/10—Investigating individual particles
- G01N2015/1027—Determining speed or velocity of a particle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/10—Investigating individual particles
- G01N15/14—Optical investigation techniques, e.g. flow cytometry
- G01N15/1434—Optical arrangements
- G01N2015/144—Imaging characterised by its optical setup
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/10—Investigating individual particles
- G01N15/14—Optical investigation techniques, e.g. flow cytometry
- G01N2015/1497—Particle shape
Definitions
- the technical field of the invention is the observation of mobile or motile microscopic particles in a sample, with a view to characterizing them.
- a targeted application is the characterization of spermatozoa.
- the observation of motile cellular particles, such as spermatozoa, in a sample is usually carried out using a microscope.
- the microscope comprises a lens defining an object plane, extending into the sample, as well as an image plane, coinciding with a detection plane of an image sensor.
- the microscope images the sperm cells in a focused configuration.
- the choice of such a modality supposes a compromise between the spatial resolution, the observed field and the depth of field.
- a high numerical aperture decreases the depth of field.
- motile particles supposes an optimization of the objective, knowing that, in such a configuration, it is not possible to obtain at the same time a good spatial resolution, a wide observed field and a great depth. of field.
- these properties are particularly important when observing microscopic motile particles, in particular when the latter are numerous: the size of the particles requires good spatial resolution; their number justifies an extended observed field, so as to be able to maximize the number of particles observed on the same image; their movement requires a significant depth of field, so that the particles appear clearly on the image.
- a high magnification microscope it is usual to use a high magnification microscope.
- the small size of the observed field is compensated by the use of a translation stage.
- the latter allows image acquisition by moving the lens relative to the sample, parallel to the latter.
- the shallow depth of field is compensated by limiting the thickness of the sample: the latter is for example placed in a thin fluidic chamber, typically less than 20 ⁇ m, so as to limit the movement of the particles in a direction perpendicular to the object plane.
- the objective can be brought closer or further from the sample, so as to move the object plane in the sample, according to its thickness. This results in a complex and expensive device, requiring precise displacement of the lens.
- the document WO2019/125583 describes general principles relating to the analysis of the motility or the morphology of spermatozoa, by mentioning the use of an artificial intelligence algorithm with supervised learning.
- lensless imaging An alternative to conventional microscopy, as described in the aforementioned publication, has been proposed by lensless imaging. It is known that lensless imaging, coupled with holographic reconstruction algorithms, allows cell observation while maintaining a high field of view, as well as a large depth of field. Patents US9588037 or US8842901 describe for example the use of lensless imaging for the observation of spermatozoa. Patents US10481076 or US10379027 also describe the use of lensless imaging, coupled with reconstruction algorithms, to characterize cells.
- a first object of the invention is a method for characterizing at least one mobile particle in a sample, the method comprising: a) acquisition of at least one image of the sample during an acquisition period, at the using an image sensor and forming a series of images from the acquired images; b) using each image of the series of images resulting from a) as an input image of a detection convolutional neural network, the detection convolutional neural network being configured to detect the particles and to produce , from each image, an output image on which each detected particle is assigned an intensity distribution centered on the particle and extending around the particle; c) for each detected particle, from each output image resulting from b), estimation of a position of each detected particle in each image of the series of images; d) characterization of each particle detected from the estimation of the position resulting from c), established from each image of the series of images.
- steps a) to d) can be performed with a single image.
- the series of images comprises a single image.
- each particle can be represented in the form of a point.
- the particle (or each particle) can in particular be a spermatozoon.
- Step d) can comprise a characterization, in particular morphological, of each spermatozoon detected.
- Step d) then comprises: for each of the spermatozoon detected, from each image resulting from a), and from the positions resulting from c), extraction of a thumbnail comprising the detected spermatozoon, the position of the spermatozoon detected in the thumbnail being predetermined, so as to obtain, for detected sperm, a series of thumbnails, the size of each thumbnail being smaller than the size of each image acquired during step a); - for each spermatozoon detected, use of the series of thumbnails as input data for a classification neural network, the classification neural network being configured to classify the spermatozoon among predetermined classes. These may in particular be morphological classes.
- the method can be such that each detected sperm is centered with respect to each thumbnail.
- Step d) may comprise a characterization of the motility of the spermatozoon. Step d) can then comprise, from the positions of the spermatozoon resulting from step c):
- the process may include:
- the sample extends along a plane of the sample
- the image sensor extends along a detection plane
- an optical system extends between the sample and the image sensor, the optical system defining an object plane and an image plane;
- the object plane is offset from the sample plane by an object defocusing distance and/or the image plane is offset from the sample plane by an image defocusing distance.
- the method can be such that: the sample is placed on a sample support, resting on at least one spring, the spring being configured to push the sample support towards the optical system;
- the optical system is connected to at least one abutment, extending, from the optical system, towards the sample holder; - so that during step a), under the effect of the spring, the sample support rests on the stop.
- no imaging optics extend between the sample and the image sensor.
- step a) comprises a normalization of each image acquired by an average of said image or by an average of images of the series of images.
- the series of images is made from each acquired image, after normalization.
- step a) comprises an application of a high-pass filter to each acquired image.
- the series of images is performed from each image acquired, after application of the high-pass filter.
- the intensity distribution assigned to each particle is decreasing, such that the intensity decreases as a function of the distance relative to the particle.
- the intensity distribution assigned to each particle can be a two-dimensional parametric statistical distribution.
- a second object of the invention is a device for observing a sample, the sample comprising mobile particles, the device comprising:
- - a light source configured to illuminate the sample
- an image sensor configured to form an image of the sample
- a holding structure configured to hold the sample between the light source and the image sensor
- processing unit connected to the image sensor, and configured to implement steps a) to d) of a method according to the first object of the invention from at least one image acquired by the sensor of picture.
- no imaging optics extend between the image sensor and the sample.
- the holding structure can be configured to maintain a fixed distance between the image sensor and the sample.
- the image sensor extends along a detection plane;
- the device comprises an optical system, extending between the image sensor and the support plane, the optical system defining an image plane and an object plane, the device being such that: • the image plane is offset from the detection plane by an image defocusing distance;
- FIG. 1A represents a first embodiment of a device enabling the invention to be implemented.
- Figure IB is a three-dimensional view of the device shown schematically in Figure IA.
- Figure IC shows an assembly making it possible to maintain the sample at a fixed distance from an optical system.
- Figure 1D shows the assembly shown in Figure IC in an observation position.
- FIG. 2 represents a second embodiment of a device enabling the invention to be implemented.
- Figure 3 shows the main steps of a method for characterizing mobile particles in the sample.
- FIGS. 4A, 4B and 4C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
- FIG. 5A is an example of an image of a sample obtained by implementing a device according to the first embodiment of the invention.
- Figure 5B shows the image depicted in Figure 5A after processing by a detection neural network.
- FIG. 5C shows an example of obtaining trajectories of particles detected on image 5B.
- Figure 6 shows vignettes centered on a single spermatozoon, the vignettes being extracted from a series of nine images acquired using a defocused imaging modality.
- FIGS. 7A, 7B and 7C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
- FIGS. 8A, 8B and 8C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
- FIG. 8A has been processed by a high-pass filter.
- FIGS. 9A and 9B represent performance of particle detection by the detection neural network, under different conditions.
- the performances are the sensitivity (FIG. 9A) and the specificity (FIG. 9B).
- Figures 10A to IOC represent confusion matrices, expressing the classification performance of spermatozoa, using images acquired according to the defocused modality, the classification being carried out respectively: by implementing a holographic reconstruction algorithm from an image obtained by holographic reconstruction and processed by a neural network; by implementing a classification neural network whose input layer comprises a single image acquired according to a defocused configuration, without holographic reconstruction; by implementing a classification neural network, the input layer of which comprises a series of images of a particle, each image being acquired according to a defocused configuration, without holographic reconstruction.
- FIG. IA a first embodiment of a device 1 for implementing the invention.
- the device allows the observation of a sample 10 interposed between a light source 11 and an image sensor 20.
- the light source 11 is configured to emit an incident light wave 12 propagating up to 'to the sample parallel to a propagation axis Z.
- the device includes a sample holder 10s configured to receive the sample 10, such that the sample is held on the holder 10s.
- the sample thus maintained extends along a plane, called the sample plane Pw.
- the plane of the sample corresponds for example to a mean plane around which the sample 10 extends.
- the sample support can be a glass slide, for example 1 mm thick.
- the sample notably comprises a liquid medium 10 m in which mobile and possibly motile particles 10i are immersed.
- the 10 m medium can be a biological liquid or a buffer liquid. It may for example comprise a bodily fluid, in the pure or diluted state.
- bodily fluid is meant a fluid generated by a living body. It may in particular be, without limitation, blood, urine, cerebrospinal fluid, semen, lymph.
- the sample 10 is preferably contained in a fluidic chamber 10 c .
- the fluidic chamber is for example a fluidic chamber with a thickness of between 20 ⁇ m and 100 ⁇ m.
- the thickness of the fluidic chamber, and therefore of the sample 10, along the axis of propagation Z typically varies between 10 ⁇ m and 200 ⁇ m, and is preferably between 20 ⁇ m and 50 ⁇ m.
- the mobile particles are spermatozoa.
- the sample contains sperm, possibly diluted.
- the fluidic chamber 10 c can be a counting chamber dedicated to the analysis of the mobility or the concentration of cells. It may for example be a counting chamber marketed by Leja, with a thickness of between 20 ⁇ m and 100 ⁇ m.
- the sample comprises mobile particles, for example microorganisms, for example microalgae or plankton, or cells, for example cells in the process of sedimentation.
- the distance D between the light source 11 and the sample 10 is preferably greater than 1 cm. It is preferably between 2 and 30 cm.
- the light source 11, seen by the sample is considered as point. This means that its diameter (or its diagonal) is preferably less than one tenth, better still one hundredth of the distance between the sample and the light source.
- the light source 11 is for example a light-emitting diode. It is preferably associated with a diaphragm 14, or spatial filter.
- the aperture of the diaphragm is typically between 5 ⁇ m and 1 mm, preferably between 50 ⁇ m and 1 mm. In this example, the diaphragm has a diameter of 400 ⁇ m.
- the diaphragm can be replaced by an optical fiber, a first end of which is placed facing the light source and a second end of which is placed facing the sample 10.
- the device can also comprise a diffuser 13 , placed between the light source 13 and the diaphragm 14. The use of a diffuser/diaphragm assembly is for example described in US10418399
- the image sensor 20 is configured to form an image of the sample according to a detection plane P20.
- the image sensor 20 comprises a matrix of pixels, of CCD or CMOS type.
- the detection plane P20 preferably extends perpendicular to the axis of propagation Z.
- the image sensor has a high sensitive surface, typically greater than 10 mm 2 .
- the image sensor is an IDS-UI-3160CP-M-GL sensor comprising pixels of 4.8 ⁇ 4.8 ⁇ m 2 , the sensitive surface being 9.2 mm ⁇ 5.76 mm, ie 53 mm 2 .
- the image sensor 20 is optically coupled to the sample 10 by an optical system 15.
- the optical system includes an objective 15i and a tube lens 152. The latter is intended to project a formed image on the sensitive surface of the image sensor 20 (53 mm 2 surface).
- the 15i objective is a Motic CCIS EF-N Plan Achromat lOx objective, with a numerical aperture of 0.25;
- lens 152 is a Thorlabs LBF254-075-A lens - 75 mm focal length.
- Such an assembly provides an observation field of 3 mm 2 , with a spatial resolution of 1 ⁇ m.
- the short focal length of the lens makes it possible to optimize the bulk of the device 1 and to adjust the magnification to the size of the image sensor.
- the image sensor is configured to acquire images of the sample, according to an acquisition frequency of a few tens of images per second, for example 60 images per second.
- the sampling frequency is typically between 5 and 100 frames per second.
- the optical system 15 defines an object plane P o and an image plane Pi.
- the image sensor 20 is configured to acquire an image according to a defocused configuration.
- the image plane Pi coincides with the detection plane P 2 o, while the object plane P o is offset by an object focusing distance 6 of between 10 ⁇ m and 500 ⁇ m, relative to the sample.
- the focusing distance is preferably between 50 ⁇ m and 100 ⁇ m, for example 70 ⁇ m.
- the object plane P o extends outside the sample 10. According to another possibility, the object plane extends into the sample, while the image plane is shifted with respect to the detection plane, by a distance image defocus.
- the image focusing distance is preferably between 50 ⁇ m and 100 ⁇ m, for example 70 ⁇ m.
- the object plane P o and the image plane Pi are both offset respectively with respect to the plane of the sample and with respect to the detection plane.
- the defocusing distance is preferably greater than 10 ⁇ m and less than 1 mm, or even 500 ⁇ m, and preferably between 50 ⁇ m and 150 ⁇ m.
- the image sensor 20 is exposed to a light wave, called exposure light wave.
- the image acquired by the image sensor comprises figures interference, which can also be designated by the term “diffraction patterns", formed by: a part of the light wave 12 emitted by the light source 11, and having passed through the sample without interacting with the latter; diffraction waves, formed by the diffraction of part of the light wave 12 emitted by the light source in the sample. These include the diffraction formed by the particles.
- a processing unit 30, comprising for example a microprocessor, is capable of processing each image acquired by the image sensor 20.
- the processing unit comprises a programmable memory 31 in which is stored a sequence of instructions for perform the image processing and calculation operations described in this description.
- the processing unit 30 can be coupled to a screen 32 allowing the display of images acquired by the image sensor 20 or resulting from the processing carried out by the processing unit 30.
- the image acquired by the image sensor 20, according to a defocused imaging modality, is a diffraction figure of the sample, sometimes called a hologram. It does not make it possible to obtain an accurate representation of the observed sample.
- a holographic reconstruction operator so as to calculate a complex expression representative of the light wave to which the sensor is exposed. image, and this at any point of coordinates (x, y, z) in space, and in particular in a reconstruction plane corresponding to the plane of the sample.
- the complex expression returns the intensity or phase of the exposure light wave.
- Figure IB is a representation of an example of a device as shown schematically in Figure IA.
- Figures 1C and 1D represent a detail of the arrangement of the sample 10 facing the optical system 15, and more precisely facing the lens 15i.
- the sample support 10 s is connected to elastic return means 16 a , for example springs. The springs tend to Bring the 10s sample holder closer to the 15i objective.
- the device also includes abutments 16b, integral with the lens 15i.
- the objective 15i and the stops 16b are fixed relative to the image sensor 20.
- the stops 16b and the return means 16a form a holding structure 16, intended to hold the sample between the light source 11 and the image sensor 20.
- Figures 1C and 1D represent the maintenance of the sample on the sample support respectively during the positioning of the sample and during its observation.
- a rigid link 16c connects the lens 15i to the stops 16b.
- the springs 16a are compressed.
- the support of the sample 10s comes to bear against the stops 16b. This makes it possible to control the distance A between the objective 15i and the sample 10, independently of the thickness of the sample support 10 s . This makes it possible to overcome variations in the thickness of the sample support.
- the thickness can fluctuate over a relatively wide range, for example ⁇ 100 ⁇ m.
- the assembly described in connection with FIGS. 1C and 1D makes it possible to control the distance A between the objective 15i and the sample 10, to within ⁇ 5 ⁇ m, independently of such fluctuations in the thickness of the plate 10 s .
- the inventors believe that such an assembly makes it possible to avoid having to resort to an autofocus system to produce images
- Figures 1C and 1D also show a heating resistor 19 connected to a temperature controller 18. The function of these elements is to maintain a temperature of the fluidic chamber 10 c at 37°C.
- FIG. 2 represents a second embodiment of device 1' suitable for implementing the invention.
- the device 1' comprises a light source 11, a diffuser 13, a diaphragm 14, an image sensor 20, a holding structure 17 and a processing unit 30 as described in connection with the first embodiment.
- the holding structure 17 is configured to define a fixed distance between the sample and the image sensor.
- the device does not include an image forming lens between the image sensor 20 and the sample 10.
- the image sensor 20 is preferably brought closer to the sample, the distance between the image sensor 20 and sample 10 being typically between 100 ⁇ m and 3 mm.
- the image sensor acquires images according to a lensless imaging modality.
- the sample is preferably contained in a fluidic chamber 10 c , for example a “Leja” chamber as described in connection with the first embodiment.
- a fluidic chamber 10 c for example a “Leja” chamber as described in connection with the first embodiment.
- the advantage of such an embodiment is that it does not require precise positioning of an optical system 15 with respect to the sample 10, and that it confers a high field of observation.
- the disadvantage is obtaining images of lower quality, but which remain usable.
- the holding structure is arranged so that the distance between the sample, when the sample 10 is placed on the holding structure 17, and the image sensor 20, is constant.
- the holding structure 17 is connected to a base 20', on which the image sensor 20 extends.
- - Printed circuit on which the image sensor 20 is placed.
- the sample 10, contained in the fluidic chamber 10 c is held, by the sample holder 10 s , on the holding structure 17.
- the support sample is for example a transparent slide. The sample extends between the 10s sample holder and the image sensor. Thus, the distance between the sample 10 and the image sensor 20 is not affected by a fluctuation in the thickness of the support 10s.
- FIG. 3 schematizes the main steps of a method for processing several images acquired by an image sensor according to the defocused imaging modality (first embodiment) or imaging without lens (second embodiment).
- the method is described in connection with the observation of spermatozoa, it being understood that it can be applied to the observation of other types of motile particles.
- Step 100 Acquisition of a series of images I O n
- n is a natural number designating the rank of each image acquired, with 1 ⁇ n ⁇ N, N being the total number images acquired.
- the images acquired are images acquired either according to a defocused imaging modality or according to a lensless imaging modality.
- the number N of images acquired can be between 5 and 50.
- the images can be acquired according to an acquisition frequency of 60 Hz.
- Step 110 Preprocessing
- the objective is to perform a pre-processing of each image acquired, so as to limit the effects of a fluctuation in the intensity of the incident light wave or in the sensitivity of the camera.
- the pre-processing consists in normalizing each image acquired by an average of the intensity of at least one image acquired, and preferably of all the images acquired.
- the pre-processing can include an application of a high-pass filter to each image, possibly normalized.
- the high pass filter eliminates low frequencies from the image.
- a Gaussian filter is applied, by carrying out a convolution product of the image I n by a Gaussian kernel K.
- the width at mid-height of the Gaussian kernel is for example 20 pixels.
- Step 120 Particle detection
- This step consists in detecting and precisely positioning the spermatozoa, and this on each image I O n , resulting from step 100 or from each image I′ n preprocessed during step 110.
- This step is carried out using of a CNNd detection convolutional neural network.
- the CNNd neural network comprises an input layer, in the form of an input image I in n .
- the input image I in n is either an acquired image I O n , or a preprocessed image I n , I′ n .
- the detection neural network CNNd From the input image I in n , the detection neural network CNNd generates an output image I or t, n -
- the output image I outin is such that each spermatozoon 10i detected on the image d input I in n , in a position appears as an intensity distribution centered around said position. That is, from an input image the CNNd neural network allows: detection of spermatozoa; a position estimate of each 10i sperm detected; a generation of an output image/ out n comprising a predetermined intensity distribution around each position.
- Each position (x ⁇ y ⁇ is a two-dimensional position, in the detection plane P20.
- the distribution is such that the intensity is maximum at each position (%j,yi) and that the intensity is considered negligible beyond a neighborhood Vt of each position.
- neighborhood is meant a region extending according to a predetermined number of pixels, for example between 5 and 20 pixels, around each position (x ⁇ y ⁇ ).
- the distribution D t can be of the niche type, in which case in the neighborhood each pixel is of constant intensity is high, and beyond the neighborhood each pixel has zero intensity.
- the distribution D t is centered on each position (x ⁇ y ⁇ ) and is strictly decreasing around the latter. It may for example be a two-dimensional Gaussian intensity distribution, centered on each position (Xj,yj).
- the width at mid-height is for example less than 20 pixels, and preferably less than 10 or 5 pixels. Any other form of parametric distribution can be considered, knowing that it is preferable that the distribution be symmetrical around each position, and preferably strictly decreasing from position (xj,yj). Assigning a distribution at each position (xj,yj) makes it possible to obtain an output image / out n in which each spermatozoon is simple to detect. In this, the output image I out n is a detection image, based on which each sperm can be detected.
- the output image of the neural network is formed by a resultant of each intensity distribution D t defined respectively around each position (x ⁇ yj).
- the convolutional detection neural network comprised 20 layers comprising either 10 or 32 characteristics (more usually designated by the term “features”) per layer. The number of features was determined empirically. The transition from one layer to another is performed by applying a convolution kernel of size 3x3. The output image is obtained by combining the characteristics of the last convolution layer.
- the neural network was programmed in a Matlab environment (publisher: The Mathworks). The neural network has previously been the subject of learning (step 80), so as to parameterize the convolution filters. During the learning, learning sets were used, each set comprising: an input image, obtained by the image sensor and preprocessed by normalization and possibly filtering, using animal semen.
- FIGS. 4A, 4B and 4C are a set of test images, comprising respectively: an image of a sample of bovine semen acquired by the image sensor and having undergone normalization and high pass filtering according to step 110; a manually annotated image, which corresponds to a reference image, usually designated by the term “ground truth” (reality); an image resulting from the application of the detection convolutional neural network.
- FIG. 4C The image of FIG. 4C is consistent with the reference image (FIG. 4B), which attests to the detection performance of the CNNd neural network.
- the inventors have noted that FIG. 4C shows a position not shown on the reference image: a check showed that it was an annotation omission on the reference image.
- the application of the convolutional neural network of detection CNNd allows precise detection and positioning of sperm. And this without resorting to an image reconstruction implementing a holographic propagation operator, as suggested in the prior art.
- the input image of the neural network is an image formed in the detection plane, and not in a reconstruction plane remote from the detection plane.
- the detection neural network generates low-noise output images: the signal-to-noise ratio associated with each sperm detection is high, which facilitates subsequent operations.
- Step 120 is repeated for different images of the same series of images, so as to obtain a series of output images I tool I O ut,N-
- step 120 from each output image I out l I 0U t,N> a local maximum detection algorithm is applied, so as to obtain, for each image, a list of 2D coordinates, each coordinate corresponding to a position of a spermatozoon.
- a list L out l L 0Ut w is established -Each list L out n comprises corresponds to the 2D positions, in the detection plane, of spermatozoa detected in a picture I outin .
- FIG. 5A represents an image acquired during step 100. More precisely, it is a detail of an image acquired according to a defocused mode. This is an image of a sample containing bovine semen.
- Figure 5B shows an image resulting from the application of the detection neural network in Figure 5A, after normalization and application of a high-pass filter.
- the comparison between images 5A and 5B shows the gain provided by the detection convolutional neural network in terms of signal-to-noise ratio.
- Step 130 position tracking
- a position tracking algorithm is applied, usually designated by the term “tracking algorithm”.
- an algorithm is implemented allowing tracking of the position of the spermatozoon, parallel to the detection plane, between the different images of the series of images.
- the implementation of the position tracking algorithm is efficient because it is performed from the lists L out l L 0Ut N resulting from step 120. As previously indicated, these images have a signal to noise ratio high, which facilitates the implementation of the position tracking algorithm.
- the position tracking algorithm may be a “nearest neighbor” type algorithm. Step 130 allows a trajectory of each sperm to be determined parallel to the detection plane.
- output images I tool I O ut,N have been superimposed by considering an image stack of 30 images. It is observed that the trajectory, parallel to the detection plane, of each spermatozoon can be determined precisely.
- Step 140 characterization of the motility
- each trajectory can be characterized on the basis of metrics applied to the trajectories resulting from step 130. Knowing the frequency of acquisition of the images, it is possible to quantify displacement speeds of each spermatozoon detected, and in particular: a speed of the linear trajectory VSL , usually designated by the term “velocity straightline path", which corresponds to the speed calculated on the basis of a distance, in a straight line, between the first and last points of the trajectory (the first point is determined from the first acquired image of the series of images, and the last point is determined from the last acquired image of the series of images) a speed of the curvilinear path VCL, usually referred to by the term “velocity curvilinear path”: this is a speed established by summing the distances traveled between each image, and by dividing by the duration of the acquisition period; a speed of the average trajectory VAP, usually designated by the term “velocity average path”: this is a speed established after smoothing the trajectory of a particle:
- indicators making it possible to characterize the motility of the spermatozoa known to those skilled in the art.
- indicators of the type straightness indicator STR, obtained by a ratio between VSL and VAP, usually designated by the term “straightness”. This indicator is all the higher as the sperm moves in a straight line; LIN linearity indicator, obtained by a ratio between VSL and VCL, usually designated by the term “linearity”. This indicator is also all the higher as the sperm moves in a straight line.
- WOB oscillation indicator obtained by a VAP/VCL ratio, usually designated by the term wobble.
- a spermatozoon is considered to be: motile if the length of the trajectory is greater than a first threshold, for example 10 pixels, and its displacement along the average trajectory (VAPx At, At being the acquisition period) is greater than a predefined length, corresponding for example to the length of a sperm head; progressive if the length of the trajectory is greater than the first threshold, and if the straightness STR and the speed of the average trajectory VAP are respectively greater than two threshold values STRth and VAPthi; slow if the length of the trajectory is greater than the first threshold and if the speed of the linear trajectory VSL and the speed of the average trajectory VAP are respectively less than two threshold values VSL t h2 and VAP t h2; static if the length of the trajectory is greater than the first threshold and if the speed of the linear trajectory VSL and the speed of the average trajectory VAP are respectively lower than two threshold values V
- the threshold values STR t h, VSL t h2, VSL t h3 are determined beforehand, with VSL t h2 ⁇ VSL t h3- The same applies to the values VAP t hi, VAP t h2 and VAP t h3 with VAP t hi> VAP t hi> VAP t h3-
- Step 150 Extract thumbnails for each sperm.
- a thumbnail V in is extracted, and this in each image I O n acquired by the image sensor during step 100.
- Each thumbnail V in is a portion of an image I O n acquired by the image sensor.
- a vignette V in is extracted around the position assigned to the sperm.
- the position of the spermatozoon 10d, in each image I O n is obtained following the implementation of the position tracking algorithm (step 130).
- each thumbnail V in is predetermined. Relative to each thumbnail V in , the position (%j, yj) of the spermatozoon 10j considered is fixed: preferably, the position (x ⁇ y ⁇ ) of the spermatozoon 10i is centered in each thumbnail V in .
- a thumbnail V in may for example comprise a few tens or even a few hundreds of pixels, typically between 50 and 500 pixels.
- a thumbnail is 64 x 64 pixels. Due to the size and concentration of spermatozoa in the sample, a V in thumbnail may include several spermatozoa to be characterised. However, only the spermatozoon 10j occupying a predetermined position in the thumbnail V in , for example at the center of the thumbnail, is characterized using said thumbnail.
- Figure 6 shows nine V in thumbnails extracted from I outin images resulting from step 100, using the positions (%j, yj) resulting from trajectory tracking of a spermatozoon resulting from step 130.
- Step 160 Classification of the morphology of each spermatozoon
- a CNN c classification neural network is used, so as to classify each 10i spermatozoon previously detected by the convolutional neural network detection CNNd.
- the neural network is fed with thumbnails ... V i N extracted during step 150.
- the convolutional neural network of classification CNN c can for example comprise 6 convolutional layers, comprising between 16 and 64 characteristics: 16 characteristics for the first four layers, 32 characteristics for the fifth layer, and 64 characteristics for the sixth layer.
- the passage from one layer to another is carried out by applying a convolution kernel of size 3 by 3
- the output layer comprises nodes, each node corresponding to a probability of belonging to a morphological class.
- Each morphological class corresponds to a morphology of the analyzed sperm. It can for example be a known classification, the classes being:
- flagellum abnormality curved or coiled flagellum
- the output layer can thus have 11 classes.
- the neural network is programmed in a Matlab environment (publisher: The Mathworks).
- the neural network has previously been the subject of learning (step 90), so as to parameterize the convolution filters.
- learning games were used, each game comprising: thumbnails, extracted from images acquired by the image sensor; a manual annotation of the morphology of each sperm analyzed.
- the annotation was carried out on the basis of thumbnails having been the subject of a holographic reconstruction.
- FIGS. 7A, 7B and 7C represent respectively an image acquired by the image sensor, an image reference, manually annotated, and an image resulting from the detection neural network. Image 7C was obtained without implementing the filter during step 110.
- FIGS. 8A, 8B and 8C respectively represent an image acquired by the image sensor, a reference image, annotated manually, and an image resulting from the detection neural network.
- Image 8C was obtained by implementing a high pass filter during step 110.
- image 8C includes detected spermatozoa, marked by arrows, which do not appear on image 7C. Applying the filter improves the detection performance of the classification neural network.
- FIGS. 9A and 9B respectively represent the detection sensitivity and the detection specificity of the CNNd detection neural network (curves a, b and c), in comparison with a conventional algorithm (curve d).
- the classical algorithm was based on morphological operations of erosion/dilation type image processing.
- curves a, b and c correspond respectively: to the neural network trained with 10,000 annotations; the trained neural network with 20,000 annotations; to the neural network trained with 20,000 annotations, each image acquired by the sensor having been subject to high-pass filtering.
- Sensitivity and specificity were determined on 14 different samples (abscissa axis) of diluted bovine semen (factor 10). It is observed that the performances of the neural network, whatever the configuration (curves a, b and c) are superior to that of the classical algorithm, which is remarkable. Furthermore, the best performance is obtained in configuration c, according to which the neural network is trained with 20,000 annotations and is fed with an image that has been preprocessed with a high-pass filter. It is recalled that the sensitivity corresponds to the rate of true positives over the sum of the rates of true positives and false negatives, and that the specificity corresponds to the rate of true positives over the sum of the rates of true and false positives.
- Figure 10A is a confusion matrix representing the classification performance of a CNN c classification neural network parameterized to receive, as an input image, an image resulting from a holographic reconstruction.
- the neural network is a convolutional neural network, as previously described, trained using images acquired using a defocused device, as previously described. Using this neural network, each acquired image undergoes a holographic reconstruction, in a sample plane extending through the sample, using a holographic reconstruction algorithm as described in US20190101484. From the reconstructed image, a thumbnail centered on the sperm to be characterized is extracted. The thumbnail forms an input image of the neural network.
- Figure 10B is a confusion matrix representing the classification performance of a classification neural network parameterized to receive, as an input image, a single thumbnail, centered on the spermatozoon to be characterized, and extracted from a image acquired in a defocused configuration.
- the neural network is a convolutional neural network, structured as described in step 160, except that the neural network is powered by a single tile.
- Figure 10C is a confusion matrix representing the classification performance of a classification neural network as described in step 160, fed by a series of 5 vignettes extracted from images acquired in defocused configuration.
- each confusion matrix corresponds to classes 1 to 10 previously described.
- a single input image makes it possible to obtain a satisfactory classification performance.
- morphological classification it is not necessary to have a series of images comprising several images. A single image may suffice. However, the classification performance is better when using multiple images.
- the invention allows an analysis of a sample comprising spermatozoa without resorting to a translation stage. Furthermore, it allows characterization directly from the image acquired by the image sensor, that is to say on the basis of diffraction figures of the different spermatozoa, and this without requiring the use of algorithms of digital reconstruction. Currently, the use of such an algorithm results in a processing time of 10 seconds per image. That is 300 seconds for a series of 30 images. Furthermore, as represented in FIGS. 10A to 10C, the invention allows a more precise classification than a classification based on a neural network of identical structure, fed by reconstructed images.
- Another advantage of the invention is the tolerance of defocusing.
- the inventors estimate that the invention tolerates shifts of ⁇ 25 ⁇ m between the optical system and the sample.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Analytical Chemistry (AREA)
- Dispersion Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biodiversity & Conservation Biology (AREA)
- Signal Processing (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Method for characterising a travelling particle in a sample (10), the method comprising: a) acquiring at least one image (I o,n) of the sample during an acquisition period, using an image sensor (20), and forming a series of images, the series of images comprising at least one image; b) using each image in the series of images resulting from a) as the input image (I in,n) of a convolutional neural network for detection (CNNd), the convolutional neural network for detection being configured to detect the particles and to produce, from each image, an output image (I out,n) in which each particle detected is assigned an intensity distribution which is centred on the particle and extends around the particle; c) for each particle detected, from each output image (I out, n) resulting from b), estimating a position (xi, yi) of each particle detected in each image in the series of images; d) characterising each particle detected from the estimate of the position resulting from c), based on each image in the series of images.
Description
Description Description
Titre : Procédé de caractérisation de spermatozoïdes Title: Method for characterizing spermatozoa
DOMAINE TECHNIQUE TECHNICAL AREA
Le domaine technique de l'invention est l'observation de particules microscopiques mobiles ou motiles dans un échantillon, en vue de leur caractérisation. Une application visée est la caractérisation de spermatozoïdes. The technical field of the invention is the observation of mobile or motile microscopic particles in a sample, with a view to characterizing them. A targeted application is the characterization of spermatozoa.
ART ANTERIEUR PRIOR ART
L'observation de particules cellulaires motiles, telles des spermatozoïdes, dans un échantillon, est usuellement effectuée à l'aide d'un microscope. Le microscope comporte un objectif définissant un plan objet, s'étendant dans l'échantillon, ainsi qu'un plan image, confondu avec un plan de détection d'un capteur d'image. Le microscope effectue des images des spermatozoïdes selon une configuration focalisée. Le choix d'une telle modalité suppose un compromis entre la résolution spatiale, le champ observé et la profondeur de champ. Plus l'ouverture numérique de l'objectif est élevée, meilleure est la résolution spatiale, au détriment de la taille du champ observé. De même, une ouverture numérique élevée diminue la profondeur de champ. The observation of motile cellular particles, such as spermatozoa, in a sample is usually carried out using a microscope. The microscope comprises a lens defining an object plane, extending into the sample, as well as an image plane, coinciding with a detection plane of an image sensor. The microscope images the sperm cells in a focused configuration. The choice of such a modality supposes a compromise between the spatial resolution, the observed field and the depth of field. The higher the numerical aperture of the objective, the better the spatial resolution, at the expense of the size of the observed field. Similarly, a high numerical aperture decreases the depth of field.
On comprend que l'observation de particules motiles suppose une optimisation de l'objectif, sachant que, dans une telle configuration, il n'est pas possible d'obtenir à la fois une bonne résolution spatiale, un champ observé large et une grande profondeur de champ. Or, ces propriétés sont particulièrement importantes lors de l'observation de particules microscopiques motiles, notamment lorsque ces dernières sont nombreuses : la taille des particules nécessite une bonne résolution spatiale ; leur nombre justifie un champ observé étendu, de façon à pouvoir maximiser le nombre de particules observées sur une même image ; leur mouvement requiert une profondeur de champ importante, de façon que les particules apparaissent nettement sur l'image. It is understood that the observation of motile particles supposes an optimization of the objective, knowing that, in such a configuration, it is not possible to obtain at the same time a good spatial resolution, a wide observed field and a great depth. of field. However, these properties are particularly important when observing microscopic motile particles, in particular when the latter are numerous: the size of the particles requires good spatial resolution; their number justifies an extended observed field, so as to be able to maximize the number of particles observed on the same image; their movement requires a significant depth of field, so that the particles appear clearly on the image.
Compte tenu de ces impératifs, il est usuel d'utiliser un microscope à fort grossissement. La faible taille du champ observée est compensée par le recours à une platine de translation. Cette dernière permet une acquisition d'images en déplaçant l'objectif relativement à l'échantil lion, parallèlement à ce dernier. La faible profondeur de champ est compensée en limitant l'épaisseur
de l'échantillon : ce dernier est par exemple disposé dans une chambre fluidique de faible épaisseur, typiquement inférieure à 20 pm, de façon à limiter le déplacement des particules selon une direction perpendiculaire au plan objet. Par ailleurs, l'objectif peut être rapproché ou éloigné de l'échantillon, de façon à déplacer le plan objet dans l'échantillon, selon son épaisseur. Il en résulte un dispositif complexe et coûteux, nécessitant un déplacement précis de l'objectif.Given these requirements, it is usual to use a high magnification microscope. The small size of the observed field is compensated by the use of a translation stage. The latter allows image acquisition by moving the lens relative to the sample, parallel to the latter. The shallow depth of field is compensated by limiting the thickness of the sample: the latter is for example placed in a thin fluidic chamber, typically less than 20 μm, so as to limit the movement of the particles in a direction perpendicular to the object plane. Furthermore, the objective can be brought closer or further from the sample, so as to move the object plane in the sample, according to its thickness. This results in a complex and expensive device, requiring precise displacement of the lens.
Le document WO2019/125583 décrit des principes généraux relatifs à l'analyse de la motilité ou de la morphologie de spermatozoïdes, en évoquant le recours à un algorithme d'intelligence artificielle à apprentissage supervisé. The document WO2019/125583 describes general principles relating to the analysis of the motility or the morphology of spermatozoa, by mentioning the use of an artificial intelligence algorithm with supervised learning.
La publication Amann R. et al « Computer-assisted sperm analysis (CASA) : Capabilities and potentiel developments », décrit le recours à un dispositif d'imagerie conventionnelle, focalisé, utilisant une chambre fluidique de faible épaisseur. The publication Amann R. et al “Computer-assisted sperm analysis (CASA): Capabilities and potential developments”, describes the use of a conventional, focused imaging device, using a thin fluidic chamber.
Une alternative à la microscopie classique, telle que décrite dans la publication précitée, a été proposée par l'imagerie sans lentille. Il est connu que l'imagerie sans lentille, couplée à des algorithmes de reconstruction holographique, permet une observation de cellules en conservant un champ d'observation élevé, ainsi qu'une grande profondeur de champ. Les brevets US9588037 ou US8842901 décrivent par exemple le recours à l'imagerie sans lentille pour l'observation de spermatozoïdes. Les brevets US10481076 ou US10379027 décrivent également le recours à l'imagerie sans lentille, couplée à des algorithmes de reconstruction, pour caractériser des cellules. An alternative to conventional microscopy, as described in the aforementioned publication, has been proposed by lensless imaging. It is known that lensless imaging, coupled with holographic reconstruction algorithms, allows cell observation while maintaining a high field of view, as well as a large depth of field. Patents US9588037 or US8842901 describe for example the use of lensless imaging for the observation of spermatozoa. Patents US10481076 or US10379027 also describe the use of lensless imaging, coupled with reconstruction algorithms, to characterize cells.
On sait que le recours à des algorithmes de reconstruction numérique permet d'obtenir des images nettes de particules. De tels algorithmes sont par exemple décrits dans US10564602, US20190101484 ou US20200124586. Dans ce type d'algorithme, à partir d'un hologramme acquis dans un plan de détection, on reconstruit une image de l'échantillon dans un plan de reconstruction, distant du plan de détection. Il est usuel que le plan de reconstruction d'étende à travers l'échantillon. Cependant, ce type d'algorithme peut nécessiter un temps de calcul relativement long. It is known that the use of digital reconstruction algorithms makes it possible to obtain clear images of particles. Such algorithms are for example described in US10564602, US20190101484 or US20200124586. In this type of algorithm, from a hologram acquired in a detection plane, an image of the sample is reconstructed in a reconstruction plane, remote from the detection plane. It is usual for the reconstruction plane to extend through the sample. However, this type of algorithm may require a relatively long calculation time.
Une telle contrainte est acceptable lorsque les particules sont considérées comme immobiles dans l'échantillon. Cependant, lorsque l'on souhaite caractériser des particules mobiles, et en particulier des particules motiles, le temps de calcul peut devenir trop important. En effet, la caractérisation de particules mobiles nécessite une acquisition de plusieurs images, à des fréquences élevées, de façon à pouvoir caractériser le mouvement des particules dans l'échantillon.
Les inventeurs proposent une alternative aux brevets précédemment cités, permettant de caractériser des particules motiles, et en particulier des spermatozoïdes, en utilisant un procédé d'observation simple. Le procédé conçu par les inventeurs permet la caractérisation d'un grand nombre de particules sans nécessiter de déplacement d'un objectif relativement à l'échantillon. Such a constraint is acceptable when the particles are considered to be immobile in the sample. However, when one wishes to characterize mobile particles, and in particular motile particles, the calculation time can become too long. Indeed, the characterization of mobile particles requires the acquisition of several images, at high frequencies, so as to be able to characterize the movement of the particles in the sample. The inventors propose an alternative to the previously cited patents, making it possible to characterize motile particles, and in particular spermatozoa, using a simple observation method. The method designed by the inventors allows the characterization of a large number of particles without requiring movement of an objective relative to the sample.
EXPOSE DE L'INVENTION DISCLOSURE OF THE INVENTION
Un premier objet de l'invention est un procédé de caractérisation d'au moins une particule mobile dans un échantillon, le procédé comportant: a) acquisition d'au moins une image de l'échantillon durant une période d'acquisition, à l'aide d'un capteur d'image et formation d'une série d'images à partir des images acquises ; b) utilisation de chaque image de la série d'images résultant de a) en tant qu'imagé d'entrée d'un réseau de neurones convolutif de détection, le réseau de neurones convolutif de détection étant configuré pour détecter les particules et pour produire, à partir de chaque image, une image de sortie sur laquelle à chaque particule détectée est assignée une distribution d'intensité centrée sur la particule et s'étendant autour de la particule ; c) pour chaque particule détectée, à partir de chaque image de sortie résultant de b), estimation d'une position de chaque particule détectée dans chaque image de la série d'images ; d) caractérisation de chaque particule détectée à partir de l'estimation de la position résultant de c), établie à partir de chaque image de la série d'images. A first object of the invention is a method for characterizing at least one mobile particle in a sample, the method comprising: a) acquisition of at least one image of the sample during an acquisition period, at the using an image sensor and forming a series of images from the acquired images; b) using each image of the series of images resulting from a) as an input image of a detection convolutional neural network, the detection convolutional neural network being configured to detect the particles and to produce , from each image, an output image on which each detected particle is assigned an intensity distribution centered on the particle and extending around the particle; c) for each detected particle, from each output image resulting from b), estimation of a position of each detected particle in each image of the series of images; d) characterization of each particle detected from the estimation of the position resulting from c), established from each image of the series of images.
Selon une possibilité, les étapes a) à d) peuvent être effectuées avec une seule image. Dans ce cas, la série d'images comporte une seule image. According to one possibility, steps a) to d) can be performed with a single image. In this case, the series of images comprises a single image.
Selon une possibilité, sur l'image de sortie, chaque particule peut être représentée sous la forme d'un point. According to one possibility, on the output image, each particle can be represented in the form of a point.
La particule (ou chaque particule) peut notamment être un spermatozoïde. The particle (or each particle) can in particular be a spermatozoon.
L'étape d) peut comporter une caractérisation, notamment morphologique, de chaque spermatozoïde détecté. L'étape d) comporte alors : pour chaque du spermatozoïde détecté, à partir de chaque image résultant de a), et des positions résultant de c), extraction d'une vignette comportant le spermatozoïde détecté, la position du spermatozoïde détecté dans la vignette étant prédéterminée, de façon à obtenir, pour spermatozoïde détecté, une série de vignettes, la taille de chaque vignette étant inférieure à la taille de chaque image acquise lors de l'étape a) ;
- pour chaque spermatozoïde détecté, utilisation de la série de vignettes en tant que donnée d'entrée d'un réseau de neurones de classification, le réseau de neurones de classification étant configuré pour classifier le spermatozoïde parmi des classes prédéterminées. Il peut notamment s'agir de classes morphologiques. Step d) can comprise a characterization, in particular morphological, of each spermatozoon detected. Step d) then comprises: for each of the spermatozoon detected, from each image resulting from a), and from the positions resulting from c), extraction of a thumbnail comprising the detected spermatozoon, the position of the spermatozoon detected in the thumbnail being predetermined, so as to obtain, for detected sperm, a series of thumbnails, the size of each thumbnail being smaller than the size of each image acquired during step a); - for each spermatozoon detected, use of the series of thumbnails as input data for a classification neural network, the classification neural network being configured to classify the spermatozoon among predetermined classes. These may in particular be morphological classes.
Le procédé peut être tel que chaque spermatozoïde détecté est centré par rapport à chaque vignette. The method can be such that each detected sperm is centered with respect to each thumbnail.
L'étape d) peut comporter une caractérisation de la motilité du spermatozoïde. L'étape d) peut alors comporter, à partir des positions du spermatozoïde résultant de l'étape c) : Step d) may comprise a characterization of the motility of the spermatozoon. Step d) can then comprise, from the positions of the spermatozoon resulting from step c):
- une détermination d'une trajectoire du spermatozoïde durant la période d'acquisition;- a determination of a trajectory of the spermatozoon during the acquisition period;
- un calcul d'une vitesse du spermatozoïde à partir de la trajectoire ; - a calculation of a speed of the spermatozoon from the trajectory;
- une classification du spermatozoïde en fonction de la vitesse. - a classification of the spermatozoon according to the speed.
Le procédé peut comporter : The process may include:
- une détermination d'une distance, en ligne droite, entre un premier point et un dernier point de la trajectoire, et un calcul d'une vitesse de trajectoire linéaire à partir de ladite distance ; - a determination of a distance, in a straight line, between a first point and a last point of the trajectory, and a calculation of a linear trajectory speed from said distance;
- et/ou une détermination de distances parcourues entre chaque image acquise, et un calcul d'une vitesse de la trajectoire curvilinéaire à partir desdites distances ; - And/or a determination of distances traveled between each acquired image, and a calculation of a speed of the curvilinear trajectory from said distances;
- et/ou une détermination d'une trajectoire lissée, et un calcul d'une vitesse de la trajectoire moyenne à partir de la trajectoire lissée. - And/or a determination of a smoothed trajectory, and a calculation of a speed of the average trajectory from the smoothed trajectory.
Selon un mode de réalisation, According to one embodiment,
- l'échantillon s'étend selon un plan de l'échantillon ; - the sample extends along a plane of the sample;
- le capteur d'image s'étend selon un plan de détection ; - the image sensor extends along a detection plane;
- un système optique s'étend entre l'échantillon et le capteur d'image, le système optique définissant un plan objet et un plan image ; - an optical system extends between the sample and the image sensor, the optical system defining an object plane and an image plane;
- le plan objet est décalé par rapport au plan de l'échantillon d'une distance de défocalisation objet et/ou le plan image est décalé par rapport au plan de l'échantillon d'une distance de défocalisation image. the object plane is offset from the sample plane by an object defocusing distance and/or the image plane is offset from the sample plane by an image defocusing distance.
Dans un tel mode de réalisation, le procédé peut être tel que: l'échantillon est disposé sur un support d'échantillon, reposant sur au moins un ressort, le ressort étant configuré pour pousser le support d'échantillon vers le système optique ;In such an embodiment, the method can be such that: the sample is placed on a sample support, resting on at least one spring, the spring being configured to push the sample support towards the optical system;
- le système optique est relié à au moins une butée, s'étendant, à partir du système optique, vers le support d'échantillon ;
- de telle sorte que durant l'étape a), sous l'effet du ressort, le support d'échantillon s'appuie sur la butée. - the optical system is connected to at least one abutment, extending, from the optical system, towards the sample holder; - so that during step a), under the effect of the spring, the sample support rests on the stop.
Selon un mode de réalisation, aucune optique de formation d'image ne s'étend entre l'échantillon et le capteur d'image. According to one embodiment, no imaging optics extend between the sample and the image sensor.
Selon un mode de réalisation, l'étape a) comporte une normalisation de chaque image acquise par une moyenne de ladite image ou par une moyenne d'images de la série d'images. Dans ce cas, la série d'images est effectuée à partir de chaque image acquise, après normalisation.According to one embodiment, step a) comprises a normalization of each image acquired by an average of said image or by an average of images of the series of images. In this case, the series of images is made from each acquired image, after normalization.
Selon un mode de réalisation, l'étape a) comporte une application d'un filtre passe-haut à chaque image acquise. Dans ce cas, la série d'images est effectuée à partir de chaque image acquise, après application du filtre passe-haut. According to one embodiment, step a) comprises an application of a high-pass filter to each acquired image. In this case, the series of images is performed from each image acquired, after application of the high-pass filter.
Avantageusement, lors de l'étape b), la distribution d'intensité assignée à chaque particule est décroissante, de telle sorte que l'intensité décroît en fonction de la distance par rapport à la particule. Advantageously, during step b), the intensity distribution assigned to each particle is decreasing, such that the intensity decreases as a function of the distance relative to the particle.
Avantageusement, lors de l'étape b), La distribution d'intensité assignée à chaque particule peut être une distribution statistique paramétrique bidimensionnelle. Advantageously, during step b), the intensity distribution assigned to each particle can be a two-dimensional parametric statistical distribution.
Un deuxième objet de l'invention est un dispositif d'observation d'un échantillon, l'échantillon comportant des particules mobiles, le dispositif comportant : A second object of the invention is a device for observing a sample, the sample comprising mobile particles, the device comprising:
- une source de lumière, configurée pour illuminer l'échantillon ; - a light source, configured to illuminate the sample;
- un capteur d'image, configuré pour former une image de l'échantillon ; - an image sensor, configured to form an image of the sample;
- une structure de maintien, configurée pour maintenir l'échantillon entre la source de lumière et le capteur d'image ; - a holding structure, configured to hold the sample between the light source and the image sensor;
- une unité de traitement, reliée au capteur d'image, et configurée pour mettre en œuvre les étapes a) à d) d'un procédé selon le premier objet de l'invention à partir d'au moins une image acquise par le capteur d'image. - a processing unit, connected to the image sensor, and configured to implement steps a) to d) of a method according to the first object of the invention from at least one image acquired by the sensor of picture.
Selon un mode de réalisation, aucune optique de formation d'image ne s'étend entre le capteur d'image et l'échantillon. La structure de maintien peut être configurée pour maintenir une distance fixe entre le capteur d'image et l'échantillon. According to one embodiment, no imaging optics extend between the image sensor and the sample. The holding structure can be configured to maintain a fixed distance between the image sensor and the sample.
Selon un mode de réalisation, According to one embodiment,
- le capteur d'image s'étend selon un plan de détection ; le dispositif comporte un système optique, s'étendant entre le capteur d'image et le plan support, le système optique définissant un plan image et un plan objet, le dispositif étant tel que :
• le plan image est décalé par rapport au plan de détection d'une distance de défocalisation image ; - the image sensor extends along a detection plane; the device comprises an optical system, extending between the image sensor and the support plane, the optical system defining an image plane and an object plane, the device being such that: • the image plane is offset from the detection plane by an image defocusing distance;
• et/ou le plan support et décalé par rapport au plan objet d'une distance de défocalisation objet . • and/or the support plane and offset with respect to the object plane by an object defocusing distance .
L'invention sera mieux comprise à la lecture de l'exposé des exemples de réalisation présentés, dans la suite de la description, en lien avec les figures listées ci-dessous. The invention will be better understood on reading the description of the embodiments presented, in the remainder of the description, in connection with the figures listed below.
FIGURES FIGURES
La figure IA représente un premier mode de réalisation de dispositif permettant une mise en œuvre de l'invention. FIG. 1A represents a first embodiment of a device enabling the invention to be implemented.
La figure IB est une vue tridimensionnelle du dispositif schématisé sur la figure IA. Figure IB is a three-dimensional view of the device shown schematically in Figure IA.
La figure IC montre un montage permettant de maintenir l'échantillon à distance fixe d'un système optique. Figure IC shows an assembly making it possible to maintain the sample at a fixed distance from an optical system.
La figure 1D montre le montage représenté sur la figure IC dans une position d'observation.Figure 1D shows the assembly shown in Figure IC in an observation position.
La figure 2 représente un deuxième mode de réalisation de dispositif permettant une mise en œuvre de l'invention. FIG. 2 represents a second embodiment of a device enabling the invention to be implemented.
La figure 3 montre les principales étapes d'un procédé de caractérisation de particules mobiles dans l'échantillon. Figure 3 shows the main steps of a method for characterizing mobile particles in the sample.
Les figures 4A, 4B et 4C représentent respectivement une image acquise, une image de référence et une image résultant du réseau de neurones de détection. FIGS. 4A, 4B and 4C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
La figure 5A est un exemple d'image d'un échantillon obtenue en mettant en œuvre un dispositif selon le premier mode de réalisation de l'invention. La figure 5B montre l'image représentée sur la figure 5A après un traitement par un réseau de neurones de détection. La figure 5C montre un exemple d'obtention de trajectoires de particules détectées sur l'image 5B. FIG. 5A is an example of an image of a sample obtained by implementing a device according to the first embodiment of the invention. Figure 5B shows the image depicted in Figure 5A after processing by a detection neural network. FIG. 5C shows an example of obtaining trajectories of particles detected on image 5B.
La figure 6 montre des vignettes centrées sur un même spermatozoïde, les vignettes étant extraites d'une série de neuf images acquises selon une modalité d'imagerie défocalisée.Figure 6 shows vignettes centered on a single spermatozoon, the vignettes being extracted from a series of nine images acquired using a defocused imaging modality.
Les figures 7A, 7B et 7C représentent respectivement une image acquise, une image de référence et une image résultant du réseau de neurones de détection. FIGS. 7A, 7B and 7C respectively represent an acquired image, a reference image and an image resulting from the detection neural network.
Les figures 8A, 8B et 8C représentent respectivement une image acquise, une image de référence et une image résultant du réseau de neurones de détection. Sur cette série d'images, la figure 8A a fait l'objet d'un traitement par un filtre passe-haut. FIGS. 8A, 8B and 8C respectively represent an acquired image, a reference image and an image resulting from the detection neural network. In this series of images, FIG. 8A has been processed by a high-pass filter.
Les figures 9A et 9B représentent des performances de détection de particules par le réseau de neurones de détection, dans différentes conditions. Les performances sont la sensibilité (figure 9A) et la spécificité (figure 9B).
Les figures 10A à IOC représentent des matrices de confusion, exprimant les performances de classification de spermatozoïdes, à l'aide d'images acquises selon la modalité défocalisée, la classification étant effectuée respectivement : en mettant en œuvre un algorithme de reconstruction holographique à partir d'une image obtenue par reconstruction holographique et traitée par un réseau de neurones ; en mettant en œuvre un réseau de neurones de classification dont la couche d'entrée comporte une unique image acquise selon une configuration défocalisée, sans reconstruction holographique ; en mettant en œuvre un réseau de neurones de classification, dont la couche d'entrée comporte une série d'images d'une particule, chaque image étant acquise selon une configuration défocalisée, sans reconstruction holographique. FIGS. 9A and 9B represent performance of particle detection by the detection neural network, under different conditions. The performances are the sensitivity (FIG. 9A) and the specificity (FIG. 9B). Figures 10A to IOC represent confusion matrices, expressing the classification performance of spermatozoa, using images acquired according to the defocused modality, the classification being carried out respectively: by implementing a holographic reconstruction algorithm from an image obtained by holographic reconstruction and processed by a neural network; by implementing a classification neural network whose input layer comprises a single image acquired according to a defocused configuration, without holographic reconstruction; by implementing a classification neural network, the input layer of which comprises a series of images of a particle, each image being acquired according to a defocused configuration, without holographic reconstruction.
EXPOSE DE MODES DE REALISATION PARTICULIERS DESCRIPTION OF PARTICULAR EMBODIMENTS
On a représenté, sur la figure IA, un premier mode de réalisation d'un dispositif 1 permettant une mise en œuvre de l'invention. Selon ce premier mode de réalisation, le dispositif permet l'observation d'un échantillon 10 interposé entre une source de lumière 11 et un capteur d'image 20. La source de lumière 11 est configurée pour émettre une onde lumineuse incidente 12 se propageant jusqu'à l'échantillon parallèlement à un axe de propagation Z. There is shown in Figure IA, a first embodiment of a device 1 for implementing the invention. According to this first embodiment, the device allows the observation of a sample 10 interposed between a light source 11 and an image sensor 20. The light source 11 is configured to emit an incident light wave 12 propagating up to 'to the sample parallel to a propagation axis Z.
Le dispositif comporte un support d'échantillon 10s configuré pour recevoir l'échantillon 10, de sorte que l'échantillon soit maintenu sur le support 10s. L'échantillon ainsi maintenu s'étend selon un plan, dit plan d'échantillon Pw. Le plan de l'échantillon correspond par exemple à un plan moyen autour duquel s'étend l'échantillon 10. Le support d'échantillon peut être une lame de verre, par exemple d'épaisseur 1mm. The device includes a sample holder 10s configured to receive the sample 10, such that the sample is held on the holder 10s. The sample thus maintained extends along a plane, called the sample plane Pw. The plane of the sample corresponds for example to a mean plane around which the sample 10 extends. The sample support can be a glass slide, for example 1 mm thick.
L'échantillon comprend notamment un milieu liquide 10m dans lequel baignent des particules mobile et éventuellement motiles 10i. Le milieu 10m peut être un liquide biologique ou un liquide tampon. Il peut par exemple comporter un liquide corporel, à l'état pur ou dilué. Par liquide corporel, on entend un liquide généré par un corps vivant. Il peut en particulier s'agir, à titre non limitatif, de sang, d'urine, de liquide céphalorachidien, de sperme, de lymphe. The sample notably comprises a liquid medium 10 m in which mobile and possibly motile particles 10i are immersed. The 10 m medium can be a biological liquid or a buffer liquid. It may for example comprise a bodily fluid, in the pure or diluted state. By bodily fluid is meant a fluid generated by a living body. It may in particular be, without limitation, blood, urine, cerebrospinal fluid, semen, lymph.
L'échantillon 10 est de préférence contenu dans une chambre fluidique 10c. La chambre fluidique est par exemple une chambre fluidique d'épaisseur, comprise entre 20 pm et 100 pm. L'épaisseur de la chambre fluidique, et donc de l'échantillon 10, selon l'axe de propagation Z,
varie typiquement entre 10 pm et 200pm, et est de préférence comprise entre 20 pm et 50 pm pm. The sample 10 is preferably contained in a fluidic chamber 10 c . The fluidic chamber is for example a fluidic chamber with a thickness of between 20 μm and 100 μm. The thickness of the fluidic chamber, and therefore of the sample 10, along the axis of propagation Z, typically varies between 10 μm and 200 μm, and is preferably between 20 μm and 50 μm.
Un des objectifs de l'invention est la caractérisation de particules en mouvement dans l'échantillon. Dans l'exemple de réalisation décrit, les particules mobiles sont des spermatozoïdes. Dans ce cas, l'échantillon comporte du sperme, éventuellement dilué. Dans ce cas, la chambre fluidique 10c peut être une chambre de comptage dédiée à l'analyse de la mobilité ou de la concentration de cellules. Il peut par exemple s'agir d'une chambre de comptage commercialisées par Leja, d'épaisseur comprise entre 20 pm et 100 pm. One of the objectives of the invention is the characterization of moving particles in the sample. In the embodiment described, the mobile particles are spermatozoa. In this case, the sample contains sperm, possibly diluted. In this case, the fluidic chamber 10 c can be a counting chamber dedicated to the analysis of the mobility or the concentration of cells. It may for example be a counting chamber marketed by Leja, with a thickness of between 20 μm and 100 μm.
Selon d'autres applications, l'échantillon comporte des particules mobiles, par exemple des microorganismes, par exemple microalgues ou plancton, ou des cellules, par exemple des cellules en cours de sédimentation. According to other applications, the sample comprises mobile particles, for example microorganisms, for example microalgae or plankton, or cells, for example cells in the process of sedimentation.
La distance D entre la source de lumière 11 et l'échantillon 10 est de préférence supérieure à 1 cm. Elle est de préférence comprise entre 2 et 30 cm. Avantageusement, la source de lumière 11, vue par l'échantillon, est considérée comme ponctuelle. Cela signifie que son diamètre (ou sa diagonale) est préférentiellement inférieur au dixième, mieux au centième de la distance entre l'échantillon et la source de lumière. The distance D between the light source 11 and the sample 10 is preferably greater than 1 cm. It is preferably between 2 and 30 cm. Advantageously, the light source 11, seen by the sample, is considered as point. This means that its diameter (or its diagonal) is preferably less than one tenth, better still one hundredth of the distance between the sample and the light source.
La source de lumière 11 est par exemple une diode électroluminescente. Elles est de préférence associée à un diaphragme 14, ou filtre spatial. L'ouverture du diaphragme est typiquement comprise entre 5 pm et 1 mm, de préférence entre 50 pm et 1 mm. Dans cet exemple, le diaphragme a un diamètre est de 400 pm. Selon une autre configuration, le diaphragme peut être remplacé par une fibre optique, dont une première extrémité est placée face à la source de lumière et dont une deuxième extrémité est placée en regard de l'échantillon 10. Le dispositif peut également comporter un diffuseur 13, disposé entre la source de lumière 13 et le diaphragme 14. Le recours à un assemblage diffuseur/diaphragme est par exemple décrit dans US10418399 The light source 11 is for example a light-emitting diode. It is preferably associated with a diaphragm 14, or spatial filter. The aperture of the diaphragm is typically between 5 μm and 1 mm, preferably between 50 μm and 1 mm. In this example, the diaphragm has a diameter of 400 µm. According to another configuration, the diaphragm can be replaced by an optical fiber, a first end of which is placed facing the light source and a second end of which is placed facing the sample 10. The device can also comprise a diffuser 13 , placed between the light source 13 and the diaphragm 14. The use of a diffuser/diaphragm assembly is for example described in US10418399
Le capteur d'image 20 est configuré pour former une image de l'échantillon selon un plan de détection P20. Dans l'exemple représenté, le capteur d'image 20 comporte une matrice de pixels, de type CCD ou un CMOS. Le plan de détection P20 s'étend de préférence perpendiculairement à l'axe de propagation Z. De préférence, le capteur d'image présente une surface sensible élevée, typiquement supérieure à 10 mm2. Dans cet exemple, le capteur d'image est un capteur IDS-UI-3160CP-M-GL comportant des pixels de 4.8x4.8 pm2, la surface sensible étant de 9.2 mm x 5.76 mm, soit 53 mm2.
Dans l'exemple représenté sur la figure IA, le capteur d'image 20 est optiquement couplé à l'échantillon 10 par un système optique 15. Dans l'exemple représenté, le système optique comporte un objectif 15i et une lentille de tube 152. Cette dernière est destinée à projeter une image formée, sur la surface sensible du capteur d'image 20 (surface de 53 mm2). The image sensor 20 is configured to form an image of the sample according to a detection plane P20. In the example represented, the image sensor 20 comprises a matrix of pixels, of CCD or CMOS type. The detection plane P20 preferably extends perpendicular to the axis of propagation Z. Preferably, the image sensor has a high sensitive surface, typically greater than 10 mm 2 . In this example, the image sensor is an IDS-UI-3160CP-M-GL sensor comprising pixels of 4.8×4.8 μm 2 , the sensitive surface being 9.2 mm×5.76 mm, ie 53 mm 2 . In the example shown in Figure 1A, the image sensor 20 is optically coupled to the sample 10 by an optical system 15. In the example shown, the optical system includes an objective 15i and a tube lens 152. The latter is intended to project a formed image on the sensitive surface of the image sensor 20 (53 mm 2 surface).
Dans cet exemple : l'objectif 15i est un objectif Motic CCIS EF-N Plan Achromat lOx, d'ouverture numérique 0.25 ; la lentille 152 est une lentille Thorlabs LBF254-075-A - focale 75 mm. In this example: the 15i objective is a Motic CCIS EF-N Plan Achromat lOx objective, with a numerical aperture of 0.25; lens 152 is a Thorlabs LBF254-075-A lens - 75 mm focal length.
Un tel montage confère un champ d'observation de 3 mm2, avec une résolution spatiale de 1 pm. La courte focale de la lentille permet d'optimiser l'encombrement du dispositif 1 et d'ajuster le grossissement à la dimension du capteur d'image. Such an assembly provides an observation field of 3 mm 2 , with a spatial resolution of 1 μm. The short focal length of the lens makes it possible to optimize the bulk of the device 1 and to adjust the magnification to the size of the image sensor.
Le capteur d'image est configuré pour acquérir des images de l'échantillon , selon une fréquence d'acquisition de quelques dizaines d'images par seconde, par exemple 60 images par seconde. La fréquence d'échantillonnage est typiquement comprise entre 5 et 100 images par seconde.The image sensor is configured to acquire images of the sample, according to an acquisition frequency of a few tens of images per second, for example 60 images per second. The sampling frequency is typically between 5 and 100 frames per second.
Le système optique 15 définit un plan objet Po et un plan image Pi. Dans le mode de réalisation représenté sur la figure IA, le capteur d'image 20 est configuré pour acquérir une image selon une configuration défocalisée. Le plan image Pi est confondu avec le plan de détection P2o, tandis que le plan objet Po est décalé d'une distance de focalisation objet 6 comprise entre 10 pm et 500 pm, par rapport à l'échantillon. La distance de focalisation est de préférence comprise entre 50 pm et 100 pm, par exemple 70 pm. Le plan objet Po s'étend en dehors de l'échantillon 10. Selon une autre possibilité, le plan objet s'étend dans l'échantillon, tandis que le plan image est décalé par rapport au plan de détection, d'une distance de défocalisation image. La distance de focalisation image est de préférence comprise entre 50 pm et 100 pm, par exemple 70 pm. Selon une autre possibilité, le plan objet Po et le plan image Pi sont tous les deux décalés respectivement par rapport au plan de l'échantillon et par rapport au plan de détection. Quelle que soit la configuration retenue, la distance de défocalisation est de préférence supérieure à 10 pm et inférieure à 1 mm, voire à 500 pm, et de préférence entre 50 pm et 150 pm. L'observation d'un échantillon cellulaire selon une configuration défocalisée a été décrit dans le brevet US10545329. The optical system 15 defines an object plane P o and an image plane Pi. In the embodiment represented in FIG. 1A, the image sensor 20 is configured to acquire an image according to a defocused configuration. The image plane Pi coincides with the detection plane P 2 o, while the object plane P o is offset by an object focusing distance 6 of between 10 μm and 500 μm, relative to the sample. The focusing distance is preferably between 50 μm and 100 μm, for example 70 μm. The object plane P o extends outside the sample 10. According to another possibility, the object plane extends into the sample, while the image plane is shifted with respect to the detection plane, by a distance image defocus. The image focusing distance is preferably between 50 μm and 100 μm, for example 70 μm. According to another possibility, the object plane P o and the image plane Pi are both offset respectively with respect to the plane of the sample and with respect to the detection plane. Whatever the configuration chosen, the defocusing distance is preferably greater than 10 μm and less than 1 mm, or even 500 μm, and preferably between 50 μm and 150 μm. The observation of a cellular sample according to a defocused configuration has been described in patent US10545329.
Selon une telle modalité, le capteur d'image 20 est exposé à une onde lumineuse, dite onde lumineuse d'exposition. L'image acquise par le capteur d'image comporte des figures
d'interférence, pouvant également être désignées par le terme "figures de diffraction", formées par : une partie de l'onde lumineuse 12 émise par la source de lumière 11, et ayant traversé l'échantillon sans interagir avec ce dernier ; des ondes de diffraction, formées par la diffraction d'une partie de l'onde lumineuse 12 émise par la source de lumière dans l'échantillon. Il s'agit notamment de la diffraction formée par les particules. According to such a modality, the image sensor 20 is exposed to a light wave, called exposure light wave. The image acquired by the image sensor comprises figures interference, which can also be designated by the term "diffraction patterns", formed by: a part of the light wave 12 emitted by the light source 11, and having passed through the sample without interacting with the latter; diffraction waves, formed by the diffraction of part of the light wave 12 emitted by the light source in the sample. These include the diffraction formed by the particles.
Une unité de traitement 30, comportant par exemple un microprocesseur, est apte à traiter chaque image acquise par le capteur d'image 20. En particulier, l'unité de traitement comporte une mémoire programmable 31 dans laquelle est stockée une séquence d'instructions pour effectuer les opérations de traitement d'images et de calculs décrites dans cette description. L'unité de traitement 30 peut être couplée à un écran 32 permettant l'affichage d'images acquises par le capteur d'image 20 ou résultant du traitement effectué par l'unité de traitement 30. A processing unit 30, comprising for example a microprocessor, is capable of processing each image acquired by the image sensor 20. In particular, the processing unit comprises a programmable memory 31 in which is stored a sequence of instructions for perform the image processing and calculation operations described in this description. The processing unit 30 can be coupled to a screen 32 allowing the display of images acquired by the image sensor 20 or resulting from the processing carried out by the processing unit 30.
L'image acquise par le capteur d'image 20, selon une modalité d'imagerie défocalisée, est une figure de diffraction de l'échantillon, parfois appelé hologramme. Elle ne permet pas d'obtenir une représentation précise de l'échantillon observé. De façon usuelle dans le domaine de l'holographie, on peut appliquer, à chaque image acquise par le capteur d'image, un opérateur de reconstruction holographique de façon à calculer une expression complexe représentative de l'onde lumineuse à laquelle est exposé le capteur d'image, et cela en tout point de coordonnées (x, y, z) de l'espace, et en particulier dans un plan de reconstruction correspondant au plan de l'échantillon. L'expression complexe permet d'obtenir l'intensité ou la phase de l'onde lumineuse d'exposition. Une telle reconstruction holographique est décrite en lien avec l'art antérieur, ainsi que dans US10545329. The image acquired by the image sensor 20, according to a defocused imaging modality, is a diffraction figure of the sample, sometimes called a hologram. It does not make it possible to obtain an accurate representation of the observed sample. In the usual way in the field of holography, it is possible to apply, to each image acquired by the image sensor, a holographic reconstruction operator so as to calculate a complex expression representative of the light wave to which the sensor is exposed. image, and this at any point of coordinates (x, y, z) in space, and in particular in a reconstruction plane corresponding to the plane of the sample. The complex expression returns the intensity or phase of the exposure light wave. Such a holographic reconstruction is described in connection with the prior art, as well as in US10545329.
Cependant, pour des raisons de rapidité de traitement, les inventeurs ont suivi une approche différente de celle suggérée par l'art antérieur, sans recours à un algorithme de reconstruction holographique appliqué aux images acquises par le capteur d'image. Le procédé mis en œuvre par le capteur est décrit par la suite, en lien avec la figure 3. However, for reasons of processing speed, the inventors followed a different approach from that suggested by the prior art, without recourse to a holographic reconstruction algorithm applied to the images acquired by the image sensor. The process implemented by the sensor is described below, in connection with Figure 3.
La figure IB est une représentation d'un exemple de dispositif tel que schématisé sur la figure IA. Les figures IC et 1D représentent un détail de la disposition de l'échantillon 10 face au système optique 15, et plus précisément face à l'objectif 15i. Le support de l'échantillon 10s est relié à des moyens de rappel élastiques 16a, par exemple des ressorts. Les ressorts tendent à
rapprocher le support d'échantillon 10s de l'objectif 15i. Le dispositif comporte également des butées 16b, solidaires de l'objectif 15i. L'objectif 15i et les butées 16b sont fixes par rapport au capteur d'image 20. Les butées 16b et les moyens de rappel 16a forment une structure de maintien 16, destinée à maintenir l'échantillon entre la source de lumière 11 et le capteur d'image 20. Figure IB is a representation of an example of a device as shown schematically in Figure IA. Figures 1C and 1D represent a detail of the arrangement of the sample 10 facing the optical system 15, and more precisely facing the lens 15i. The sample support 10 s is connected to elastic return means 16 a , for example springs. The springs tend to Bring the 10s sample holder closer to the 15i objective. The device also includes abutments 16b, integral with the lens 15i. The objective 15i and the stops 16b are fixed relative to the image sensor 20. The stops 16b and the return means 16a form a holding structure 16, intended to hold the sample between the light source 11 and the image sensor 20.
Les figures IC et 1D représentent le maintien de l'échantillon sur le support d'échantillon respectivement durant la mise en place de l'échantillon et durant son observation. Une liaison rigide 16c relie l'objectif 15i aux butées 16b. Durant la mise en place de l'échantillon (figure IC), les ressorts 16a sont comprimés. Durant l'observation de l'échantillon (figure ID), sous l'effet d'une détente des ressors 16a, le support de l'échantillon 10s vient en appui contre les butées 16b. Cela permet de maîtriser la distance A entre l'objectif 15i et l'échantillon 10, indépendamment de l'épaisseur du support d'échantillon 10s. Cela permet de s'affranchir de variations de l'épaisseur du support d'échantillon. Par exemple, lorsque ce dernier est une lame de verre d'épaisseur 1mm, l'épaisseur peut fluctuer selon une plage relativement importante, par exemple ± 100 pm. Le montage décrit en lien avec les figures IC et 1D permet de maîtriser la distance A entre l'objectif 15i et l'échantillon 10, à ± 5 pm près, indépendamment de telles fluctuations d'épaisseur de la lame 10s. Les inventeurs estiment qu'un tel montage permet d'éviter le recours à un système autofocus pour effectuer des images Figures 1C and 1D represent the maintenance of the sample on the sample support respectively during the positioning of the sample and during its observation. A rigid link 16c connects the lens 15i to the stops 16b. During the positioning of the sample (FIG. IC), the springs 16a are compressed. During the observation of the sample (figure ID), under the effect of a relaxation of the springs 16a , the support of the sample 10s comes to bear against the stops 16b. This makes it possible to control the distance A between the objective 15i and the sample 10, independently of the thickness of the sample support 10 s . This makes it possible to overcome variations in the thickness of the sample support. For example, when the latter is a glass slide with a thickness of 1 mm, the thickness can fluctuate over a relatively wide range, for example ±100 μm. The assembly described in connection with FIGS. 1C and 1D makes it possible to control the distance A between the objective 15i and the sample 10, to within ± 5 μm, independently of such fluctuations in the thickness of the plate 10 s . The inventors believe that such an assembly makes it possible to avoid having to resort to an autofocus system to produce images
Sur le figures IC et 1D, on a également représenté une résistance chauffante 19 reliée à un contrôleur de température 18. La fonction de ces éléments est de maintenir une température de la chambre fluidique 10c à 37°C. Figures 1C and 1D also show a heating resistor 19 connected to a temperature controller 18. The function of these elements is to maintain a temperature of the fluidic chamber 10 c at 37°C.
La figure 2 représente un deuxième mode de réalisation de dispositif l' convenant à la mise en œuvre de l'invention. Le dispositif l' comporte une source de lumière 11, un diffuseur 13, un diaphragme 14, un capteur d'image 20, une structure de maintien 17 et une unité de traitement 30 tels que décrits en lien avec le premier mode de réalisation. La structure de maintien 17 est configurée pour définir une distance fixe entre l'échantillon et le capteur d'image. Selon ce mode de réalisation, le dispositif ne comporte pas de lentille de formation d'image entre le capteur d'image 20 et l'échantillon 10. Le capteur d'image 20 est de préférence rapproché de l'échantillon, la distance entre le capteur d'image 20 et l'échantillon 10 étant typiquement comprise entre 100 pm et 3 mm. Selon ce mode de réalisation, le capteur d'image acquiert des images selon une modalité d'imagerie sans lentille. L'échantillon est de préférence contenu dans une chambre fluidique 10c, par exemple une chambre « Leja » telle que décrite en lien avec le
premier mode de réalisation. L'avantage d'un tel mode de réalisation est qu'il ne nécessite pas un positionnement précis d'un système optique 15 par rapport à l'échantillon 10, et qu'il confère un champ d'observation élevé. L'inconvénient est l'obtention d'images de moindre qualité, mais qui demeurent exploitables. FIG. 2 represents a second embodiment of device 1' suitable for implementing the invention. The device 1' comprises a light source 11, a diffuser 13, a diaphragm 14, an image sensor 20, a holding structure 17 and a processing unit 30 as described in connection with the first embodiment. The holding structure 17 is configured to define a fixed distance between the sample and the image sensor. According to this embodiment, the device does not include an image forming lens between the image sensor 20 and the sample 10. The image sensor 20 is preferably brought closer to the sample, the distance between the image sensor 20 and sample 10 being typically between 100 μm and 3 mm. According to this embodiment, the image sensor acquires images according to a lensless imaging modality. The sample is preferably contained in a fluidic chamber 10 c , for example a “Leja” chamber as described in connection with the first embodiment. The advantage of such an embodiment is that it does not require precise positioning of an optical system 15 with respect to the sample 10, and that it confers a high field of observation. The disadvantage is obtaining images of lower quality, but which remain usable.
De préférence, la structure de maintien est agencée façon que la distance entre l'échantillon, lorsque l'échantillon 10 est disposé sur la structure de maintien 17, et le capteur d'image 20, est constante. Dans l'exemple représenté sur la figure 2, la structure de maintien 17 est reliée à une base 20', sur laquelle s'étend le capteur d'image 20. La base peut par exemple être une plaque de type PCB (Printed Circuit Board - Circuit imprimé), sur laquelle est posé le capteur d'image 20. L'échantillon 10, contenu dans la chambre fluidique 10c, est maintenu, par le support d'échantillon 10s, sur la structure de maintien 17. Le support d'échantillon est par exemple une lame transparente. L'échantillon s'étend entre le support d'échantillon 10s et le capteur d'image. Ainsi, la distance entre l'échantillon 10 et le capteur d'image 20 n'est pas affectée par une fluctuation de l'épaisseur du support 10s. Preferably, the holding structure is arranged so that the distance between the sample, when the sample 10 is placed on the holding structure 17, and the image sensor 20, is constant. In the example represented in FIG. 2, the holding structure 17 is connected to a base 20', on which the image sensor 20 extends. - Printed circuit), on which the image sensor 20 is placed. The sample 10, contained in the fluidic chamber 10 c , is held, by the sample holder 10 s , on the holding structure 17. The support sample is for example a transparent slide. The sample extends between the 10s sample holder and the image sensor. Thus, the distance between the sample 10 and the image sensor 20 is not affected by a fluctuation in the thickness of the support 10s.
La figure 3 schématise les principales étapes d'un procédé de traitement de plusieurs images acquises par un capteur d'image selon la modalité d'imagerie défocalisée (premier mode de réalisation) ou d'imagerie sans lentille (deuxième mode de réalisation). Le procédé est décrit en lien avec l'observation de spermatozoïdes, étant entendu qu'il peut s'appliquer à l'observation d'autres types de particules motiles. FIG. 3 schematizes the main steps of a method for processing several images acquired by an image sensor according to the defocused imaging modality (first embodiment) or imaging without lens (second embodiment). The method is described in connection with the observation of spermatozoa, it being understood that it can be applied to the observation of other types of motile particles.
Etape 100 : Acquisition d'une série d'images IO n Step 100: Acquisition of a series of images I O n
Au cours de cette étape, on acquiert une série d'images IO n selon l'une des modalités précédemment décrites, n est un entier naturel désignant le rang de chaque image acquise, avec 1< n < N, N étant le nombre total d'images acquises. Les images acquises sont des images acquises soit selon une modalité d'imagerie défocalisée, soit selon une modalité d'imagerie sans lentille. Le nombre N d'images acquises peut être compris entre 5 et 50. Comme précédemment indiqué, les images peuvent être acquises selon une fréquence d'acquisition de 60 Hz. During this step, a series of images I O n are acquired according to one of the methods previously described, n is a natural number designating the rank of each image acquired, with 1<n<N, N being the total number images acquired. The images acquired are images acquired either according to a defocused imaging modality or according to a lensless imaging modality. The number N of images acquired can be between 5 and 50. As previously indicated, the images can be acquired according to an acquisition frequency of 60 Hz.
Dans les résultats présentés ci-après, les images ont été acquises en utilisant une modalité d'imagerie défocalisée, telle que décrite en lien avec les figures IA à 1D. In the results presented below, the images were acquired using a defocused imaging modality, as described in connection with Figures 1A to 1D.
Etape 110 : Prétraitement Step 110: Preprocessing
L'objectif est d'effectuer un prétraitement de chaque image acquise, de façon à limiter les effets d'une fluctuation de l'intensité de l'onde lumineuse incidente ou de la sensibilité de la caméra.
Le prétraitement consiste à normaliser chaque image acquise par une moyenne de l'intensité d'au moins une image acquise, et de préférence de l'ensemble des images acquises. The objective is to perform a pre-processing of each image acquired, so as to limit the effects of a fluctuation in the intensity of the incident light wave or in the sensitivity of the camera. The pre-processing consists in normalizing each image acquired by an average of the intensity of at least one image acquired, and preferably of all the images acquired.
Ainsi, à partir de chaque image IO n, la normalisation permet d'obtenir une image normalisée In, telle que In = x 100 où IO n est une moyenne d'une ou plusieurs images de la
série d'images, et de préférence de chaque image de la série d'images. Thus, from each image I O n , the normalization makes it possible to obtain a normalized image I n , such that I n = x 100 where I O n is an average of one or more images of the series of images, and preferably each image in the series of images.
Selon une possibilité, le prétraitement peut inclure une application d'un filtre passe-haut à chaque image, éventuellement normalisée. Le filtre passe-haut permet d'éliminer les basses fréquences de l'image. According to one possibility, the pre-processing can include an application of a high-pass filter to each image, possibly normalized. The high pass filter eliminates low frequencies from the image.
Selon une possibilité, on applique un filtre gaussien, en effectuant un produit de convolution de l'image In par un noyau gaussien K. La largeur à mi-hauteur du noyau gaussien est par exemple de 20 pixels. Le prétraitement consiste alors à soustraire, à l'image In, l'image In * K résultant de l'application du filtre gaussien, de telle sorte que l'image résultant du prétraitement est : I'n = In ~ In * . * est l'opérateur produit de convolution. According to one possibility, a Gaussian filter is applied, by carrying out a convolution product of the image I n by a Gaussian kernel K. The width at mid-height of the Gaussian kernel is for example 20 pixels. The preprocessing then consists in subtracting, from the image I n , the image I n * K resulting from the application of the Gaussian filter, so that the image resulting from the preprocessing is: I' n = In ~ In * . * is the convolution product operator.
L'effet d'un tel filtrage est décrit par la suite, en lien avec les figures 7A à 7C et 8A à 8C. The effect of such filtering is described below, in connection with FIGS. 7A to 7C and 8A to 8C.
Etape 120 : Détection de particules Step 120: Particle detection
Cette étape consiste à détecter et à positionner précisément les spermatozoïdes, et cela sur chaque image IO n, résultant de l'étape 100 ou de chaque image I'n prétraitée lors de l'étape 110. Cette étape est effectuée à l'aide d'un réseau de neurones convolutif de détection CNNd. Le réseau de neurones CNNd comporte une couche d'entrée, sous la forme d'une image d'entrée Iin n. L'image d'entrée Iin n est soit une image acquise IO n, soit une image In, I'n prétraitée . A partir de l'image d'entrée Iin n, le réseau de neurones de détection CNNd génère une image de sortie Iout,n- L'image de sortie Ioutin est telle que chaque spermatozoïde 10i détecté sur l'image d'entrée Iin n, en une position
apparaît sous la forme d'une distribution d'intensité centrée autour de ladite position. Autrement dit, à partir d'une image d'entrée
le réseau de neurones CNNd permet : une détection de spermatozoïdes ; une estimation de la position
de chaque spermatozoïde 10i détecté; une génération d'une image de sortie /out n comportant une distribution d'intensité prédéterminée autour de chaque position . This step consists in detecting and precisely positioning the spermatozoa, and this on each image I O n , resulting from step 100 or from each image I′ n preprocessed during step 110. This step is carried out using of a CNNd detection convolutional neural network. The CNNd neural network comprises an input layer, in the form of an input image I in n . The input image I in n is either an acquired image I O n , or a preprocessed image I n , I′ n . From the input image I in n , the detection neural network CNNd generates an output image I or t, n - The output image I outin is such that each spermatozoon 10i detected on the image d input I in n , in a position appears as an intensity distribution centered around said position. That is, from an input image the CNNd neural network allows: detection of spermatozoa; a position estimate of each 10i sperm detected; a generation of an output image/ out n comprising a predetermined intensity distribution around each position.
Ainsi, Iout n — CN NdUin.n)
Chaque position (x^y^ est une position bidimensionnelle, dans le plan de détection P20. La distribution
est telle que l'intensité est maximale au niveau de chaque position (%j,yi) et que l'intensité soit considérée comme négligeable au-delà d'un voisinage Vt de chaque position. Par voisinage
on entend une région s'étendant selon un nombre de pixels, prédéterminé, par exemple entre 5 et 20 pixels, autour de chaque position (x^y^). La distribution Dt peut être de type créneau, auquel cas dans le voisinage
chaque pixel est d'intensité constante est élevée, et au-delà du voisinage
chaque pixel a une intensité nulle.Thus, I or t n — CN NdUin.n) Each position (x^y^ is a two-dimensional position, in the detection plane P20. The distribution is such that the intensity is maximum at each position (%j,yi) and that the intensity is considered negligible beyond a neighborhood Vt of each position. By neighborhood is meant a region extending according to a predetermined number of pixels, for example between 5 and 20 pixels, around each position (x^y^). The distribution D t can be of the niche type, in which case in the neighborhood each pixel is of constant intensity is high, and beyond the neighborhood each pixel has zero intensity.
De préférence, la distribution Dt est centrée sur chaque position (x^y^) et est strictement décroissante autour de cette dernière. Il peut par exemple s'agir d'une distribution d'intensité gaussienne bidimensionnelle, centrée sur chaque position (Xj,yj). La largeur à mi hauteur est par exemple inférieure à 20 pixels, et de préférence inférieure à 10 ou 5 pixels. Toute autre forme de distribution paramétrique peut être envisagée, sachant qu'il est préférable que la distribution
soit symétrique autour de chaque position, et de préférence strictement décroissante à partir de la position (xj,yj). Le fait d'assigner une distribution
à chaque position (xj,yj) permet d'obtenir une image de sortie /out n dans laquelle chaque spermatozoïde est simple à détecter. En cela, l'image de sortie Iout n est une image de détection, sur la base de laquelle chaque spermatozoïde peut être détecté. Preferably, the distribution D t is centered on each position (x^y^) and is strictly decreasing around the latter. It may for example be a two-dimensional Gaussian intensity distribution, centered on each position (Xj,yj). The width at mid-height is for example less than 20 pixels, and preferably less than 10 or 5 pixels. Any other form of parametric distribution can be considered, knowing that it is preferable that the distribution be symmetrical around each position, and preferably strictly decreasing from position (xj,yj). Assigning a distribution at each position (xj,yj) makes it possible to obtain an output image / out n in which each spermatozoon is simple to detect. In this, the output image I out n is a detection image, based on which each sperm can be detected.
L'image de sortie du réseau de neurones est formée par une résultante de chaque distribution d'intensité Dt définie respectivement autour de chaque position (x^yj). The output image of the neural network is formed by a resultant of each intensity distribution D t defined respectively around each position (x^yj).
Dans l'exemple implémenté par les inventeurs, le réseau de neurones convolutif de détection comportait 20 couches comportant soit 10, soit 32 caractéristiques (plus usuellement désignées par le terme « features ») par couche. Le nombre de caractéristiques était déterminé de façon empirique. Le passage d'une couche à une autre est effectué en appliquant un noyau de convolution de taille 3x3. L'image de sortie est obtenue en combinant les caractéristiques de la dernière couche de convolution. Le réseau de neurones a été programmé sous environnement Matlab (éditeur : The Mathworks). Le réseau de neurones a préalablement fait l'objet d'un apprentissage (étape 80), de façon à paramétrer les filtres de convolution. Au cours de l'apprentissage, on a utilisé des jeux d'apprentissage, chaque jeu comportant : une image d'entrée, obtenue par le capteur d'image et prétraitée par normalisation et éventuellement filtrage, en utilisant des semences d'animaux. une image de sortie, sur laquelle la position de chaque spermatozoïde était annotée manuellement.
L'apprentissage a été effectuée en utilisant 10000 ou 20000 positions annotées (soit entre 1000 et 3000 positions annotées par image). L'effet de la taille du jeu d'apprentissage (10000 ou 20000 annotations) est discuté en lien avec les figures 9A et 9B. In the example implemented by the inventors, the convolutional detection neural network comprised 20 layers comprising either 10 or 32 characteristics (more usually designated by the term “features”) per layer. The number of features was determined empirically. The transition from one layer to another is performed by applying a convolution kernel of size 3x3. The output image is obtained by combining the characteristics of the last convolution layer. The neural network was programmed in a Matlab environment (publisher: The Mathworks). The neural network has previously been the subject of learning (step 80), so as to parameterize the convolution filters. During the learning, learning sets were used, each set comprising: an input image, obtained by the image sensor and preprocessed by normalization and possibly filtering, using animal semen. an output image, on which the position of each sperm was manually annotated. Learning was performed using 10000 or 20000 annotated positions (i.e. between 1000 and 3000 annotated positions per image). The effect of the size of the training set (10,000 or 20,000 annotations) is discussed in connection with Figures 9A and 9B.
Les figures 4A, 4B et 4C sont un jeu d'images de test, comportant respectivement : une image d'un échantillon de semences de bovin acquise par le capteur d'image et ayant fait l'objet d'une normalisation et filtrage passe haut selon l'étape 110 ; une image annotée manuellement, qui correspond à une image de référence, usuellement désignée par le terme « ground truth » (réalité) ; une image résultant de l'application du réseau de neurones convolutif de détection.FIGS. 4A, 4B and 4C are a set of test images, comprising respectively: an image of a sample of bovine semen acquired by the image sensor and having undergone normalization and high pass filtering according to step 110; a manually annotated image, which corresponds to a reference image, usually designated by the term “ground truth” (reality); an image resulting from the application of the detection convolutional neural network.
L'image de la figure 4C est cohérente avec l'image de référence (figure 4B) ce qui atteste de la performance de détection du réseau de neurones CNNd. Les inventeurs ont noté que la figure 4C montre une position non représentée sur l'image de référence : une vérification a montré qu'il s'agissait d'un oubli d'annotation sur l'image de référence. The image of FIG. 4C is consistent with the reference image (FIG. 4B), which attests to the detection performance of the CNNd neural network. The inventors have noted that FIG. 4C shows a position not shown on the reference image: a check showed that it was an annotation omission on the reference image.
Ainsi, sur la base d'un hologramme, et moyennant d'éventuels prétraitements de type normalisation ou filtre passe haut, pour faire ressortir les fréquences hautes, l'application du réseau de neurones convolutif de détection CNNd permet une détection et un positionnement précis de spermatozoïdes. Et cela sans recourir à une reconstruction d'image mettant en œuvre un opérateur de propagation holographique, comme suggéré dans l'art antérieur. L'image d'entrée du réseau de neurones est une image formée dans le plan de détection, et non dans un plan de reconstruction distant du plan de détection. En outre, le réseau de neurones de détection génère des images de sorties peu bruitées : le rapport signal à bruit associé à chaque détection de spermatozoïde est élevé, ce qui facilite les opérations ultérieures. Thus, on the basis of a hologram, and subject to possible pre-processing of the normalization or high-pass filter type, to bring out the high frequencies, the application of the convolutional neural network of detection CNNd allows precise detection and positioning of sperm. And this without resorting to an image reconstruction implementing a holographic propagation operator, as suggested in the prior art. The input image of the neural network is an image formed in the detection plane, and not in a reconstruction plane remote from the detection plane. In addition, the detection neural network generates low-noise output images: the signal-to-noise ratio associated with each sperm detection is high, which facilitates subsequent operations.
L'étape 120 est réitérée pour différentes images d'une même série d'images, de façon à obtenir une série d'images de sortie Ioutil IOut,N-Step 120 is repeated for different images of the same series of images, so as to obtain a series of output images I tool I O ut,N-
Au cours de l'étape 120, à partir de chaque image de sortie Iout l I0Ut,N> on applique un algorithme de détection de maximum local, de façon à obtenir, pour chaque image, une liste de coordonnées 2D, chaque coordonnée correspondant à une position d'un spermatozoïde. Ainsi, à partir de chaque image de sortie Ioutil IOut,N> on établit une liste Lout l L0Ut w-Chaque liste Lout n comporte correspond aux positions 2D, dans le plan de détection, de spermatozoïdes détectés dans une image Ioutin.
La figure 5A représente une image acquise lors de l'étape 100. Plus précisément, il s'agit d'un détail d'une image acquise selon une modalité défocalisée. Il s'agit d'une image d'un échantillon comportant du sperme de bovin. Une telle image est difficilement interprétable par un utilisateur. La figure 5B montre une image résultant de l'application du réseau de neurones de détection à la figure 5A, après normalisation et application d'un filtre passe-haut. La comparaison entre les images 5A et 5B montre le gain apporté par le réseau de neurones convolutif de détection en matière de rapport signal à bruit. During step 120, from each output image I out l I 0U t,N> a local maximum detection algorithm is applied, so as to obtain, for each image, a list of 2D coordinates, each coordinate corresponding to a position of a spermatozoon. Thus, from each output image I tool I O ut,N> a list L out l L 0Ut w is established -Each list L out n comprises corresponds to the 2D positions, in the detection plane, of spermatozoa detected in a picture I outin . FIG. 5A represents an image acquired during step 100. More precisely, it is a detail of an image acquired according to a defocused mode. This is an image of a sample containing bovine semen. Such an image is difficult to interpret by a user. Figure 5B shows an image resulting from the application of the detection neural network in Figure 5A, after normalization and application of a high-pass filter. The comparison between images 5A and 5B shows the gain provided by the detection convolutional neural network in terms of signal-to-noise ratio.
Etape 130 : suivi de position Step 130: position tracking
Au cours de cette étape, à partir des listes Lout l LoutN respectivement établies à partir des images de sortie Ioutil IOut,N> résultant d'une même série d'images I0 1 ... I0 N, on applique un algorithme de suivi de position, usuellement désigné par le terme « algorithme de tracking ». Pour chaque spermatozoïde détecté suite à l'étape 120, on met en œuvre un algorithme permettant un suivi de la position du spermatozoïde, parallèlement au plan de détection, entre les différentes images de la série d'images. La mise en œuvre de l'algorithme de suivi de position est performante du fait qu'il est effectué à partir des listes Lout l L0Ut N résultant de l'étape 120. Comme précédemment indiqué, ces images présentent un rapport signal sur bruit élevé, ce qui facilite la mise en œuvre de l'algorithme de suivi de position. L'algorithme de suivi de position peut être un algorithme de type « plus proche voisin ». L'étape 130 permet une détermination d'une trajectoire de chaque spermatozoïde parallèlement au plan de détection.During this step, from the lists L out l L outN respectively established from the output images I tool I O ut,N> resulting from the same series of images I 0 1 ... I 0 N , a position tracking algorithm is applied, usually designated by the term “tracking algorithm”. For each spermatozoon detected following step 120, an algorithm is implemented allowing tracking of the position of the spermatozoon, parallel to the detection plane, between the different images of the series of images. The implementation of the position tracking algorithm is efficient because it is performed from the lists L out l L 0Ut N resulting from step 120. As previously indicated, these images have a signal to noise ratio high, which facilitates the implementation of the position tracking algorithm. The position tracking algorithm may be a “nearest neighbor” type algorithm. Step 130 allows a trajectory of each sperm to be determined parallel to the detection plane.
Sur la figure 5C, on a superposé des images de sortie Ioutil IOut,N en considérant une pile d'images de 30 images. On observe que la trajectoire, parallèlement au plan de détection, de chaque spermatozoïde, peut être déterminée de façon précise. In FIG. 5C, output images I tool I O ut,N have been superimposed by considering an image stack of 30 images. It is observed that the trajectory, parallel to the detection plane, of each spermatozoon can be determined precisely.
Etape 140 : caractérisation de la motilité Step 140: characterization of the motility
Au cours de l'étape 140, pour chaque spermatozoïde, chaque trajectoire peut être caractérisée sur la base de métriques appliquées aux trajectoires résultant de l'étape 130. Connaissant la fréquence d'acquisition des images, il est possible de quantifier des vitesses de déplacement de chaque spermatozoïde détecté, et en particulier : une vitesse de la trajectoire linéaire VSL , usuellement désignée par le terme « velocity straighline path », qui correspond à la vitesse calculée sur la base d'une distance, en ligne droite, entre les premier et dernier points de la trajectoire (le premier point est déterminé à partir de première image acquise de la série d'images, et le dernier point est déterminé à partir de la dernière image acquise de la série d'images)
une vitesse de la trajectoire curvilinéaire VCL, usuellement désignée par le terme « velocity curvilinear path » : il s'agit d'une vitesse établie en sommant les distances parcourues entre chaque image, et en divisant par la durée de la période d'acquisition ; une vitesse de la trajectoire moyenne VAP, usuellement désignée par le terme « velocity average path » : il s'agit d'une vitesse établie après lissage de la trajectoire d'une particule : la distance parcourue selon la trajectoire lissée (ou trajectoire moyenne) est divisée par la durée de la période d'acquisition. During step 140, for each spermatozoon, each trajectory can be characterized on the basis of metrics applied to the trajectories resulting from step 130. Knowing the frequency of acquisition of the images, it is possible to quantify displacement speeds of each spermatozoon detected, and in particular: a speed of the linear trajectory VSL , usually designated by the term "velocity straightline path", which corresponds to the speed calculated on the basis of a distance, in a straight line, between the first and last points of the trajectory (the first point is determined from the first acquired image of the series of images, and the last point is determined from the last acquired image of the series of images) a speed of the curvilinear path VCL, usually referred to by the term “velocity curvilinear path”: this is a speed established by summing the distances traveled between each image, and by dividing by the duration of the acquisition period; a speed of the average trajectory VAP, usually designated by the term “velocity average path”: this is a speed established after smoothing the trajectory of a particle: the distance traveled according to the smoothed trajectory (or average trajectory) is divided by the length of the vesting period.
A partir des vitesses calculées, il est possible de définir des indicateurs permettant de caractériser la motilité des spermatozoïdes, connus de l'homme du métier. Il s'agit par exemple d'indicateurs de type : indicateur de rectitude STR, obtenu par un ratio entre VSL et VAP, usuellement désigné par le terme « straightness ». Cet indicateur est d'autant plus élevé que le spermatozoïde se déplace en ligne droite ; indicateur de linéarité LIN, obtenu par un ratio entre VSL et VCL, usuellement désigné par le terme « linearity ». Cet indicateur est également d'autant plus élevé que le spermatozoïde se déplace en line droite. indicateur d'oscillation WOB, obtenu par un ratio VAP/VCL, usuellement désigné par le terme wobble. From the calculated velocities, it is possible to define indicators making it possible to characterize the motility of the spermatozoa, known to those skilled in the art. These are, for example, indicators of the type: straightness indicator STR, obtained by a ratio between VSL and VAP, usually designated by the term “straightness”. This indicator is all the higher as the sperm moves in a straight line; LIN linearity indicator, obtained by a ratio between VSL and VCL, usually designated by the term “linearity”. This indicator is also all the higher as the sperm moves in a straight line. WOB oscillation indicator, obtained by a VAP/VCL ratio, usually designated by the term wobble.
La quantification des vitesses ou paramètres listés ci-dessus permet de catégoriser les spermatozoïdes en fonction de leur motilité. Par exemple, un spermatozoïde est considéré comme : motile si la longueur de la trajectoire est supérieure à un premier seuil, par exemple 10 pixels, et que son déplacement le long de la trajectoire moyenne (VAPx At, At étant la période d'acquisition) est supérieure à une longueur prédéfinie, correspondant par exemple à la longueur d'une tête de spermatozoïde ; progressif si la longueur de la trajectoire est supérieure au premier seuil, et si la rectitude STR et la vitesse de la trajectoire moyenne VAP sont respectivement supérieures à deux valeurs seuils STRth et VAPthi ; lent si la longueur de la trajectoire est supérieure au premier seuil et si la vitesse de la trajectoire linéaire VSL et la vitesse de la trajectoire moyenne VAP sont respectivement inférieures à deux valeurs seuils VSLth2 et VAPth2 ;
statique si la longueur de la trajectoire est supérieure au premier seuil et si la vitesse de la trajectoire linéaire VSL et la vitesse de la trajectoire moyenne VAP sont respectivement inférieures à deux valeurs seuils VSLth3 et VAPth3- non catégorisé si la longueur de la trajectoire est inférieure au premier seuil. The quantification of the speeds or parameters listed above makes it possible to categorize the spermatozoa according to their motility. For example, a spermatozoon is considered to be: motile if the length of the trajectory is greater than a first threshold, for example 10 pixels, and its displacement along the average trajectory (VAPx At, At being the acquisition period) is greater than a predefined length, corresponding for example to the length of a sperm head; progressive if the length of the trajectory is greater than the first threshold, and if the straightness STR and the speed of the average trajectory VAP are respectively greater than two threshold values STRth and VAPthi; slow if the length of the trajectory is greater than the first threshold and if the speed of the linear trajectory VSL and the speed of the average trajectory VAP are respectively less than two threshold values VSL t h2 and VAP t h2; static if the length of the trajectory is greater than the first threshold and if the speed of the linear trajectory VSL and the speed of the average trajectory VAP are respectively lower than two threshold values VSL t h3 and VAP t h3- not categorized if the length of the trajectory is below the first threshold.
Les valeurs seuils STRth, VSLth2, VSLth3 sont préalablement déterminées, avec VSLth2^ VSLth3- Il en est de même des valeurs VAPthi, VAPth2 et VAPth3 avec VAPthi>VAPthi> VAPth3-The threshold values STR t h, VSL t h2, VSL t h3 are determined beforehand, with VSL t h2^ VSL t h3- The same applies to the values VAP t hi, VAP t h2 and VAP t h3 with VAP t hi> VAP t hi> VAP t h3-
Etape 150 : Extraction de vignettes pour chaque spermatozoïde. Step 150: Extract thumbnails for each sperm.
Au cours de cette image, on extrait, pour chaque spermatozoïde détecté par le réseau de détection CNNd, une vignette Vi n, et cela dans chaque image IO n acquise par le capteur d'image lors de l'étape 100. During this image, for each spermatozoon detected by the detection network CNNd, a thumbnail V in is extracted, and this in each image I O n acquired by the image sensor during step 100.
Chaque vignette Vi n est une portion d'une image IO n acquise par le capteur d'image. Pour chaque spermatozoïde détecté 10i, à partir de chaque image IO n, on extrait une vignette Vi n autour de la position
assignée au spermatozoïde. La position
du spermatozoïde 10j, dans chaque image IO n, est obtenue suite à la mise en œuvre de l'algorithme de suivi de position (étape 130). Each thumbnail V in is a portion of an image I O n acquired by the image sensor. For each detected spermatozoon 10i, from each image I O n , a vignette V in is extracted around the position assigned to the sperm. The position of the spermatozoon 10d, in each image I O n , is obtained following the implementation of the position tracking algorithm (step 130).
La taille de chaque vignette Vi n est prédéterminée. Relativement à chaque vignette Vi n, la position (%j, yj) du spermatozoïde 10j considéré est fixe : de préférence, la position (x^ y^) du spermatozoïde 10i est centrée dans chaque vignette Vi n. The size of each thumbnail V in is predetermined. Relative to each thumbnail V in , the position (%j, yj) of the spermatozoon 10j considered is fixed: preferably, the position (x^ y^) of the spermatozoon 10i is centered in each thumbnail V in .
Une vignette Vi n peut par exemple comporter quelques dizaines voire quelques centaines de pixels, typiquement entre 50 et 500 pixels. Dans cet exemple, une vignette comporte 64 x 64 pixels. Du fait de la taille, et de la concentration des spermatozoïdes dans l'échantillon, une vignette Vi n peut comporter plusieurs spermatozoïdes à caractériser. Cependant, seul le spermatozoïde 10j occupant une position prédéterminée dans la vignette Vi n, par exemple au centre de la vignette, est caractérisé en utilisant ladite vignette. A thumbnail V in may for example comprise a few tens or even a few hundreds of pixels, typically between 50 and 500 pixels. In this example, a thumbnail is 64 x 64 pixels. Due to the size and concentration of spermatozoa in the sample, a V in thumbnail may include several spermatozoa to be characterised. However, only the spermatozoon 10j occupying a predetermined position in the thumbnail V in , for example at the center of the thumbnail, is characterized using said thumbnail.
La figure 6 montre neuf vignettes Vi n extraites à partir d'images Ioutin résultant de l'étape 100, en utilisant les positions (%j, yj) résultant du suivi de trajectoire d'un spermatozoïde résultant de l'étape 130. Figure 6 shows nine V in thumbnails extracted from I outin images resulting from step 100, using the positions (%j, yj) resulting from trajectory tracking of a spermatozoon resulting from step 130.
Etape 160 Classification de la morphologie de chaque spermatozoïde Step 160 Classification of the morphology of each spermatozoon
Au cours de cette étape, on utilise un réseau de neurones de classification CNNc, de façon à classifier chaque spermatozoïde 10i préalablement détecté par le réseau de neurones convolutif
de détection CNNd. Pour chaque spermatozoïde 10i, le réseau de neurones est alimentée par les vignettes
... Vi N extraites lors de l'étape 150. During this step, a CNN c classification neural network is used, so as to classify each 10i spermatozoon previously detected by the convolutional neural network detection CNNd. For each 10i sperm, the neural network is fed with thumbnails ... V i N extracted during step 150.
Le réseau de neurones convolutif de classification CNNc peut par exemple comporter 6 couches convolutives, comportant entre 16 et 64 caractéristiques : 16 caractéristiques pour les quatre premières couches, 32 caractéristiques pour la cinquième couche, et 64 caractéristiques pour la sixième couche. Le passage d'une couche à une autre est effectué en appliquant un noyau de convolution de taille 3 par 3 La couche de sortie comporte des nœuds, chaque nœud correspondant à une probabilité d'appartenance à une classe morphologique. Chaque classe morphologique correspond à une morphologie du spermatozoïde analysé. Il peut par exemple s'agit d'une classification connue, les classes étant : The convolutional neural network of classification CNN c can for example comprise 6 convolutional layers, comprising between 16 and 64 characteristics: 16 characteristics for the first four layers, 32 characteristics for the fifth layer, and 64 characteristics for the sixth layer. The passage from one layer to another is carried out by applying a convolution kernel of size 3 by 3 The output layer comprises nodes, each node corresponding to a probability of belonging to a morphological class. Each morphological class corresponds to a morphology of the analyzed sperm. It can for example be a known classification, the classes being:
0 : indéfini 0: undefined
1 : normal 1: standard
2 : stump (moignon) 2: stump
3 : gouttelette distale 3: distal droplet
4 : décapité 4: decapitated
5 : microcéphale 5: microcephalus
6 : gouttelette proximale 6: proximal droplet
7 : DMR (Distal Midpiece reflex, usuellement désigné Courbure de l'extrémité distale de la pièce intermédiaire) 7: DMR (Distal Midpiece reflex, usually referred to as Curvature of the distal end of the intermediate piece)
8 : anomalie de la tête 8: head abnormality
9 : anomalie du flagelle : flagelle courbé ou enroulé 9: flagellum abnormality: curved or coiled flagellum
10 : agrégats. 10: aggregates.
La couche de sortie peut ainsi compter 11 classes. The output layer can thus have 11 classes.
Le réseau de neurones est programmé sous environnement Matlab (éditeur : The Mathworks). Le réseau de neurones a préalablement fait l'objet d'un apprentissage (étape 90), de façon à paramétrer les filtres de convolution. Au cours de l'apprentissage, on a utilisé des jeux d'apprentissage, chaque jeu comportant : des vignettes, extraites d'images acquises par le capteur d'image ; une annotation manuelle de la morphologie de chaque spermatozoïde analysé. L'annotation a été effectuée sur la base de vignettes ayant fait l'objet d'une reconstruction holographique. The neural network is programmed in a Matlab environment (publisher: The Mathworks). The neural network has previously been the subject of learning (step 90), so as to parameterize the convolution filters. During the learning, learning games were used, each game comprising: thumbnails, extracted from images acquired by the image sensor; a manual annotation of the morphology of each sperm analyzed. The annotation was carried out on the basis of thumbnails having been the subject of a holographic reconstruction.
Essais expérimentaux
Différents tests ont été effectués pour examiner les performances du réseau de neurones de détection CNNd. On a testé la sensibilité de la détection par rapport à l'application d'un filtre passe-haut au cours de l'étape 110. Les figures 7A, 7B et 7C représentent respectivement une image acquise par le capteur d'image, une image de référence, annotée manuellement, et une image résultant du réseau de neurones de détection. L'image 7C a été obtenue sans mise en œuvre du filtre durant l'étape 110. Experimental trials Different tests were performed to examine the performance of the CNNd detection neural network. The sensitivity of the detection has been tested with respect to the application of a high-pass filter during step 110. FIGS. 7A, 7B and 7C represent respectively an image acquired by the image sensor, an image reference, manually annotated, and an image resulting from the detection neural network. Image 7C was obtained without implementing the filter during step 110.
Les figures 8A, 8B et 8C représentent respectivement une image acquise par le capteur d'image, une image de référence, annotée manuellement, et une image résultant du réseau de neurones de détection. L'image 8C a été obtenue en mettant en œuvre d'un filtre passe haut durant l'étape 110. FIGS. 8A, 8B and 8C respectively represent an image acquired by the image sensor, a reference image, annotated manually, and an image resulting from the detection neural network. Image 8C was obtained by implementing a high pass filter during step 110.
On observe que l'image 8C comporte des spermatozoïdes détectés, repérés par des flèches, qui n'apparaissent pas sur l'image 7C. L'application du filtre améliore la performance de détection du réseau de neurones de classification. It is observed that image 8C includes detected spermatozoa, marked by arrows, which do not appear on image 7C. Applying the filter improves the detection performance of the classification neural network.
Les figures 9A et 9B représentent respectivement la sensibilité de détection et la spécificité de détection du réseau de neurones de détection CNNd (courbes a, b et c), en comparaison avec un algorithme classique (courbe d). L'algorithme classique était basé sur des opérations morphologiques de traitement d'image de type érosion/dilatation. FIGS. 9A and 9B respectively represent the detection sensitivity and the detection specificity of the CNNd detection neural network (curves a, b and c), in comparison with a conventional algorithm (curve d). The classical algorithm was based on morphological operations of erosion/dilation type image processing.
Sur chacune des figures 9A et 9B, les courbes a, b et c correspondent respectivement : au réseau de neurones entraîné avec 10000 annotations ; au réseau de neurones entraîné avec 20000 annotations ; au réseau de neurones entraîné avec 20000 annotations, chaque image acquise par le capteur ayant fait l'objet d'un filtrage passe-haut. In each of FIGS. 9A and 9B, curves a, b and c correspond respectively: to the neural network trained with 10,000 annotations; the trained neural network with 20,000 annotations; to the neural network trained with 20,000 annotations, each image acquired by the sensor having been subject to high-pass filtering.
La sensibilité et la spécificité (axes des ordonnées) ont été déterminées sur 14 échantillons différents (axe des abscisses) de sperme dilué de bovin (facteur 10). On observe que les performances du réseau de neurones, quel que soit la configuration (courbes a, b et c) sont supérieures à celle de l'algorithme classique, ce qui est remarquable. Par ailleurs, la meilleure performance est obtenue dans la configuration c, selon laquelle le réseau de neurones est entraîné avec 20000 annotations et est alimenté avec une image ayant fait l'objet d'un prétraitement avec un filtre passe-haut.
On rappelle que la sensibilité correspond au taux de vrais positifs sur la somme des taux de vrais positifs et de faux négatifs, et que la spécificité correspond au taux de vrais positifs sur la somme des taux de vrais et faux positifs. Sensitivity and specificity (ordinate axes) were determined on 14 different samples (abscissa axis) of diluted bovine semen (factor 10). It is observed that the performances of the neural network, whatever the configuration (curves a, b and c) are superior to that of the classical algorithm, which is remarkable. Furthermore, the best performance is obtained in configuration c, according to which the neural network is trained with 20,000 annotations and is fed with an image that has been preprocessed with a high-pass filter. It is recalled that the sensitivity corresponds to the rate of true positives over the sum of the rates of true positives and false negatives, and that the specificity corresponds to the rate of true positives over the sum of the rates of true and false positives.
La figure 10A est une matrice de confusion représentant les performances de classification d'un réseau de neurones de classification CNNc paramétré pour recevoir, en tant qu'imagé d'entrée, une image résultant d'une reconstruction holographique. Le réseau de neurones est un réseau de neurones convolutif, tel que précédemment décrit, entraîné à l'aide d'images acquises à l'aide d'un dispositif défocalisé, tel que précédemment décrit. En utilisant ce réseau de neurones, chaque image acquise fait l'objet d'une reconstruction holographique, dans un plan d'échantillon s'étendant à travers l'échantillon, en utilisant un algorithme de reconstruction holographique tel que décrit dans US20190101484. A partir de l'image reconstruite, on extrait une vignette centrée sur le spermatozoïde à caractériser. La vignette forme une image d'entrée du réseau de neurone. Figure 10A is a confusion matrix representing the classification performance of a CNN c classification neural network parameterized to receive, as an input image, an image resulting from a holographic reconstruction. The neural network is a convolutional neural network, as previously described, trained using images acquired using a defocused device, as previously described. Using this neural network, each acquired image undergoes a holographic reconstruction, in a sample plane extending through the sample, using a holographic reconstruction algorithm as described in US20190101484. From the reconstructed image, a thumbnail centered on the sperm to be characterized is extracted. The thumbnail forms an input image of the neural network.
La figure 10B est une matrice de confusion représentant les performances de classification d'un réseau de neurones de classification paramétré pour recevoir, en tant qu'imagé d'entrée, une seule vignette, centrée sur le spermatozoïde à caractériser, et extraite d'une image acquise selon une configuration défocalisée. Le réseau de neurones est un réseau de neurones convolutif, structuré comme décrit lors de l'étape 160, si ce n'est que le réseau de neurones est alimenté par une seule vignette. Figure 10B is a confusion matrix representing the classification performance of a classification neural network parameterized to receive, as an input image, a single thumbnail, centered on the spermatozoon to be characterized, and extracted from a image acquired in a defocused configuration. The neural network is a convolutional neural network, structured as described in step 160, except that the neural network is powered by a single tile.
La figure 10C est une matrice de confusion représentant les performances de classification d'un réseau de neurones de classification tel que décrit dans l'étape 160, alimenté par une série de 5 vignettes extraites d'images acquises en configuration défocalisée. Figure 10C is a confusion matrix representing the classification performance of a classification neural network as described in step 160, fed by a series of 5 vignettes extracted from images acquired in defocused configuration.
Les axes de chaque matrice de confusion correspondent aux classes 1 à 10 précédemment décrites. The axes of each confusion matrix correspond to classes 1 to 10 previously described.
On remarque que les performances de classification des algorithmes décrits en lien avec les figures 10B et 10C sont supérieures à celui décrit sur la figure 10A. Par exemple que s'agissant de la classe 6 (anomalie « gouttelette proximale »), la performance de classification passe de 31% (figure 10A), à 61% (figure 10B), et à 96,9% (figure 10C). It is noted that the classification performances of the algorithms described in connection with FIGS. 10B and 10C are superior to that described in FIG. 10A. For example, with regard to class 6 (“proximal droplet” anomaly), the classification performance goes from 31% (FIG. 10A), to 61% (FIG. 10B), and to 96.9% (FIG. 10C).
On remarque également qu'une seule image d'entrée permet d'obtenir une performance de classification satisfaisante. Aussi, pour la classification morphologique, il n'est pas nécessaire de
disposer d'une série d'images comportant plusieurs d'images. Une seule image peut suffire. Cependant, la performance de classification est meilleure lorsqu'on utilise plusieurs images.It is also noted that a single input image makes it possible to obtain a satisfactory classification performance. Also, for morphological classification, it is not necessary to have a series of images comprising several images. A single image may suffice. However, the classification performance is better when using multiple images.
L'invention permet une analyse d'un échantillon comportant des spermatozoïdes sans recourir à une platine de translation. Par ailleurs, elle permet une caractérisation directement à partir de l'image acquise par le capteur d'image, c'est-à-dire sur la base de figures de diffraction des différents spermatozoïdes, et cela sans nécessiter le recours à des algorithmes de reconstruction numérique. Actuellement, le recours à un tel algorithme se traduit par une durée de traitement de 10 secondes par image. Soit 300 secondes pour une série de 30 images. Par ailleurs, comme représenté sur les figures 10A à 10C, l'invention permet une classification plus précise qu'une classification basée sur un réseau de neurones de structure identique, alimenté par des images reconstruites. The invention allows an analysis of a sample comprising spermatozoa without resorting to a translation stage. Furthermore, it allows characterization directly from the image acquired by the image sensor, that is to say on the basis of diffraction figures of the different spermatozoa, and this without requiring the use of algorithms of digital reconstruction. Currently, the use of such an algorithm results in a processing time of 10 seconds per image. That is 300 seconds for a series of 30 images. Furthermore, as represented in FIGS. 10A to 10C, the invention allows a more precise classification than a classification based on a neural network of identical structure, fed by reconstructed images.
Un autre avantage de l'invention est la tolérance à l'égard d'une défocalisation. Les inventeurs estiment que l'invention tolère des décalages de ± 25 pm entre le système optique et l'échantillon.
Another advantage of the invention is the tolerance of defocusing. The inventors estimate that the invention tolerates shifts of ±25 μm between the optical system and the sample.
Claims
23 23
REVENDICATIONS . Procédé de caractérisation d'au moins une particule mobile (10j) dans un échantillon (10), le procédé comportant: a) acquisition d'au moins une image (IO n) de l'échantillon durant une période d'acquisition, à l'aide d'un capteur d'image (20) et formation d'une série d'images, la série d'images comportant au moins une image, chaque image de l'échantillon étant acquise selon une modalité d'imagerie défocalisée ou selon une modalité d'imagerie sans lentille, de façon que chaque particule forme, sur chaque image, une figure de diffraction ; b) utilisation de chaque image de la série d'images résultant de a) en tant qu'imagé d'entrée ( n,n) d'un réseau de neurones convolutif de détection (CNNd), le réseau de neurones convolutif de détection étant configuré pour détecter les particules et pour produire, à partir de chaque image, une image de sortie (Iout,n) sur laquelle à chaque particule détectée est assignée une distribution d'intensité, centrée sur la particule et s'étendant autour de la particule ; c) pour chaque particule détectée, à partir de chaque image de sortie (/out n) résultant de b), estimation d'une position
de chaque particule détectée dans chaque image de la série d'images ; d) caractérisation de chaque particule détectée à partir de l'estimation de la position résultant de c), établie à partir de chaque image de la série d'images. . Procédé selon la revendication 1, dans lequel la particule est un spermatozoïde. . Procédé selon la revendication 2, dans lequel l'étape d) comporte une caractérisation morphologique de chaque spermatozoïde détecté, l'étape d) comportant : pour chaque du spermatozoïde détecté, à partir de chaque image résultant de a), et des positions résultant de c), extraction d'une vignette ( j n) comportant le spermatozoïde détecté, la position du spermatozoïde détecté dans la vignette étant prédéterminée, de façon à obtenir, pour spermatozoïde détecté, une série de vignettes, la taille de chaque vignette étant inférieure à la taille de chaque image acquise lors de l'étape a) ; CLAIMS. Method for characterizing at least one mobile particle (10j) in a sample (10), the method comprising: a) acquisition of at least one image (I O n ) of the sample during an acquisition period, at using an image sensor (20) and forming a series of images, the series of images comprising at least one image, each image of the sample being acquired according to a defocused imaging modality or according to a lensless imaging modality, so that each particle forms, on each image, a diffraction figure; b) using each image of the series of images resulting from a) as the input image (n,n) of a detection convolutional neural network (CNNd), the detection convolutional neural network being configured to detect the particles and to produce, from each image, an output image (I or t, n ) on which each detected particle is assigned an intensity distribution, centered on the particle and extending around the particle; c) for each detected particle, from each output image (/ out n ) resulting from b), estimation of a position of each particle detected in each image of the series of images; d) characterization of each particle detected from the estimation of the position resulting from c), established from each image of the series of images. . A method according to claim 1, wherein the particle is a spermatozoon. . Method according to claim 2, in which step d) comprises a morphological characterization of each spermatozoon detected, step d) comprising: for each of the spermatozoon detected, from each image resulting from a), and positions resulting from c), extraction of a thumbnail ( j n ) comprising the detected spermatozoon, the position of the detected spermatozoon in the thumbnail being predetermined, so as to obtain, for detected spermatozoon, a series of thumbnails, the size of each thumbnail being less than the size of each image acquired during step a);
- pour chaque spermatozoïde détecté, utilisation de la série de vignettes en tant que donnée d'entrée d'un réseau de neurones de classification (CNNc), le réseau de neurones
de classification étant configuré pour classifier le spermatozoïde parmi des classes morphologiques prédéterminées. - for each sperm detected, use of the series of thumbnails as input data for a classification neural network (CNN c ), the neural network classification being configured to classify the spermatozoon among predetermined morphological classes.
4. Procédé selon la revendication 3, dans lequel chaque spermatozoïde détecté est centré par rapport à chaque vignette. 4. Method according to claim 3, in which each detected spermatozoon is centered with respect to each thumbnail.
5. Procédé selon la revendication 3 ou la revendication 4, dans lequel l'étape d) comporte une caractérisation de la motilité du spermatozoïde, l'étape d) comportant, à partir des positions du spermatozoïde résultant de l'étape c) : 5. Method according to claim 3 or claim 4, in which step d) comprises a characterization of the motility of the spermatozoon, step d) comprising, from the positions of the spermatozoon resulting from step c):
- une détermination d'une trajectoire du spermatozoïde durant la période d'acquisition;- a determination of a trajectory of the spermatozoon during the acquisition period;
- un calcul d'une vitesse du spermatozoïde à partir de la trajectoire ; - a calculation of a speed of the spermatozoon from the trajectory;
- une classification du spermatozoïde en fonction de la vitesse. - a classification of the spermatozoon according to the speed.
6. Procédé selon la revendication 5, comportant : 6. Method according to claim 5, comprising:
- une détermination d'une distance, en ligne droite, entre un premier point et un dernier point de la trajectoire, et un calcul d'une vitesse de trajectoire linéaire à partir de ladite distance ; - a determination of a distance, in a straight line, between a first point and a last point of the trajectory, and a calculation of a linear trajectory speed from said distance;
- et/ou une détermination de distances parcourues entre chaque image acquise, et un calcul d'une vitesse de la trajectoire curvilinéaire à partir desdites distances ; - And/or a determination of distances traveled between each acquired image, and a calculation of a speed of the curvilinear trajectory from said distances;
- et/ou une détermination d'une trajectoire lissée, et un calcul d'une vitesse de la trajectoire moyenne à partir de la trajectoire lissée. - And/or a determination of a smoothed trajectory, and a calculation of a speed of the average trajectory from the smoothed trajectory.
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel : 7. Method according to any one of the preceding claims, in which:
- l'échantillon s'étend selon un plan de l'échantillon (Pio); - the sample extends along a plane of the sample (Pio);
- le capteur d'image s'étend selon un plan de détection (P20); - the image sensor extends along a detection plane (P20);
- un système optique (15) s'étend entre l'échantillon et le capteur d'image, le système optique définissant un plan objet (Po) et un plan image (Pi); - an optical system (15) extends between the sample and the image sensor, the optical system defining an object plane (P o ) and an image plane (Pi);
- le plan objet est décalé par rapport au plan de l'échantillon d'une distance de défocalisation objet et/ou le plan image est décalé par rapport au plan de l'échantillon d'une distance de défocalisation image, de façon que lors de l'étape a), chaque image de l'échantillon est acquise selon une modalité d'imagerie défocalisée. - the object plane is offset from the sample plane by an object defocus distance and/or the image plane is offset from the sample plane by an image defocus distance, so that when step a), each image of the sample is acquired according to a defocused imaging modality.
8. Procédé selon la revendication 7, dans lequel : l'échantillon est disposé sur un support d'échantillon (10s), reposant sur au moins un ressort (16a), le ressort étant configuré pour pousser le support d'échantillon vers le système optique ;
- le système optique est relié à au moins une butée (16b), s'étendant, à partir du système optique, vers le support d'échantillon ; 8. Method according to claim 7, in which: the sample is placed on a sample holder (10s), resting on at least one spring (16a), the spring being configured to push the sample holder towards the system optical; - the optical system is connected to at least one abutment (16b), extending, from the optical system, towards the sample holder;
- de telle sorte que durant l'étape a), sous l'effet du ressort, le support d'échantillon s'appuie sur la butée. - so that during step a), under the effect of the spring, the sample support rests on the stop.
9. Procédé selon l'une quelconque des revendications 1 à 6, dans lequel aucune optique de formation d'image ne s'étend entre l'échantillon et le capteur d'image, de façon que lors de l'étape a), chaque image de l'échantillon est acquise selon une modalité d'imagerie sans lentille. 9. Method according to any one of claims 1 to 6, in which no imaging optics extend between the sample and the image sensor, so that during step a), each Sample image is acquired using a lensless imaging modality.
10. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape a) comporte une normalisation de chaque image acquise par une moyenne de ladite image ou par une moyenne d'images de la série d'images. 10. Method according to any one of the preceding claims, in which step a) comprises a normalization of each image acquired by an average of said image or by an average of images of the series of images.
11. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape a) comporte une application d'un filtre passe-haut à chaque image acquise. 11. Method according to any one of the preceding claims, in which step a) comprises an application of a high-pass filter to each acquired image.
12. Procédé selon l'une quelconque des revendications précédentes, dans lequel lors de l'étape b), la distribution d'intensité assignée à chaque particule est décroissante, de telle sorte que l'intensité décroît en fonction de la distance par rapport à la particule. 12. Method according to any one of the preceding claims, in which during step b), the intensity distribution assigned to each particle is decreasing, such that the intensity decreases as a function of the distance with respect to the particle.
13. Procédé selon l'une quelconque des revendications précédentes, dans lequel lors de l'étape b), la distribution d'intensité assignée à chaque particule est une distribution statistique paramétrique bidimensionnelle. 13. Method according to any one of the preceding claims, in which during step b), the intensity distribution assigned to each particle is a two-dimensional parametric statistical distribution.
14. Dispositif (1, l') d'observation d'un échantillon, l'échantillon comportant des particules mobiles, le dispositif comportant : 14. Device (1, the) for observing a sample, the sample comprising mobile particles, the device comprising:
- une source de lumière (11), configurée pour illuminer l'échantillon ; - a light source (11), configured to illuminate the sample;
- un capteur d'image (20), configuré pour former une image de l'échantillon ; - an image sensor (20), configured to form an image of the sample;
- une structure de maintien (16, 17), configurée pour maintenir l'échantillon entre la source de lumière et le capteur d'image ; - a holding structure (16, 17), configured to hold the sample between the light source and the image sensor;
- une unité de traitement (30), reliée au capteur d'image, et configurée pour mettre en œuvre les étapes a) à d) d'un procédé selon l'une quelconque des revendications 1 à 13 à partir d'au moins une image acquise par le capteur d'image.
26 - a processing unit (30), connected to the image sensor, and configured to implement steps a) to d) of a method according to any one of claims 1 to 13 from at least one image acquired by the image sensor. 26
15. Dispositif selon la revendication 14, dans lequel aucune optique de formation d'image ne s'étend entre le capteur d'image et l'échantillon. 15. Device according to claim 14, in which no imaging optics extend between the image sensor and the sample.
16. Dispositif selon la revendication 15, dans lequel la structure de maintien (17) est configurée pour maintenir une distance fixe entre le capteur d'image et l'échantillon. 16. Device according to claim 15, in which the holding structure (17) is configured to maintain a fixed distance between the image sensor and the sample.
17. Dispositif selon la revendication 14, dans lequel : 17. Device according to claim 14, in which:
- le capteur d'image s'étend selon un plan de détection ; le dispositif comporte un système optique (15), s'étendant entre le capteur d'image et le plan support, le système optique définissant un plan image et un plan objet, le dispositif étant tel que : - the image sensor extends along a detection plane; the device comprises an optical system (15), extending between the image sensor and the support plane, the optical system defining an image plane and an object plane, the device being such that:
• le plan image est décalé par rapport au plan de détection d'une distance de défocalisation image ; • the image plane is offset from the detection plane by an image defocusing distance;
• et/ou le plan support et décalé par rapport au plan objet d'une distance de défocalisation objet . • and/or the support plane and offset with respect to the object plane by an object defocus distance.
18. Dispositif selon la revendication 17, dans lequel : 18. Device according to claim 17, in which:
- la structure de maintien (16) comporte un support d'échantillon (10s), monté sur un ressort (16a); - the holding structure (16) comprises a sample support (10s), mounted on a spring ( 16a );
- le système optique (15) est relié mécaniquement à au moins une butée (16b) ; - the optical system (15) is mechanically connected to at least one stop (16b);
- le ressort est agencé de façon que le support d'échantillon s'appuie contre la butée, de façon à maîtriser une distance entre le système optique et l'échantillon.
- the spring is arranged so that the sample support rests against the abutment, so as to control a distance between the optical system and the sample.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2013979A FR3118169A1 (en) | 2020-12-22 | 2020-12-22 | Sperm characterization method |
PCT/EP2021/086909 WO2022136325A1 (en) | 2020-12-22 | 2021-12-20 | Method for characterising sperm cells |
Publications (1)
Publication Number | Publication Date |
---|---|
EP4268120A1 true EP4268120A1 (en) | 2023-11-01 |
Family
ID=74592263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP21839575.4A Pending EP4268120A1 (en) | 2020-12-22 | 2021-12-20 | Method for characterising sperm cells |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240044771A1 (en) |
EP (1) | EP4268120A1 (en) |
FR (1) | FR3118169A1 (en) |
WO (1) | WO2022136325A1 (en) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8842901B2 (en) | 2010-12-14 | 2014-09-23 | The Regents Of The University Of California | Compact automated semen analysis platform using lens-free on-chip microscopy |
US9588037B2 (en) | 2012-07-13 | 2017-03-07 | The Regents Of The University Of California | High throughput lens-free three-dimensional tracking of sperm |
FR3028951B1 (en) | 2014-11-21 | 2017-01-06 | Commissariat Energie Atomique | LENS-FREE IMAGING SYSTEM COMPRISING DIODE, DIAPHRAGM AND DIFFUSER BETWEEN DIODE AND DIAPHRAGM |
FR3030749B1 (en) * | 2014-12-19 | 2020-01-03 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | METHOD OF IDENTIFYING BIOLOGICAL PARTICLES BY STACKS OF DEFOCALIZED HOLOGRAPHIC IMAGES |
FR3034197B1 (en) * | 2015-03-24 | 2020-05-01 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | METHOD FOR DETERMINING THE STATE OF A CELL |
FR3034196B1 (en) | 2015-03-24 | 2019-05-31 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | PARTICLE ANALYSIS METHOD |
FR3036800B1 (en) | 2015-05-28 | 2020-02-28 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | METHOD OF OBSERVING A SAMPLE |
FR3049347B1 (en) | 2016-03-23 | 2018-04-27 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | METHOD FOR OBSERVING A SAMPLE BY CALCULATING A COMPLEX IMAGE |
FR3075372B1 (en) | 2017-12-18 | 2020-08-28 | Commissariat Energie Atomique | DEVICE AND METHOD FOR OBSERVING A SAMPLE WITH A CHROMATIC OPTICAL SYSTEM |
US10094759B1 (en) * | 2017-12-22 | 2018-10-09 | Hillel Llc | Imaging device for measuring sperm motility |
FR3081552B1 (en) * | 2018-05-23 | 2020-05-29 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | DEVICE AND METHOD FOR OBSERVING A FLUORESCENT SAMPLE BY DEFOCALIZED IMAGING |
FR3087538B1 (en) | 2018-10-17 | 2020-10-09 | Commissariat Energie Atomique | SAMPLE OBSERVATION PROCESS |
-
2020
- 2020-12-22 FR FR2013979A patent/FR3118169A1/en active Pending
-
2021
- 2021-12-20 US US18/258,726 patent/US20240044771A1/en active Pending
- 2021-12-20 EP EP21839575.4A patent/EP4268120A1/en active Pending
- 2021-12-20 WO PCT/EP2021/086909 patent/WO2022136325A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20240044771A1 (en) | 2024-02-08 |
WO2022136325A1 (en) | 2022-06-30 |
FR3118169A1 (en) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3274689B1 (en) | Method and apparatsu for analysing particles | |
EP3433679B1 (en) | Method for observing a sample, by calculation of a complex image | |
EP3274694B1 (en) | Method for determining the state of a cell | |
WO2017178723A1 (en) | Holographic method for characterising a particle in a sample | |
WO2015071116A1 (en) | Three-dimensional focusing device and method for a microscope | |
EP3637194B1 (en) | Method for determining parameters of a particle | |
EP3199941A1 (en) | Method for observing a sample by lens-free imaging | |
WO2015166009A1 (en) | Method and system for detecting at least one particle in a bodily fluid, and associated method for diagnosing meningitis | |
FR3082944A1 (en) | METHOD FOR OBSERVING A SAMPLE WITH LENS-FREE IMAGING, TAKING INTO ACCOUNT A SPATIAL DISPERSION IN THE SAMPLE | |
EP3640743A1 (en) | Method for observing a sample | |
EP3397944B1 (en) | Device and method for bimodal observation of an object | |
FR3056749A1 (en) | METHOD FOR NUMBERING LEUKOCYTES IN A SAMPLE | |
EP3754431B1 (en) | Method for holographic reconstruction | |
EP4268120A1 (en) | Method for characterising sperm cells | |
EP3371574B1 (en) | Device and method for observing an object by lensless imaging | |
FR3075960A1 (en) | DEVICE FOR MEASURING RETRACTABLE RADIATION BY SAMPLE AND MEASURING METHOD USING SUCH A DEVICE. | |
EP3903098B1 (en) | Method for characterising a sample by phase imaging | |
EP4260116A1 (en) | Confocal microscope with photon re-allocation | |
EP4232946A1 (en) | Method for classifying a sequence of input images representing a particle in a sample over time | |
WO2019243725A1 (en) | Method and device for counting thrombocytes in a sample | |
FR3090107A1 (en) | Method for characterizing a particle from a hologram. | |
FR3073047A1 (en) | OPTICAL METHOD FOR ESTIMATING A REPRESENTATIVE VOLUME OF PARTICLES PRESENT IN A SAMPLE | |
EP3575774B1 (en) | Method for observing particles, in particular submicron particles | |
EP4020093A1 (en) | Method for forming a complex image of a sample | |
EP4394730A1 (en) | Method for processing an image of a sample comprising biological particles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: UNKNOWN |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE |
|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE |
|
17P | Request for examination filed |
Effective date: 20230615 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
DAV | Request for validation of the european patent (deleted) | ||
DAX | Request for extension of the european patent (deleted) |