WO2024110407A1 - Method for automatically segmenting an organ on a three-dimensional medical image - Google Patents
Method for automatically segmenting an organ on a three-dimensional medical image Download PDFInfo
- Publication number
- WO2024110407A1 WO2024110407A1 PCT/EP2023/082439 EP2023082439W WO2024110407A1 WO 2024110407 A1 WO2024110407 A1 WO 2024110407A1 EP 2023082439 W EP2023082439 W EP 2023082439W WO 2024110407 A1 WO2024110407 A1 WO 2024110407A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- organ
- probability
- model
- probability map
- Prior art date
Links
- 210000000056 organ Anatomy 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000011218 segmentation Effects 0.000 claims abstract description 71
- 238000013473 artificial intelligence Methods 0.000 claims description 20
- 230000005489 elastic deformation Effects 0.000 claims description 18
- 238000002604 ultrasonography Methods 0.000 claims description 18
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 17
- 238000005516 engineering process Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000009434 installation Methods 0.000 claims description 4
- 238000013179 statistical model Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims 1
- 210000002307 prostate Anatomy 0.000 description 45
- 238000001914 filtration Methods 0.000 description 21
- 238000004422 calculation algorithm Methods 0.000 description 15
- 230000009466 transformation Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000002595 magnetic resonance imaging Methods 0.000 description 7
- 239000013256 coordination polymer Substances 0.000 description 5
- 230000000717 retained effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013213 extrapolation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7553—Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30081—Prostate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Definitions
- the present invention relates to the field of medical imaging for purposes for example of diagnosis, such as disease screening, for purposes for example of treatment, such as as the guidance of surgical instruments, etc.
- the invention relates more particularly to the segmentation of organs on three-dimensional medical images, that is to say the determination of the contour of the organ in such an image.
- Image segmentation algorithms are known that exploit image properties such as intensity discontinuities in the image (Edge-Based Segmentation method based on gradients) or similarities between images. image elements (pixels for two-dimensional images, voxels for three-dimensional images; Region-Based Segmentation method). However, these algorithms are rarely effective on the entire contour of the organ present in the image.
- the invention aims in particular to improve the segmentation of medical images.
- a method of segmenting a three-dimensional image of at least one organ of a patient comprising at least the steps of: - extracting from the three-dimensional image of said organ, a probability map which assigns to each voxel of the image a probability of belonging to a contour of the organ on the image; - extract from said probability map, at least one target point based on said probability of belonging to the contour of the organ on the image, each target point being extracted from the probability map by applying to the probability map has at least one probability threshold of belonging to the outline of the organ on the image; - from each target point extracted in the previous step, deform a deformable model of this organ to obtain the three-dimensional segmentation of said organ on the image.
- the model is said to be deformable in that it can be applied to an image and deformed from at least one target point to correspond at all points to the contour of the organ sought in the image.
- the target points whose belonging to the contour is most probable are considered to be exact and the definition of the contour is completed using the anatomical data of the deformable model.
- the probability map is not only defined by two unique values, one of which would represent belonging to the contour of the organ and the other would represent the absence of belonging to the contour of the organ. Usually, more than a single target point is extracted from the probability map. Usually, a cloud of target points is thus extracted from the probability map.
- the threshold makes it possible to exclude all the voxels from the image for which the probability of belonging to the contour of the organ is too low.
- the probability map is extracted using a model distinct from the deformable model.
- the distinct model is defined by an at least partly automatic segmentation method.
- this distinct model is defined by at least one artificial intelligence (or a neural network) trained from segmented images of the organ of at least other people.
- the at least one threshold is global.
- at least one threshold is local.
- the at least one threshold has a value independent of the organ and/or the patient and/or the three-dimensional image and/or the probability map.
- the at least one threshold has a value depending on the organ and/or the patient and/or the three-dimensional image and/or the probability map.
- at least one threshold is dynamic.
- the at least one dynamic threshold is a local threshold making it possible to select only local probability maxima from the probability map.
- the value of at least one threshold can be modulated manually.
- the probability map is extracted via a model distinct from the deformable model, and in which the value of said at least one threshold can be modulated automatically if at least one characteristic of the three-dimensional image considered differs from those images from which the separate model was designed.
- the deformable model is a statistical model of the shape of the organ to be segmented.
- a statistical shape model is a model which, as its name suggests, is defined from different shapes of the organ considered according to the frequency of these shapes in the population.
- the deformable model has an initial shape defined from the average of the shapes of the same organ considered but of patients other than the targeted patient.
- the initial shape of the deformable model is determined by an imaging technology other than ultrasound.
- the deformable model has an initial shape combined with a segmentation of the same organ considered of this same patient, segmentation obtained from an image acquired prior to an acquisition of the image currently being segmented.
- the segmentation obtained during a previous examination is determined by an imaging technology other than ultrasound.
- at least one target point can be added manually to said at least one target point extracted from the probability map.
- the process is interrupted.
- the probability map is abandoned and the deformable model is deformed from manually added target points.
- the deformable model is first pre-deformed.
- the deformable model is pre-deformed by being globally pre-aligned with the target points.
- the deformable model is deformed based on only part of the target points used in the pre-deformation step.
- the deformation of the deformable model is carried out by an iterative approach.
- each target point is paired with the closest point of the deformable model.
- the deformed model is first deformed globally via an affine transformation (and/or scaled) then deformed locally.
- the de- Formation of the deformable model is carried out iteratively by alternating at least one scaling phase with an elastic deformation phase.
- an elastic deformation field resulting from the elastic deformation is decomposed into an affine component and a non-residual deformation.
- the affine component being used for the global deformation during the following iteration.
- the iterations are stopped when the distances between the target points and corresponding points of the deformable model are less than a predetermined threshold.
- the quality of the segmentation obtained is estimated by evaluating a spatial correlation between the probability map and said segmentation.
- the invention also relates to an installation comprising at least one image-taking device and means for segmenting at least one image acquired by said device according to the method as mentioned above.
- the invention also relates to a computer program comprising instructions which cause an installation as mentioned above to execute the method as mentioned above.
- the invention also relates to a computer-readable recording medium, on which the computer program as mentioned above is recorded.
- Figure 1 is a flowchart of a first mode of implementation of the method of the invention
- Figure 2 is a flowchart of a second mode of implementation of the method of the invention
- Figure 3 is a view of an ultrasound image of a prostate, on which target points are searched for
- Figure 4 is a view of the same ultrasound image on which target points have been selected
- Figure 5 is a view of the same ultrasound image on which a contour has been drawn
- Figure 6 is a schematic view of an ultrasound device for implementing the method of the invention. DETAILED DESCRIPTION OF THE INVENTION The invention is described here in application to the segmentation of an ultrasound image of a patient's prostate.
- the invention is however applicable to the image of any organ and/or any patient (animal or human) and/or to any technology for image acquisition of such an organ.
- the invention is a method for segmenting a three-dimensional image.
- the images represented are two-dimensional images.
- the segmentation process is based on an Anatomical Model ⁇ and an Artificial Intelligence Model ⁇ .
- the Anatomical Model ⁇ is developed from at least one image bank ⁇ ⁇ including ⁇ images of the prostate.
- the ⁇ images are optionally images acquired with a technology different from that used for the acquisition of images which must subsequently be segmented and for example by MRI technology. Each image ⁇ is then segmented.
- the segmentation is for example carried out manually during human segmentation ⁇ ⁇ .
- this segmentation is carried out by a practitioner or another qualified person.
- these segmentations are then processed by computer (C) to calculate an average of said segmentations (denoted average form ⁇ subsequently) and deduce the Anatomical Model ⁇ .
- the Anatomical Model ⁇ is a statistical model of deformable shape which is thus obtained by a statistical study of an average shape of the prostate and its variations. Note that the design of an anatomical model is known in itself and will not be further described here.
- the Artificial Intelligence Model ⁇ is developed from at least one image bank ⁇ ⁇ comprising K images of the prostate.
- the image bank ⁇ ⁇ is optionally different from the image bank ⁇ ⁇ used to create the Anatomical Model ⁇ .
- Each image ⁇ is then segmented.
- the segmentation is for example carried out manually during human segmentation ⁇ ⁇ .
- this segmentation is carried out by a practitioner or another qualified person.
- the development of the Artificial Intelligence Model ⁇ is carried out from segmented images whose imaging modality corresponds to that of the images that we wishes to segment subsequently.
- the ⁇ images here are images captured with the same technology as that used for the acquisition of the images which must be segmented subsequently, here ultrasound.
- the artificial intelligence model can be obtained via automatic learning (or “machine learning” in English) and for example can be obtained via a network of neurons and for example through deep learning.
- the probability of membership has a value V which is between two limits of a closed interval (for example between 0 and 1 or between 0 and 100).
- the probability map ⁇ thus turns out to be precise because it is not only defined by binary values 0 or 1 but by a range of values V all included between two limits of a closed interval.
- This probability map ⁇ can optionally be presented to an operator.
- the probability of membership can be symbolized by a color code to simplify the understanding of the operator. For example, the greater the probability of belonging to the prostate, the warmer and closer its color is, and the lower the probability of belonging to the prostate, the colder the color.
- a zero probability of belonging to the prostate is thus symbolized by giving the associated voxel the color black and a certain probability of belonging to the prostate is thus symbolized by giving the associated voxel the color red.
- certain voxels of the probability map ⁇ can have a zero probability of belonging to the prostate (in particular the voxels internal to the prostate, it being recalled here that all the voxels of the image ⁇ are concerned by the first segmentation step), this can lead to the fact that the probability map ⁇ may not present fully closed contours.
- the computer system After having defined a global threshold ⁇ of probability of belonging (this global threshold ⁇ being predefined), corresponding to an acceptable probability of belonging, the computer system executes an algorithm for filtering the voxels of the probability map to select, during a selection operation ⁇ , ⁇ target points each corresponding to a voxel of position ⁇ , ⁇ , ⁇ having a probability ⁇ ( ⁇ , ⁇ , ⁇ ) greater than the global threshold ⁇ .
- the threshold ⁇ is said to be global because it applies in the same way and with the same value for all voxels.
- the threshold ⁇ is fixed, unlike a dynamic threshold whose value would be adapted to the probability map CP and/or to the image considered IP.
- This threshold ⁇ thus makes it possible to exclude all voxels for which the probability of belonging to the contour is too low. Consequently, the value of the threshold ⁇ is set for the intended application and the Artificial Intelligence Model ⁇ used at an optimized value. Preferably, we will modify the value of the threshold ⁇ according to the intended application and the Artificial Intelligence Model ⁇ used in order to set it at a new optimized value.
- the value of the threshold ⁇ may in particular be determined by a compromise between the desired precision and sensitivity of the model, established via the analysis of sensitivity-precision curves or ROC curves.
- the selection operation ⁇ is thus a filtering operation on the probability map ⁇ .
- the Anatomical Model ⁇ draws one or more continuous surfaces between neighboring target points (by interpolating and/or connecting them) and completes said surfaces to draw a closed contour of the prostate by through the anatomical information it contains.
- the Anatomical Model ⁇ only deforms from the target points.
- the Anatomical Model ⁇ thus makes it possible to close the partial contour(s) which were defined by the cloud of target points.
- the deformation operation ⁇ can therefore be seen as a step of transformation of the Anatomical Model ⁇ on the cloud of target points previously established.
- the deformation of the Anatomical Model ⁇ can be carried out in a single phase or several phases. For example, the deformation of the Anatomical Model ⁇ can be carried out by iteration.
- each target point is paired with the closest point of the Anatomical Model ⁇
- the Anatomical Model ⁇ is scaled (by scaling we mean that the Anatomical Model ⁇ is as a whole enlarged or shrunk to better correspond to the target points – this scaling being particularly interesting for a patient whose organ in question is of much larger or much smaller dimensions than the average and therefore for which the organ considered is of much greater or much less important dimensions than the Anatomical Model ⁇ ) and globally deformed via an affine transformation based on the distance between each target point considered and the point of the Anatomical Model ⁇ which is paired with it (for example the transformation is determined so as to minimize the sum of said distances and/or for example the transformation is calculated with the Arun algorithm), - then the Anatomical Model ⁇ ⁇ is elastically deformed, under the action of external forces deforming the Anatomical Model ⁇ towards the target points and internal forces ensuring the regularity of the surface of the Anatomical Model ⁇ (an
- the iterations i are stopped when the distances between the target points and the corresponding paired points of the Anatomical Model ⁇ are, for all the target points, less than a predetermined threshold.
- This successively affine then elastic iterative approach allows the elastic deformations to progressively correct the errors of the previous affine transformation, and vice versa. We thus carry out an extrapolation of the contour from the Anatomical Model ⁇ .
- This iterative approach is particularly interesting in places where the Anatomical Model ⁇ is very far from a target point or a group of target points and/or in places where there are few target points .
- the deformation operation ⁇ takes into account at least one mesh consistency constraint when of the deformation of the Anatomical Model ⁇ : prevent the creation of a fold in the mesh, apply an elastic deformation or fluid mechanics constraint optionally according to a biomechanical model of the organ during the propagation of the deformation, ...
- an affine transformation at each iteration i and via Arun's algorithm, during the elastic deformation of the Anatomical Model ⁇ , we extract an affine transformation.
- the elastic deformation field used during elastic deformation is decomposed using the Arun algorithm into an affine component and a non-linear residual deformation. It is then possible to use this affine component to scale said model during the following iteration i+1.
- At least one of the internal forces is defined from at least one statistical study on the shape of the prostate (study identical or different from that which allowed the creation of the Anatomical Model ⁇ ).
- An internal force thus makes it possible to further limit the risk of obtaining an anatomically improbable segmentation ⁇ ⁇ .
- FIG. 6 An example of a device usable for examining a patient within the framework of the method of the invention.
- This is an ultrasound device 10 comprising a housing 11 enclosing a computer system 12 connected to an ultrasound probe 13, a screen 14 and a computer network R.
- the computer system 12 is a computer which comprises at least one processor and memory.
- the memory here comprises the models ⁇ and ⁇ and a computer program having instructions arranged to implement the method of the invention.
- the computer program has instructions arranged to implement the neural network itself implementing the artificial intelligence model ⁇ .
- the ultrasound probe 13 allows the acquisition of images ⁇ which will be processed by the computer system 12 and displayed on the screen 14.
- the network R is used for connection to a server containing for example reports, images of examinations of patients for which the practitioner or the organization within which he practices is responsible.
- Second implementation In the second mode of implementation shown in Figure 2, we have the Artificial Intelligence Model ⁇ and of the Anatomical Model ⁇ . We also have an old segmentation ⁇ ⁇ ⁇ of the patient's prostate which is currently being examined (by old, we mean that it was carried out during a previous examination). During a combination operation ⁇ , the Anatomical Model ⁇ is combined with the old segmentation ⁇ ⁇ ⁇ , for example by replacing the average form ⁇ contained in the ⁇ by this segment. tation ⁇ ⁇ ⁇ .
- the probability map ⁇ is thus a three-dimensional image.
- the probability of membership has a value V which is between two limits of an interval, the two limits being included (for example between 0 and 1 or between 0 and 100).
- the probability map ⁇ thus turns out to be precise because it is not only defined by binary values 0 or 1 but by a range of values V all included between two limits of an interval, both limits being included.
- This probability map ⁇ can optionally be presented to an operator.
- the probability membership can be symbolized by a color code to simplify the understanding of the operator.
- a zero probability of belonging to the prostate is thus symbolized by giving the associated voxel the color black and a certain probability of belonging to the prostate is thus symbolized by giving the associated voxel the color red.
- the computer system executes an algorithm for filtering the voxels of the probability map to select, during a selection operation ⁇ ′, ⁇ target points for which a high degree of certainty of belonging to the contour has been assigned ( ie the probability ⁇ ( ⁇ , ⁇ , ⁇ ) is high).
- the computer system executes an algorithm for filtering the voxels of the probability map to select, during a selection operation ⁇ , ⁇ target points each corresponding to a voxel of position ⁇ , ⁇ , ⁇ having a higher probability ⁇ ( ⁇ , ⁇ , ⁇ ) at the fixed global threshold ⁇ .
- the filtering algorithm preferably performs a second filtering of the filtered voxels, with a second threshold different from the first.
- the second filtering is also applicable to the first implementation, so the following is indeed applicable to the first implementation.
- the second threshold is a dynamic threshold, ie a threshold specific to the image considered.
- the second threshold is optionally local, that is to say it is applied to only part of the CP probability map considered or its value depends on the area of the CP probability map to which it is applied, unlike a global threshold which has the same value over the entire CP probability map.
- the second threshold may have a lower value when applied in the area of the anterior part of the prostate than in the area of the posterior part of the prostate.
- the value of the second threshold is therefore adapted automatically (to each new probability map processed) and locally according to the zone(s) considered of a given probability map ⁇ .
- this thresholding can exploit the gradient of the prediction to reject areas where the estimated contour is too diffuse or wide for us to be able to consider the segmented area as anatomically correct.
- this second filtering step part of the selection operation ⁇ ′
- the probability map considered has a local maximum in a given voxel ' ⁇ ( ⁇ when there exists a neighborhood of ' ⁇ ( ⁇ such that for any voxel in this neighborhood, the associated probability is less than or equal to that of ' ⁇ ( ⁇ .
- a box we thus select the voxel of maximum probability ' ⁇ ( ⁇ within said box, to finally extract it as a target point.
- the number ⁇ (for example 100) is the number of target points which will be used to deform the model. , this number being predefined.
- the number ⁇ is predefined by the manufacturer and/or by the practitioner.
- the selection operation ⁇ ′ is thus a filtering operation on the probability map ⁇ .
- the selection operation ⁇ ′ we only retain target points presenting a very high probability of belonging to the contour of the prostate in the image ⁇ .
- the target points are in three dimensions.
- the program begins the deformation operation ⁇ ' during which we apply the combined Anatomical Model ⁇ to the image ⁇ by deforming the combined Anatomical Model ⁇ from the ⁇ target points retained at the end of the ⁇ ′ operation.
- the combined anatomical model thus makes it possible to determine the contour of the prostate from the target points.
- the Combined Anatomical Model ⁇ draws one or more continuous surfaces between neighboring target points (by interpolating and/or connecting them) and completes said surfaces to draw a closed contour of the prostate through the anatomical information it contains.
- the combined Anatomical Model ⁇ only deforms from the target points.
- the combined Anatomical Model ⁇ thus makes it possible to close the partial contour(s) which were defined by the cloud of target points.
- the deformation operation ⁇ ′ can therefore be seen as a step of transformation of the combined Anatomical Model ⁇ on the cloud of target points.
- the deformation of the combined Anatomical Model ⁇ can be carried out in a single phase or several phases. For example the deformation of the combined Anatomical Model ⁇ can be carried out by iteration.
- each target point is paired with the closest Combined Anatomical Model point ⁇ e, - then the combined Anatomical Model ⁇ is scaled (by scaling we mean that the combined Anatomical Model ⁇ is as a whole enlarged or shrunk to better correspond to the target points – this scaling being particularly interesting for a patient whose organ considered is of much larger or much smaller dimensions than the average and therefore for whom the organ considered is of much larger or much smaller dimensions than the combined Anatomical Model ⁇ ) and deformed globally via an affine transformation based on the distance between each target point considered and the point of the combined Anatomical Model ⁇ which was paired with it (for example the transformation is determined so as to minimize the sum of said distances and/or for example the transformation is calculated with Arun's algorithm), - then the combined Anatomical Model ⁇ is deformed elastically, under the action of external forces deforming the combined Anatomical Model ⁇ towards the target points and internal forces ensuring the regularity of the surface of the combined Anatomic
- the iterations i are stopped when the distances between the target points and the corresponding paired points of the combined Anatomical Model ⁇ are (for at least part of the target points and preferably for all the target points) less than one predetermined threshold.
- This successively affine then elastic iterative approach allows the elastic deformations to progressively correct the errors of the previous affine transformation, and vice versa. We thus carry out an extrapolation of the contour from the combined Anatomical Model ⁇ .
- This iterative approach is particularly interesting in places where the combined Anatomical Model ⁇ is very far from a target point or a group of target points and/or in places where there are few points. targets.
- This iterative approach makes it possible to generate a very good quality contour extrapolation from the combined Anatomical Model ⁇ even in places where the combined Anatomical Model ⁇ is very far from a target point or of a grouping of target points and/or in places where there are few target points.
- This iterative approach is particularly interesting where the combined Anatomical Model ⁇ is very far from a target point or a group of target points. Indeed, the combined Anatomical Model ⁇ ⁇ is thus deformed by iteration and in a localized manner to reach this or these target points and/or the area comprising this or these target points.
- This localized deformation is preferably of the same order of magnitude as the localized deformation carried out in the places where the Anatomical Model combined ⁇ is close to a target point or a grouping of target points and is distorted in view of this target point or these target points.
- the deformation operation ⁇ takes into account at least one mesh consistency constraint during the deformation of the combined Anatomical Model ⁇ : prevent the creation of a fold in the mesh, apply a constraint of elastic deformation or liquid mechanics during the propagation of the deformation, ...
- the elastic deformation field used during elastic deformation is decomposed using the Arun algorithm into an affine component and a non-linear residual deformation. It is then possible to use this affine component to scale said model during the following iteration i+1. This allows a global deformation during iteration i+1 that is consistent even in areas not covered by target points.
- at least one of the internal forces is defined from at least one statistical study on the shape of the prostate (study identical or different from that which allowed the creation of the Anatomical Model ⁇ ).
- the computer program preferably carries out an automatic comparison of the segmentation ⁇ ⁇ (in the case of the first implementation), or of the segmentation ⁇ ⁇ ' (in the case of the second implementation) ,with the old segmentation ⁇ ⁇ ⁇ .
- Such a comparison (for example based on the Dice coefficient or the volume difference) makes it possible to warn the practitioner when the two segmentations of the same organ are not coherent with each other.
- the program allows a modulation of the influence of the prediction from the artificial intelligence model in the deformation of the anatomical model by varying the selectivity of the filtering process described upper.
- a cursor a box with a value to complete (for example by a percentage) or a check box displayed on screen 14, the practitioner can adjust, in the segmentation obtained , the part of information predicted by the neural network and that completed by the anatomical model. If desired, the practitioner can therefore use only the deformable anatomical model.
- the practitioner can accept or reject the segmentation automatically proposed by the method of the invention whatever the implementation considered.
- the computer program thus leaves the practitioner with the possibility of modifying the segmentation proposed by the method by: - adding target points manually regardless of the number of target points selected by the method of the invention; - removing target points selected by the method of the invention. Then, the anatomical model is then deformed towards these target points.
- Image segmentation makes it possible to obtain a contour which can be used to carry out, for example, image fusion or to plan an operating procedure.
- the invention is not limited to the embodiments described but encompasses any variant falling within the scope of the invention as defined by the claims. In particular, it is possible to combine the two modes of implementation in whole or in part.
- the filtering could be global or local.
- the filtering could be fixed or dynamic If the filtering is dynamic, we can adapt the filtering so that for at least a first zone of the probability map, the value of the threshold depends on the value of at least one threshold of at least a second zone of the probability map. probability map close to or adjacent to the first.
- the examination device may be different from that described by the technology used (MRI instead of ultrasound for example) or by the arrangement and/or choice of its components.
- the value of at least one threshold could be modulated manually, for example by the practitioner.
- the segmentation process may rely on another model than the ⁇ to establish the probability map.
- the method could rely on an at least partly automatic segmentation method other than that of relying on the ⁇ model and for example any at least partly automatic segmentation method capable of generating localized information on the reliability of its result.
- each of the steps of the process of the invention may be automatic or only partly automatic.
- the statistical shape model has an average shape which is the average of the shapes of the same organ in a set of patients not including the patient considered
- the statistical shape model could have an average shape which is the average of the forms of the same organ in a set of patients including the patient considered.
- artificial intelligence could be trained from images of the same organ in a set of patients, including or not the patient in question.
- the model ⁇ and/or the model ⁇ and/or the three-dimensional image to be segmented can be designed using statistical processing of segmented images whose image modality gerie differs from that of ultrasound and for example by MRI technology (T1 sequence and/or T2 sequence and/or DC sequence and/or ADC sequence etc.), by scanner technology (like PET Scan)..., although here each image ⁇ and/or each image ⁇ is segmented manually during the pre-intervention phase, this segmentation can be carried out otherwise. For example for at least one image ⁇ and/or at least one image ⁇ , the segmentation could be automatic or partly automatic (for example the segmentation is carried out automatically and then controlled and retouched by a human).
- the Artificial Intelligence Model can be established from at least one image bank used to establish the Anatomical Model.
- the ⁇ images may be images captured with a technology different from that used for the acquisition of images which must subsequently be segmented such as MRI technology.
- the ⁇ images may be images captured with the same technology as that used for the acquisition of the images which must subsequently be segmented.
- the practitioner will be able to manually place target points on the contour of the organ present in the image displayed on the screen 14 to initialize the placement of the anatomical model and the evolution of the nearest neighbors from the latter towards these indicated points. This initialization can be automated.
- the target points used to initialize the placement of the deformable model will be different from those used by the present invention to deform the deformable model.
- the deformable model may have an initial shape defined by the shape of several organs (for example the average of said shapes) and/or by the shape of a single organ (and for example that of the patient obtained during a previous examination ) and/or by an analytical form (for example drawn by a practitioner or any other expert) and/or a combination of said aforementioned forms.
- an analytical form for example drawn by a practitioner or any other expert
- the shape of the patient's organ can be included or excluded to define the deformable model.
- the process may include one or more additional steps.
- the method may include an additional step of pre-deformation of the anatomical model followed subsequently by the actual deformation step which has been described previously.
- the pre-deformation step the anatomical model can be roughly deformed to quickly obtain a first deformation.
- the pre-deformation step is thus robust. Then during the deformation itself, we will continue to deform the anatomical model in a more precise manner as proposed above.
- a first group of target points is thus extracted from the probability map by applying to the probability map with at least a first probability threshold of belonging to the contour of the organ on the image.
- This first threshold is then relatively unselective in order to be able to create a first group containing a large number of target points.
- the anatomical model is then pre-deformed using these target points. For example, the anatomical model is deformed so as to align itself with the different target points of the first group, each target point being paired with the nearest point of the anatomical model. This alignment is for example carried out using the Arun algorithm.
- a second group of target points is extracted from the first group of target points by applying at least a second probability threshold of belonging to the outline of the organ on the image to the first group.
- This first threshold is more selective than the first threshold.
- This second threshold is thus defined so as to retain the points having a high probability of belonging to the contour.
- This deformation is thus more local and precise.
- the method includes an additional step of automatic estimation of the quality of the segmentation obtained.
- such a step could make it possible to provide an indicator of reliability of the result obtained to the operator and for example a quality score Q.
- the segmentation obtained ⁇ ⁇ or ⁇ ⁇ ′ is automatically discarded and/or when Q is between this first predetermined threshold and a second predetermined threshold, the operator is automatically warned that the quality of the segmentation obtained is doubtful.
- Q is calculated by evaluating the spatial correlation between the probability map CP and the segmentation obtained ⁇ ⁇ or ⁇ ⁇ ′.
- the Pearson correlation coefficient r is optionally calculated between the probability map ⁇ and an ideal probability map ⁇ + ⁇ obtained from the final segmentation ⁇ ⁇ or ⁇ ⁇ ′.
- This ideal probability map ⁇ + ⁇ very strongly correlated with the final segmentation ⁇ ⁇ or ⁇ ⁇ ′ from which it comes, is of the same size as the probability map ⁇ . It allows the calculation of the Pearson correlation coefficient r (representative of the spatial correlation between the probability map ⁇ and the ideal probability map ⁇ + ⁇ ) without having to binarize the probability map ⁇ with an arbitrary threshold which would cause information to be lost.
- the ideal probability map ⁇ + ⁇ is calculated from the following formula: where p(i) is a probability value of a voxel i of the ideal probability map ⁇ + ⁇ and ⁇ (i,j) the Euclidean distance between the point associated with voxel i (usually the center of said voxel) and the point associated with voxel j (usually the center of said voxel) which is the contour point of ⁇ ⁇ or ⁇ ⁇ ′ closest to the point associated with voxel i.
- We normalize the distance ⁇ (i,j) by the maximum Euclidean distance ⁇ max of the voxels of this probability map ⁇ + ⁇ .
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
The invention relates to a method for segmenting a three-dimensional image of at least one organ of a patient, comprising at least the steps of: extracting from the three-dimensional image of the organ a probability map which assigns to each voxel of the image a probability of belonging to a contour of the organ on the image; extracting from the probability map at least one target point based on the probability of belonging to the contour of the organ on the image, each target point being extracted from the probability map by applying to the probability map at least one threshold for the probability of belonging to the contour of the organ on the image; and based on each target point extracted in the preceding step, deforming a deformable model of this organ in order to obtain the three-dimensional segmentation of the organ on the image.
Description
Procédé de segmentation automatique d’un organe sur une image médicale en trois dimensions La présente invention concerne le domaine de l’imagerie médicale à des fins par exemple de diagnostic, tel que le dépistage de maladie, à des fins par exemple de traitement, tel que le guidage d’instruments chirurgicaux, etc. L’inven- tion concerne plus particulièrement la segmentation d’organe sur des images médicales en trois dimensions, c’est-à-dire la détermination du contour de l’organe dans une telle image. ARRIERE PLAN DE L’INVENTION Plusieurs technologies existent pour obtenir des images en trois dimensions d’un organe d’un patient. L’une des plus utilisées est l’échographie qui permet l’obtention rapide d’images, éventuellement peropératoire, en utilisant un ma- tériel relativement peu onéreux comparé aux autres technolo- gies telles que l’imagerie par résonance magnétique ou IRM. Une fois l’image obtenue, il peut s’avérer utile que le praticien identifie dans celle-ci le contour de l’organe à analyser. C’est notamment le cas si le contour de l’organe est par la suite requis pour planifier un geste opératoire, ou pour fusionner différentes images entre elles. Cette opé- ration d’identification du contour peut être effectuée ma- nuellement, avec des outils permettant de dessiner le contour de l’organe directement sur l’image. Cela est cependant chro- nophage, rébarbatif, et échoue à répondre à deux besoins essentiels : avoir une précision et une reproductibilité élevées. Il est connu des algorithmes de segmentation d’image ex- ploitant des propriétés de l’image comme les discontinuités d’intensité dans l’image (méthode Edge-Based Segmentation reposant sur les gradients) ou des similarités entre les
éléments d’image (pixels pour les images à deux dimensions, voxels pour les images à trois dimensions ; méthode Region- Based Segmentation). Ces algorithmes sont cependant rarement efficaces sur la totalité du contour de l’organe présent dans l’image. Ainsi, dans le cas de l’échographie de la prostate, il est difficile de distinguer le contour de l’organe des tissus environnants, en particulier pour la partie inférieure de la prostate, en raison principalement du faible contraste entre les zones prostatiques et non-prostatiques, de la granularité des images échographiques pouvant présenter des tavelures et/ou des chatoiements et de la courte gamme de niveaux de gris disponible. OBJET DE L’INVENTION L’invention a notamment pour but d’améliorer la segmenta- tion des images médicales. RESUME DE L'INVENTION A cet effet, on prévoit, selon l’invention, un procédé de segmentation d’une image en trois dimensions d’au moins un organe d’un patient comprenant au moins les étapes de : - extraire de l’image en trois dimensions dudit organe, une carte de probabilités qui affecte à chaque voxel de l’image une probabilité d’appartenance à un contour de l’or- gane sur l’image ; - extraire de ladite carte de probabilités, au moins un point-cible en se basant sur ladite probabilité d’apparte- nance au contour de l’organe sur l’image, chaque point-cible étant extrait de la carte de probabilités en appliquant à la carte de probabilités au moins un seuil de probabilité d’ap- partenance au contour de l’organe sur l’image ;
- à partir de chaque point-cible extrait à l’étape précé- dente, déformer un modèle déformable de cet organe pour ob- tenir la segmentation en trois dimensions dudit organe sur l’image. Le modèle est dit déformable en ce qu’il peut être appli- qué sur une image et déformé à partir d’au moins un point- cible pour correspondre en tout point au contour de l’organe recherché dans l’image. On commence ainsi par rechercher d’abord au moins un point-cible dont l’appartenance au contour de l’organe pré- sent dans l’image a une probabilité considérée comme suffi- sante et le modèle déformable est appliqué à l’image à partir de ce point-cible. Ainsi, les points-cibles dont l’apparte- nance au contour est la plus probable sont considérés comme exacts et la définition du contour est complétée à partir des données anatomiques du modèle déformable. On ne tient donc pas compte des points les moins probables pour appliquer le modèle déformable car ceci pourrait introduire une erreur dans la segmentation, en déformant le modèle déformable à partir de points-cibles dont la probabilité d’appartenance au contour de l’organe serait trop faible, et donc pour les- quels le risque que ces points n’appartiendraient pas véri- tablement au contour de l’organe serait trop élevé. Cette combinaison améliore significativement la segmentation réa- lisée, et ce d’autant plus que le nombre de points-cibles retenus par le procédé est élevé. En particulier, avec l’invention, seules les valeurs de probabilités les plus élevées sont retenues pour déterminer les points-cibles. Ainsi avec l’invention, on supprime de la carte des probabilités les zones les plus douteuses d’appar- tenance à l’organe au lieu d’essayer de les ajuster.
La carte des probabilités est en trois dimensions. La carte des probabilités n’est pas uniquement définie par deux uniques valeurs dont l’une représenterait l’appar- tenance au contour de l’organe et l’autre représenterait l’absence d’appartenance au contour de l’organe. Usuellement, on extrait de la carte de probabilités plus qu’un seul point-cible. Usuellement, on extrait ainsi de la carte de probabilités un nuage de points-cibles. On comprend donc que le seuil permet d’écarter tous les voxels de l’image pour lesquels la probabilité d’appartenance au contour de l’organe est trop faible. Optionnellement, la carte de probabilités est extraite par l’intermédiaire d’un modèle distinct du modèle défor- mable. Optionnellement, le modèle distinct est défini par une méthode de segmentation au moins en partie automatique. Optionnellement, ce modèle distinct est défini par au moins une intelligence artificielle (ou un réseau de neu- rones) entraînée à partir d’images segmentées de l’organe d’au moins d’autres personnes. Optionnellement, le au moins un seuil est global. Optionnellement, le au moins un seuil est local. Optionnellement, le au moins un seuil a une valeur indé- pendante de l’organe et/ou du patient et/ou de l’image en trois dimensions et/ou de la carte de probabilités. Optionnellement, le au moins un seuil a une valeur dépen- dante de l’organe et/ou du patient et/ou de l’image en trois dimensions et/ou de la carte de probabilités. Optionnellement le au moins un seuil est dynamique.
Optionnellement le au moins un seuil dynamique est un seuil local permettant de sélectionner uniquement des maxima locaux de probabilité de la carte de probabilités. Optionnellement, la valeur du au moins un seuil peut être modulée manuellement. Optionnellement la carte de probabilités est extraite par l’intermédiaire d’un modèle distinct du modèle déformable, et dans lequel la valeur dudit au moins un seuil peut être modulée automatiquement si au moins une caractéristique de l'image en trois dimensions considérée diffère de celles des images à partir desquelles le modèle distinct a été conçu. Optionnellement, le modèle déformable est un modèle sta- tistique de forme de l’organe à segmenter. Un modèle statistique de forme est un modèle qui, comme son nom l’indique, est défini à partir de différentes formes de l’organe considéré en fonction de la fréquence de ces formes dans la population. Optionnellement, le modèle déformable a une forme initiale définie à partir de la moyenne des formes du même organe considéré mais d’autres patients que le patient visé. Optionnellement, la forme initiale du modèle déformable est déterminée par une autre technologie d’imagerie que l’échographie. Optionnellement, le modèle déformable a une forme initiale combinée avec une segmentation du même organe considéré de ce même patient, segmentation obtenue à partir d’une image acquise antérieurement à une acquisition de l’image présen- tement en cours de segmentation. Optionnellement, la segmentation obtenue lors d’un examen antérieur est déterminée par une autre technologie d’imagerie que l’échographie.
Optionnellement au moins un point-cible peut être ajouté manuellement audit au moins un point-cible extrait de la carte des probabilités. Optionnellement, si on a un nombre de points-cibles infé- rieur à un seuil prédéterminé, le procédé est interrompu. Optionnellement, en cas d’interruption, la carte de pro- babilités est abandonnée et le modèle déformable est déformé à partir de points-cibles ajoutés manuellement. Optionnellement, le modèle déformable est d’abord pré- déformé. Optionnellement, le modèle déformable est pré-dé- formé en étant pré-aligné de manière globale sur les points- cibles. Optionnellement, le modèle déformable est déformé en se basant sur une partie seulement des points-cibles ayant servis à l’étape de pré-déformation. Optionnellement : - à partir de chaque point-cible extrait de la carte des probabilités, on pré-déforme le modèle déformable, - puis on sélectionne une partie seulement des points- cibles extraits de la carte des probabilités pour former un sous-groupe de points-cibles ayant une probabilité d’appar- tenance au contour de l’organe sur l’image plus forte que les points-cibles ne faisant pas partie du sous-groupe, - à partir de chaque point-cible du sous-groupe, on dé- forme le modèle déformable. Optionnellement, la déformation du modèle déformable est effectuée par une approche itérative. Optionnellement, à chaque itération, chaque point-cible est appairé avec le point du modèle déformable le plus proche. Optionnellement, à chaque itération, le modèle déformé est d’abord déformé globalement via une transformation affine (et/ou mis à l’échelle) puis déformé localement. Optionnellement la dé-
formation du modèle déformable est réalisée de manière ité- rative en alternant au moins une phase de mise à l’échelle avec une phase de déformation élastique. Optionnellement, au cours de la phase de mise à l’échelle on effectue également une déformation globale, et dans lequel à chaque itération, un champ de déformation élastique issu de la déformation élastique est décomposé en une composante affine et une dé- formation résiduelle non-linéaire, la composante affine étant utilisée pour la déformation globale lors de l’itéra- tion suivante. Optionnellement, les itérations sont stoppées lorsque les distances entre les points-cibles et des points correspondants du modèle déformable sont inférieures à un seuil prédéterminé. Optionnellement, on estime la qualité de la segmentation obtenue. Optionnellement, on estime la qualité de la segmen- tation obtenue en évaluant une corrélation spatiale entre la carte de probabilités et ladite segmentation. L’invention concerne également une installation compre- nant au moins un appareil de prise d’images et des moyens pour segmenter au moins une image acquise par ledit appareil selon le procédé tel que précité. L’invention concerne également un programme d’ordinateur comprenant des instructions qui conduisent une installation telle que précitée à exécuter le procédé tel que précité. L’invention concerne également un support d'enregistrement lisible par ordinateur, sur lequel est enregistré le programme d’ordinateur tel que précité. D’autres caractéristiques et avantages de l’invention ressortiront à la lecture de la description qui suit de mises en œuvre particulières et non limitatives de l’invention. BREVE DESCRIPTION DES DESSINS
Il sera fait référence aux dessins annexés, parmi les- quels : [Fig. 1] la figure 1 est un logigramme d’un premier mode de mise en œuvre du procédé de l’invention ; [Fig. 2] la figure 2 est un logigramme d’un deuxième mode de mise en œuvre du procédé de l’invention ; [Fig. 3] la figure 3 est une vue d’une image échographique d’une prostate, sur laquelle des points-cibles sont recher- chés ; [Fig. 4] la figure 4 est une vue de la même image écho- graphique sur laquelle des points-cibles ont été sélection- nés ; [Fig. 5] la figure 5 est une vue de la même image écho- graphique sur laquelle un contour a été tracé ; [Fig. 6] la figure 6 est une vue schématique d’un appareil échographique pour une mise en œuvre du procédé de l’inven- tion. DESCRIPTION DETAILLEE DE L’INVENTION L’invention est ici décrite en application à la segmenta- tion d’une image échographique de la prostate d’un patient. L’invention est toutefois applicable à l’image de tout organe et/ou de tout patient (animal ou humain) et/ou à toute tech- nologie d’une acquisition d’image d’un tel organe. L’invention est un procédé de segmentation d’une image en trois dimensions. Sur les figures, pour des raisons de sim- plicité, les images représentées sont des images à deux di- mensions. En référence aux figures 1 et 2, dans les deux mises en œuvre ici décrites, le procédé de segmentation s’appuie sur un Modèle Anatomique ^^ et un Modèle d’Intelligence Artifi- cielle ^^^.
Le Modèle Anatomique ^^ est élaboré à partir d'au moins une banque d'images ^^^ comprenant ^ images de la prostate. Les ^ images sont optionnellement des images acquises avec une technologie différente que celle utilisée pour l’acqui- sition des images qui devront être segmentées par la suite et par exemple par une technologie IRM. Chaque image ^ est ensuite segmentée. La segmentation est par exemple effectuée manuellement lors d’une segmentation humaine ^^^. Optionnellement cette segmentation est effectuée par un praticien ou une autre personne qualifiée. Puis ces segmentations sont ensuite traitées informatiquement (C) pour calculer une moyenne desdites segmentations (noté forme moyenne ^^ par la suite) et en déduire le Modèle Anatomique ^^. Le Modèle Anatomique ^^ est un modèle statistique de forme déformable qui est ainsi obtenu par une étude statis- tique d’une forme moyenne de la prostate et de ses varia- tions. On notera que la conception d’un modèle anatomique est connue en elle-même et ne sera pas plus décrite ici. Le Modèle d’Intelligence Artificiel ^^^ est élaboré à partir d'au moins une banque d'images ^^^ comprenant K images de la prostate. La banque d’images ^^^ est optionnellement différente de la banque d’images ^^^ utilisée pour réaliser le Modèle Anatomique ^^. Chaque image ^ est ensuite segmentée. La segmentation est par exemple effectuée manuellement lors d’une segmentation humaine ^^^. Optionnellement cette segmentation est effectuée par un praticien ou une autre personne qualifiée. De préférence, l’élaboration du Modèle d’Intelligence Ar- tificielle ^^^ est réalisé à partir d’images segmentées dont la modalité d’imagerie correspond à celle des images que l’on
souhaite segmenter par la suite. Ainsi les ^ images sont ici des images capturées avec la même technologie que celle uti- lisée pour l’acquisition des images qui devront être segmen- tées par la suite, ici l’échographie. Ces segmentations issues de ^^^ entraînent une intelli- gence artificielle ^^ pour l’entraîner à estimer pour chaque voxel d’une image donnée la probabilité que ce voxel appar- tienne au contour de la prostate présente sur ladite image. On obtient ainsi le modèle d’intelligence artificielle ^^^. On notera que la conception et l’entraînement d’une intelli- gence artificielle pour obtenir un modèle d’intelligence ar- tificielle sont connus en eux-mêmes et ne seront pas plus décrits ici. A cet effet, le modèle d’intelligence artifi- cielle peut être obtenu par l’intermédiaire d’un apprentis- sage automatique (ou « machine learning » en anglais) et par exemple peut être obtenu par l’intermédiaire d’un réseau de neurones et par exemple par l’intermédiaire d’un apprentis- sage profond (ou « deep learning » en anglais). Première mise en œuvre Pour segmenter une image de la prostate d’un patient au moyen du procédé selon le premier mode de mise en œuvre représenté à la figure 1, il faut acquérir une image ^^ de la prostate du patient, transmettre l’image ^^ à un système informatique appliquant le Modèle d’Intelligence Artifi- cielle ^^^ sur l’image ^^ reçue en entrée. On comprendra que le réseau de neurones pourra être mis en œuvre sur le même système informatique ou sur un système différent. On obtient ainsi en sortie une prédiction, sous la forme d’une carte de probabilités ^^ en trois dimensions dans la- quelle à chaque voxel de position ^, ^, ^ dans l’image, est affectée une probabilité ^(^, ^, ^) d’appartenance au contour de
la prostate présente dans l’image ^^. La carte de probabili- tés ^^ est ainsi une image en trois dimensions. De manière avantageuse, la probabilité d’appartenance a une valeur V qui est comprise entre deux bornes d’un inter- valle fermé (par exemple entre 0 et 1 ou entre 0 et 100). La carte des probabilité ^^ s’avère ainsi précise car elle n’est pas uniquement définie par des valeurs binaires 0 ou 1 mais bien par un éventail de valeurs V toutes comprises entre deux bornes d’un intervalle fermé. Cette carte des probabilité ^^ peut optionnellement être présentée à un opérateur. Optionnellement, la probabilité d’appartenance peut être symbolisée par un code couleur pour simplifier la compréhension de l’opérateur. Par exemple, plus la probabilité d’appartenance à la prostate est importante plus sa couleur est chaude et se rapproche et plus la proba- bilité d’appartenance à la prostate est faible plus la cou- leur est froide. Une probabilité nulle d’appartenir à la prostate est ainsi symbolisée en donnant au voxel associé la couleur noire et une probabilité certaine d’appartenir à la prostate est ainsi symbolisée en donnant au voxel associé la couleur rouge. Etant donné que certains voxels de la carte de probabilités ^^ peuvent avoir une probabilité d’apparte- nance à la prostate nulle (notamment les voxels internes à la prostate, étant rappelé ici que tous les voxels de l’image ^^ sont concernés par la première étape de segmentation), ceci peut entrainer le fait que la carte de probabilités ^^ peut ne pas présenter des contours entièrement fermés. Après avoir défini un seuil global ^ de probabilité d’ap- partenance (ce seuil global ^ étant prédéfini), correspon- dant à une probabilité d’appartenance acceptable, le système informatique exécute un algorithme de filtrage des voxels de
la carte de probabilités pour sélectionner, lors d’une opé- ration de sélection ^, ^ points cibles correspondant chacun à un voxel de position ^, ^, ^ ayant une probabilité ^(^, ^, ^) supérieure au seuil global ^. Le seuil ^ est dit global car il s’applique de la même manière et avec la même valeur pour tous les voxels. Optionnellement, le seuil ^ est fixe, à la différence d’un seuil dynamique dont la valeur serait adaptée à la carte de probabilités CP et/ou à l’image considérée IP. Ce seuil ^ permet ainsi d’écarter tous les voxels pour lesquels la probabilité d’appartenance au contour est trop faible. Par conséquent, la valeur du seuil ^ est fixée pour l’ap- plication visée et le Modèle d’Intelligence Artificielle ^^^ utilisé à une valeur optimisée. De préférence, on modifiera la valeur du seuil ^ selon l’application visée et le Modèle d’Intelligence Artificielle ^^^ utilisé afin de le fixer à une nouvelle valeur optimisée. La valeur du seuil ^ pourra notamment être déterminée par un compromis entre la précision et la sensibilité souhaités du modèle, établi via l’analyse de courbes sensibilité-précision ou de courbes ROC. L’opération de sélection ^ est ainsi une opération de filtrage sur la carte de probabilités ^^. De la sorte, on retient uniquement des points-cibles présentant une très forte probabilité d’appartenance au contour de la prostate dans l’image ^^. On comprend donc que les points-cibles sont en trois di- mensions. On comprend également qu’à l’issue de l’opération de sé- lection ^, on obtient un nuage de points-cibles.
Selon l’image ^^, le nombre de points-cibles ainsi ex- traits peut être élevé. Dès lors, à l’issue de l’opération de sélection ^, certains groupements de points-cibles peuvent déjà dessiner localement des contours d’une prostate (sous forme d’au moins une surface continue et/ou d’au moins une surface discontinue formée par des points). Néanmoins, étant donné que d’autres voxels de la carte de probabilités ^^ ont été écartés (car leur probabilité ^(^, ^, ^) d’appartenance à la prostate dans l’image ^^ était trop faible et dont inférieure au seuil ^), ces contours sont nécessairement partiels. En aucun cas, à l’issue de l’opération de sélection ^, on ob- tient une représentation d’une prostate dont les contours seraient entièrement fermés. Lors d’une opération de défor- mation ^, on applique le Modèle Anatomique ^^ à l’image ^^ en déformant le Modèle Anatomique ^^ à partir des ^ points- cibles retenus à l’issue de l’opération ^. On comprend que le modèle anatomique ^^ permet ainsi de déterminer le contour de la prostate sur l’image à segmenter en s’appuyant sur les ^ points-cibles. Par exemple, le Modèle Anatomique ^^ dessine une ou des surfaces continues entre des points-cibles voisins les uns des autres (en les interpolant et/ou en les reliant) et com- plète lesdites surfaces pour dessiner un contour fermé de la prostate par l’intermédiaire des informations anatomiques qu’il contient. Le Modèle Anatomique ^^ ne se déforme qu’à partir des points-cibles. Le Modèle Anatomique ^^ permet ainsi de fermer le ou les contours partiels qui étaient définis par le nuage de points- cibles.
L’opération de déformation ^ peut donc être vue comme une étape de transformation du Modèle Anatomique ^^ sur le nuage de points-cibles précédemment établi. La déformation du Modèle Anatomique ^^ peut être réalisée en une seule phase ou plusieurs phases. Par exemple la dé- formation du Modèle Anatomique ^^ peut être réalisée par itération. Par exemple, à chaque itération i : - chaque point-cible est appairé avec le point du Modèle Anatomique ^^ le plus proche, - puis le Modèle Anatomique ^^ est mis à l’échelle (par mise à l’échelle on entend que le Modèle Anatomique ^^ est dans sa globalité agrandi ou rétréci pour mieux correspondre aux points cibles – cette mise à l’échelle étant particuliè- rement intéressante pour un patient dont l’organe considéré est de dimensions bien plus importantes ou bien moins impor- tantes que la moyenne et donc pour lequel l’organe considéré est de dimensions bien plus importantes ou bien moins impor- tantes que le Modèle Anatomique ^^) et déformé globalement via une transformation affine basée sur la distance entre chaque point-cible considéré et le point du Modèle Anatomique ^^ qui lui est appairé (par exemple la transformation est déterminée de sorte à minimiser la somme desdites distances et/ou par exemple la transformation est calculée avec l’al- gorithme d’Arun), - puis le Modèle Anatomique ^^ est déformé élastiquement, sous l’action de forces externes déformant le Modèle Anato- mique ^^ vers les points-cibles et de forces internes assu- rant la régularité de la surface du Modèle Anatomique ^^ (une déformation élastique étant bien connue de l’art anté- rieur, elle ne sera pas détaillée davantage étant entendu
que les forces externes sont obtenues en se basant sur la distance entre chaque point-cible considéré et le point du Modèle Anatomique ^^ qui lui ai appairé et les forces in- ternes sont obtenues en se basant sur le Modèle Anatomique ^^ avant déformation et/ou sur une contrainte d’avoir un contour déformé lisse, la déformation se basant sur la somme de ces forces externes et internes pour un déduire un dépla- cement de chacun des sommets du Modèle Anatomique ^^). Les itérations i sont stoppées lorsque les distances entre les points-cibles et les points appairés correspondants du Modèle Anatomique ^^ sont, pour tous les points-cibles, in- férieures à un seuil prédéterminé. Cette approche itérative successivement affine puis élas- tique permet aux déformations élastiques de progressivement corriger les erreurs de la transformation affine précédente, et inversement. On réalise ainsi une extrapolation du contour à partir du Modèle Anatomique ^^. Cette approche itérative est particulièrement intéres- sante aux endroits où le Modèle Anatomique ^^ est très éloi- gné d’un point-cible ou d’un groupement de points-cibles et/ou aux endroits où il y a peu de points-cibles. Cette approche itérative permet de générer une extrapola- tion du contour de très bonne qualité à partir du Modèle Anatomique ^^ même aux endroits où le Modèle Anatomique ^^ est très éloigné d’un point-cible ou d’un groupement de points-cibles et/ou aux endroits où il y a peu de points- cibles. On obtient alors la segmentation ^^^ de l’image ^^. De préférence, l’opération de déformation ^ prend en compte au moins une contrainte de cohérence de maillage lors
de la déformation du Modèle Anatomique ^^ : empêcher la création d’un pli dans le maillage, appliquer une contrainte de déformation élastique ou de mécanique des fluides option- nellement selon un modèle biomécanique de l’organe lors de la propagation de la déformation, … Optionnellement, à chaque itération i et via l’algorithme d'Arun, on extrait lors de la déformation élastique du Modèle Anatomique ^^, une transformation affine. Par exemple le champ de déformation élastique utilisée lors de la déforma- tion élastique est décomposé à l'aide de l’algorithme d'Arun en une composante affine et une déformation résiduelle non- linéaire. Il est alors possible d’utiliser cette composante affine pour mettre à l’échelle ledit modèle lors de l’itéra- tion i+1 suivante. Ceci permet une déformation globale lors de l’itération i+1 cohérente même dans les zones non cou- vertes par des points-cibles. Optionnellement, au moins une des forces internes est dé- finie à partir d'au moins une étude statistique sur la forme de la prostate (étude identique ou différente de celle ayant permis la création du Modèle Anatomique ^^). Une force in- terne permet ainsi de limiter davantage le risque d'obtention d'une segmentation ^^^ anatomiquement improbable. On comprend que même si le Modèle Anatomique ^^ est dé- formé à partir ^ points-cibles, le Modèle Anatomique ^^ peut ne passer que par une partie uniquement des n points-cibles. Il est possible d’affiner la sélection des points-cibles en utilisant un algorithme à double filtrage. Un tel double filtrage est explicité en relation avec le deuxième mode de mise en œuvre ci-dessous mais est aussi utilisable avec le premier mode de mise en œuvre.
On peut voir sur la figure 6 un exemple d’appareil utili- sable pour l’examen d’un patient dans le cadre du procédé de l’invention. Il s’agit d’un appareil échographique 10 com- prenant un boîtier 11 renfermant un système informatique 12 relié à une sonde échographique 13, un écran 14 et à un réseau informatique R. Le système informatique 12 est un ordinateur qui comprend au moins un processeur et une mé- moire. La mémoire comprend ici les modèles ^^^ et ^^ et un programme informatique ayant des instructions agencées pour mettre en œuvre le procédé de l’invention. Optionnellement le programme informatique a des instruc- tions agencées pour mettre en œuvre le réseau de neurones mettant lui-même en œuvre le modèle d’intelligence artifi- cielle ^^^. La sonde échographique 13 permet l’acquisition des images ^^ qui seront traitées par le système informatique 12 et affichées sur l’écran 14. Le réseau R est utilisé pour le raccordement à un serveur contenant par exemple des comptes- rendus, des images d’examens des patients dont a la charge le praticien ou l’organisme au sein duquel il exerce … Deuxième mise en œuvre Dans le deuxième mode de mise en œuvre représenté à la figure 2, on dispose du Modèle d’Intelligence Artificielle ^^^ et du Modèle Anatomique ^^. On dispose en plus d’une segmentation ancienne ^^^ ^^^ de la prostate du patient qui est en cours d’examen (par ancienne, on entend qu’elle a été réalisée lors d’un examen précédent). Lors d’une opération de combinaison ^^^^, le Modèle Anatomique ^^ est combiné avec la segmentation ancienne ^^^ ^^^, par exemple en remplaçant la forme moyenne ^^ contenue dans le ^^ par cette segmen-
tation ^^^ ^^^. Bien entendu d’autres possibilités de combinai- son sont possibles : par exemple effectuer une moyenne de MS et de cette segmentation ^^^ ^^^ ou bien encore une moyenne pondérée de la forme moyenne ^^ et de cette segmentation ^ ^^^ ^^ . On obtient ainsi un Modèle Anatomique combiné ^^′. On note que la segmentation ancienne ^^^ ^^^ peut-être issue d’une image échographique ou obtenue via une autre technologie comme une image IRM. Comme précédemment, on commence par acquérir une image ^^ de la prostate du patient. Comme précédemment, l’image ^^ est transmise à un système informatique afin d’appliquer le mo- dèle d’intelligence artificielle sur l’image ^^ reçue en en- trée. Ceci permet d’obtenir en sortie une prédiction sous la forme d’une carte de probabilités ^^ en trois dimensions dans laquelle à chaque voxel de position ^, ^, ^ dans l’image est affectée une probabilité ^(^, ^, ^) d’appartenance au contour de la prostate. La carte de probabilités ^^ est ainsi une image en trois dimensions. De manière avantageuse, la probabilité d’appartenance a une valeur V qui est comprise entre deux bornes d’un inter- valle, les deux bornes étant comprises (par exemple entre 0 et 1 ou entre 0 et 100). La carte des probabilité ^^ s’avère ainsi précise car elle n’est pas uniquement définie par des valeurs binaires 0 ou 1 mais bien par un éventail de valeurs V toutes comprises entre deux bornes d’un intervalle, les deux bornes étant comprises. Cette carte des probabilité ^^ peut optionnellement être présentée à un opérateur. Optionnellement, la probabilité
d’appartenance peut être symbolisée par un code couleur pour simplifier la compréhension de l’opérateur. Par exemple, plus la probabilité d’appartenance à la prostate est importante plus sa couleur est chaude et se rapproche et plus la proba- bilité d’appartenance à la prostate est faible plus la cou- leur est froide. Une probabilité nulle d’appartenir à la prostate est ainsi symbolisée en donnant au voxel associé la couleur noire et une probabilité certaine d’appartenir à la prostate est ainsi symbolisée en donnant au voxel associé la couleur rouge. Etant donné que certains voxels de la carte de probabili- tés ^^ peuvent avoir une probabilité d’appartenance à la prostate nulle (notamment les voxels internes à la prostate, étant rappelés ici que tous les voxels de l’image ^^ sont concernés par la première étape de segmentation), ceci peut entrainer le fait que la carte de probabilités ^^ peut ne pas présenter des contours entièrement fermés. Le système informatique exécute alors un algorithme de filtrage des voxels de la carte de probabilités pour sélec- tionner, lors d’une opération de sélection ^′, ^ points cibles pour lesquels un haut degré de certitude d’appartenance au contour a été attribué (i.e. la probabilité ^(^, ^, ^) est éle- vée). Par exemple, comme pour la première mise en œuvre, après avoir défini un seuil global fixe ^ de probabilité d’appartenance (ce seuil global ^ étant prédéfini), corres- pondant à une probabilité d’appartenance acceptable, le sys- tème informatique exécute un algorithme de filtrage des voxels de la carte de probabilités pour sélectionner, lors d’une opération de sélection ^, ^ points cibles correspondant chacun à un voxel de position ^, ^, ^ ayant une probabilité ^(^, ^, ^) supérieure au seuil global fixe ^.
Les inventeurs ont pu constater que la difficulté de la tâche de segmentation varie grandement d’une image à l’autre. C’est pourquoi l’utilisation d’un unique seuil global fixe a pour effet généralement de sur-segmenter ou sous-segmenter le contour des organes. Pour cette raison, l’algorithme de filtrage effectue de préférence un deuxième filtrage des voxels filtrés, avec un deuxième seuil différent du premier. Comme cela a déjà été indiqué, le deuxième filtrage est également applicable à la première mise en œuvre, de sorte que ce qui suit est bien applicable à la première mise en œuvre. Le deuxième seuil est un seuil dynamique i.e. un seuil spécifique à l’image considérée. Le deuxième seuil est optionnellement local, c’est-à-dire qu’il est appliqué sur une partie seulement de la carte de probabilités CP considérée ou que sa valeur dépend de la zone de la carte de probabilités CP sur laquelle il est appliqué, au contraire d’un seuil global qui a la même valeur sur toute la carte de probabilités CP. Par exemple, comme la partie antérieure de la prostate est plus difficile à segmenter que la partie postérieure de la prostate, le deuxième seuil peut avoir une valeur plus faible lorsqu’il est appliqué dans la zone de la partie antérieure de la prostate que dans la zone de la partie postérieure de la prostate. La valeur du deuxième seuil est donc adaptée automatique- ment (à chaque nouvelle carte de probabilités traitée) et localement selon la ou les zones considérées d’une carte de probabilités ^^ donnée. Selon l’application considérée, ce seuillage peut exploi- ter le gradient de la prédiction pour rejeter les zones où le contour estimé est trop diffus ou large pour qu’on puisse
considérer la zone segmentée comme anatomiquement correcte. Lors de cette deuxième étape de filtrage (faisant partie de l’opération de sélection ^′), on va rechercher un nombre réduit de points de contours, par exemple associés à des maxima locaux de probabilité de présence du contour de l’or- gane en ces positions (la figure 3 illustre ces maxima lo- caux). En pratique, le programme exécuté par le système informa- tique procède de la manière suivante. On réalise une décom- position # de l’image ^^ associée à la carte de probabilités ^^ en cases (également appelées boites) et par exemple en cases de dimensions identiques et par exemple en parallélé- pipèdes rectangles ou en cubes. Optionnellement, chaque boite présente des dimensions $^, $^, $^ avec une résolution de $^ = $^ = $^ et par exemple $^ = $^ = $^ = & avec α compris entre 3 et 6 millimètres et par exemple entre 5 et 5.5 mil- limètres. On dit que la carte de probabilités considérée possède un maximum local en un voxel '^(^ donné lorsqu'il existe un voisinage de '^(^ tel que pour tout voxel de ce voisinage, la probabilité associée est inférieure ou égale à celle de '^(^. Pour une boite, on sélectionne ainsi le voxel de probabi- lité maximum '^(^ au sein de ladite boîte, pour l’extraire enfin en tant que point-cible. On réitère ce processus pour une nouvelle boite pour ex- traire un nouveau point-cible, etc. On arrête ce processus dès que l’on arrive à obtenir ^ points-cibles. Le nombre ^ (par exemple 100) est le nombre de points-cibles qui seront utilisés pour déformer le modèle,
ce nombre étant prédéfini. Le nombre ^ est prédéfini par le constructeur et/ou par le praticien. De préférence, il est possible de considérer qu'on a un nombre de points-cibles insuffisants par exemple si le nombre de points-cibles retenus à l’issu de ce deuxième filtrage est inférieur à un seuil minimal prédéfini (par exemple par le constructeur et/ou le praticien). Le procédé de segmenta- tion est alors interrompu pour proposer à l'opérateur de segmenter l'organe sans bénéficier du procédé de l’invention. L’opération de sélection ^′ est ainsi une opération de filtrage sur la carte de probabilités ^^. De la sorte, on retient uniquement des points-cibles présentant une très forte probabilité d’appartenance au contour de la prostate dans l’image ^^. On comprend donc que les points-cibles sont en trois di- mensions. On comprend également qu’à l’issue de l’opération de sé- lection ^′, on obtient un nuage de points-cibles. Selon l’image ^^, le nombre de points-cibles ainsi ex- traits peut être élevé. Dès lors, à l’issue de l’opération de sélection ^′, certains groupements de points-cibles peu- vent déjà dessiner localement des contours d’une prostate (sous forme d’au moins une surface continue et/ou d’au moins une surface discontinue formée par des points). Néanmoins, étant donné que d’autres voxels de la carte de probabilités ^^ ont été écartés (car leur probabilité ^(^, ^, ^) d’apparte- nance à la prostate dans l’image ^^ était trop faible et dont inférieure au seuil ^), ces contours sont nécessairement par- tiels. En aucun cas, à l’issue de l’opération de sélection T′, on obtient une représentation d’une prostate dont les
contours seraient entièrement fermés. En considérant que l’on a obtenu un nombre de points- cibles suffisant (par exemple que ^ points ont été obtenus), le programme débute l’opération de déformation ^’ au cours de laquelle on applique le Modèle Anatomique combiné ^^^^ à l’image ^^ en déformant Modèle Anatomique combiné ^^^^ à partir des ^ points-cibles retenus à l’issue de l’opération ^′. On comprend que le modèle anatomique combiné permet ainsi de déterminer le contour de la prostate à partir des ^ points- cibles. Par exemple, le Modèle Anatomique combiné ^^^^ dessine une ou des surfaces continues entre des points-cibles voisins les uns des autres (en les interpolant et/ou en les reliant) et complète lesdites surfaces pour dessiner un contour fermé de la prostate par l’intermédiaire des informations anato- miques qu’il contient. Le Modèle Anatomique combiné ^^^^ ne se déforme qu’à par- tir des points-cibles. Le Modèle Anatomique combiné ^^^^ permet ainsi de fermer le ou les contours partiels qui étaient définis par le nuage de points-cibles. L’opération de déformation ^′ peut donc être vue comme une étape de transformation du Modèle Anatomique combiné ^^^^ sur le nuage de points-cibles. La déformation du Modèle Anatomique combiné ^^^^ peut être réalisée en une seule phase ou plusieurs phases. Par exemple la déformation du Modèle Anatomique combiné ^^^^ peut être réalisée par itération. Par exemple, à chaque itération i : - chaque point-cible est appairé avec le point Modèle Anatomique combiné ^^^^ e plus proche,
- puis le Modèle Anatomique combiné ^^^^ est mis à l’échelle (par mise à l’échelle on entend que le Modèle Ana- tomique combiné ^^^^ est dans sa globalité agrandi ou rétréci pour mieux correspondre aux points cibles – cette mise à l’échelle étant particulièrement intéressante pour un pa- tient dont l’organe considéré est de dimensions bien plus importantes ou bien moins importantes que la moyenne et donc pour lequel l’organe considéré est de dimensions bien plus importantes ou bien moins importantes que le Modèle Anato- mique combiné ^^^^) et déformé globalement via une transfor- mation affine basée sur la distance entre chaque point-cible considéré et le point du Modèle Anatomique combiné ^^^^ qui lui ai appairé (par exemple la transformation est déterminée de sorte à minimiser la somme desdites distances et/ou par exemple la transformation est calculée avec l’algorithme d’Arun), - puis le Modèle Anatomique combiné ^^^^ est déformé élas- tiquement, sous l’action de forces externes déformant le Mo- dèle Anatomique combiné ^^^^ vers les points-cibles et de forces internes assurant la régularité de la surface du Mo- dèle Anatomique combiné ^^^^ (une déformation élastique étant bien connue de l’art antérieur, elle ne sera pas dé- taillée davantage étant entendu que les forces externes sont obtenues en se basant sur la distance entre chaque point- cible considéré et le point du Modèle Anatomique combiné ^^^^ qui lui ai appairé et les forces internes sont obtenues en se basant sur le Modèle Anatomique combiné ^^^^ avant défor- mation et/ou sur une contrainte d’avoir un contour déformé lisse, la déformation se basant sur la somme de ces forces externes et internes pour un déduire un déplacement de chacun des sommets du Modèle Anatomique combiné ^^^^).
Les itérations i sont stoppées lorsque les distances entre les points-cibles et les points appairés correspondants du Modèle Anatomique combiné ^^^^ sont (pour au moins une partie des points-cibles et de préférence pour tous les points- cibles) inférieures à un seuil prédéterminé. Cette approche itérative successivement affine puis élas- tique permet aux déformations élastiques de progressivement corriger les erreurs de la transformation affine précédente, et inversement. On réalise ainsi une extrapolation du contour à partir du Modèle Anatomique combiné ^^^^. Cette approche itérative est particulièrement intéres- sante aux endroits où le Modèle Anatomique combiné ^^^^ est très éloigné d’un point-cible ou d’un groupement de points- cibles et/ou aux endroits où il y a peu de points-cibles. Cette approche itérative permet de générer une extrapola- tion du contour de très bonne qualité à partir du Modèle Anatomique combiné ^^^^ même aux endroits où le Modèle Ana- tomique combiné ^^^^ est très éloigné d’un point-cible ou d’un groupement de points-cibles et/ou aux endroits où il y a peu de points-cibles. Cette approche itérative est particulièrement intéres- sante aux endroits où le Modèle Anatomique combiné ^^^^ est très éloigné d’un point-cible ou d’un groupement de points- cibles. En effet, le Modèle Anatomique combiné ^^^^ ^^ est ainsi déformée par itération et de manière localisé pour atteindre ce ou ces points cibles et/ou la zone comprenant ce ou ces points-cibles. Cette déformation localisée est de préférence d’un même ordre de grandeur que la déformation localisée effectuée aux endroits où le Modèle Anatomique
combiné ^^^^ est proche d’un point-cible ou d’un groupement de points-cibles et est déformé au vu de ce point-cible ou de ces points-cibles. On obtient alors la segmentation ^^^’ de l’image ^^. De préférence, l’opération de déformation ^ prend en compte au moins une contrainte de cohérence de maillage lors de la déformation du Modèle Anatomique combiné ^^^^: empêcher la création d’un pli dans le maillage, appliquer une con- trainte de déformation élastique ou de mécanique des liquides lors de la propagation de la déformation, … Optionnellement, à chaque itération i et via l’algorithme d'Arun, on extrait lors de la déformation élastique du Modèle Anatomique ^^ , une transformation affine de mise à l’échelle. Par exemple le champ de déformation élastique utilisée lors de la déformation élastique est décomposé à l'aide de l’algorithme d'Arun en une composante affine et une déformation résiduelle non-linéaire. Il est alors pos- sible d’utiliser cette composante affine pour mettre à l’échelle ledit modèle lors de l’itération i+1 suivante. Ceci permet une déformation globale lors de l’itération i+1 cohé- rente même dans les zones non couvertes par des points- cibles. Optionnellement, au moins une des forces internes est dé- finie à partir d'au moins une étude statistique sur la forme de la prostate (étude identique ou différente de celle ayant permis la création du Modèle Anatomique ^^). Une force in- terne permet ainsi de limiter davantage le risque d'obtention d'une segmentation ^^^’ anatomiquement improbable. Sur la figure 5, on a représenté la segmentation ^^^’ ob- tenue en utilisant le Modèle Anatomique combiné ^^^^ et la segmentation ^^^ qui aurait été obtenue en utilisant seulement
le Modèle Anatomique ^^. Optionnellement, le programme informatique réalise de préférence une comparaison automatique de la segmentation ^^^ (dans le cas de la première mise en œuvre), ou de la segmen- tation ^^^’ (dans le cas de la deuxième mise en œuvre),avec la segmentation ancienne ^^^ ^^^. Une telle comparaison (par exemple à partir du coefficient de Dice ou de l’écart volu- mique) permet d’avertir le praticien lorsque les deux seg- mentations du même organe ne sont pas cohérentes entre elles. Pour les deux mises en œuvre, on peut prévoir que le programme autorise une modulation de l’influence de la pré- diction issue du modèle d’intelligence artificielle dans la déformation du modèle anatomique en faisant varier la sélec- tivité du processus de filtrage décrit plus haut. À l’aide d’un curseur, d’une case avec une valeur à compléter (par exemple par un pourcentage) ou d’une case à cocher affiché sur l’écran 14, le praticien peut ajuster, dans la segmenta- tion obtenue, la part d’information prédite par le réseau de neurones et celle complétée par le modèle anatomique. S’il le souhaite, le praticien peut donc notamment utiliser uni- quement le modèle anatomique déformable. Dans une routine clinique, le praticien peut accepter ou rejeter la segmentation proposée automatiquement par le pro- cédé de l’invention quelle que soit la mise en œuvre consi- dérée. Le programme informatique laisse ainsi au praticien la possibilité de modifier la segmentation proposée par le procédé en : - rajoutant des points-cibles manuellement quel que soit le nombre de points-cibles sélectionnés par le procédé de l’invention ;
- supprimant des points-cibles sélectionnés par le pro- cédé de l’invention. Alors, le modèle anatomique est ensuite déformé vers ces points-cibles. On a ainsi décrit un procédé permettant de segmenter une image en trois dimensions. La segmentation de l’image permet d’obtenir un contour qui peut être utilisée pour réaliser par exemple de la fusion d’images ou bien planifier un geste opératoire. Bien entendu, l’invention n’est pas limitée aux modes de réalisation décrits mais englobe toute variante entrant dans le champ de l’invention telle que définie par les revendica- tions. En particulier, il est possible de combiner entre eux les deux modes de mise en œuvre en tout ou partie. Par exemple, on peut introduire dans le premier mode de mise en œuvre le filtrage à double seuil et/ou l’utilisation d’une segmentation ancienne et/ou l’algorithme décrit com- prenant les étapes de décomposer la carte de probabilité en boite et de chercher un '^(^ pour au moins l’une des boites. Quelle que soit la mise en œuvre considérée, le filtrage pourra être global ou local. Quelle que soit la mise en œuvre considérée, le filtrage pourra être fixe ou dynamique. Si le filtrage est dynamique, on pourra adapter le filtrage de sorte que pour au moins une première zone de la carte de probabilité, la valeur du seuil dépende de la valeur d’au moins un seuil d’au moins une deuxième zone de la carte de probabilité voisine ou adjacente à la première. On pourra avoir un filtrage dynamique et global et/ou un
filtrage fixe et local et/ou un filtrage fixe et globale et/ou un seuil dynamique et local. L’appareil d’examen peut être différent de celui décrit par la technologie utilisée (IRM au lieu d’échographie par exemple) ou par l’agencement et/ou le choix de ses compo- sants. La valeur d’au moins un seuil pourrait être modulable manuellement par exemple par le praticien. Le procédé de segmentation pourra s’appuyer sur un autre modèle que le ^^^ pour établir la carte de probabilités. Par exemple, en place du ^^^, le procédé pourra s’appuyer sur une méthode de segmentation au moins en partie automatique autre que celle d’appuyant sur le modèle ^^^ et par exemple toute méthode de segmentation au moins en partie automatique capable de générer une information localisée sur la fiabilité de son résultat. De manière générale, chacune des étapes du procédé de l’invention pourra être automatique ou en partie seulement automatique. Bien qu’ici le modèle statistique de forme a une forme moyenne qui est la moyenne des formes du même organe chez un ensemble de patients n’incluant pas le patient considéré, le modèle statistique de forme pourra avoir une forme moyenne qui est la moyenne des formes du même organe chez un ensemble de patients incluant le patient considéré. De même l’intelligence artificielle pourra être entrainée à partir d’images du même organe chez un ensemble de patients incluant ou non le patient considéré. Le modèle ^^ et/ou le modèle ^^^ et/ou l'image en trois dimensions à segmenter peut être conçu à l'aide d'un traite- ment statistique d'images segmentées dont la modalité d’ima-
gerie diffère de celle échographique et par exemple par tech- nologie IRM (séquence T1 et/ou séquence T2 et/ou séquence DC et/ou séquence ADC etc.), par technologie scanner (comme le PET Scan) …, Bien qu’ici chaque image ^ et/ou chaque image ^ soit segmentée manuellement lors de la phase pré-intervention, cette segmentation pourra être effectuée autrement. Par exemple pour au moins une image ^ et/ou au moins une image ^, la segmentation pourra être automatique ou en partie auto- matique (par exemple la segmentation est réalisée automati- quement et contrôlée et retouchée par un humain ensuite). Bien qu’ici la banque d’images utilisée pour réaliser le Modèle d’Intelligence Artificielle soit différente du Modèle Anatomique, le Modèle d’Intelligence Artificielle pourra être établi à partir d’au moins une banque d’images utilisée pour établir le Modèle Anatomique. Les ^ images pourront être des images capturées avec une technologie différente que celle utilisée pour l’acquisition des images qui devront être segmentées par la suite comme la technologie IRM. Les ^ images pourront être des images capturées avec la même technologie que celle utilisée pour l’acquisition des images qui devront être segmentées par la suite. Dans une étape préalable le praticien pourra placer ma- nuellement des points-cibles sur le contour de l’organe pré- sent dans l’image affichée sur l’écran 14 pour initialiser le placement du modèle anatomique et l’évolution des plus proches voisins de ce dernier vers ces points indiqués. Cette initialisation pourra être automatisée. De préférence, les points-cibles utilisés pour initiali- ser le placement du modèle déformable seront différents de
ceux utilisés par la présente invention pour déformer le modèle déformable. Le modèle déformable pourra avoir une forme initiale dé- finie par la forme de plusieurs organes (par exemple la moyenne desdites formes) et/ou par la forme d’un organe unique (et par exemple celle du patient obtenu lors d’un précédent examen) et/ou par une forme analytique (par exemple dessiné par un praticien ou tout autre expert) et/ou une combinaison desdites formes précitées. Dans le cas où le modèle déformable est lié à des formes de plusieurs organes , on parlera donc de « modèle déformable statistique de forme ». La forme de l’organe du patient pourra être incluse ou être exclue pour définir le modèle déformable. On pourra également n’inclure que l’organe du patient (dont la forme varie d’une image à l’autre par exemple) pour créer le « mo- dèle déformable statistique de forme ». Pour les deux modes de mises en œuvre décrits précédem- ment, le procédé pourra comporter une ou plusieurs étapes additionnelles. Par exemple, le procédé pourra comporter une étape addi- tionnelle de pré-déformation du modèle anatomique suivie en- suite de l’étape de déformation à proprement parler qui a été décrite précédemment. Par exemple, au cours de l’étape de pré-déformation, on pourra déformer le modèle anatomique de manière grossière pour obtenir rapidement une première déformation. L’étape de pré-déformation est ainsi robuste. Puis au cours de la déformation à proprement parler, on con- tinuera à déformer le modèle anatomique de manière plus pré- cise comme proposé ci-dessus. Optionnellement, un premier groupe de points-cibles est ainsi extrait de la carte de probabilités en appliquant à la
carte de probabilités au moins un premier seuil de probabi- lité d’appartenance au contour de l’organe sur l’image. Ce premier seuil est alors relativement peu sélectif afin de pouvoir créer un premier groupe contenant un grand nombre de points-cibles. Le modèle anatomique est ensuite pré-déformé en s’aidant de ces points-cibles. Par exemple le modèle ana- tomique est déformé de sorte à venir s’aligner sur les dif- férents points-cibles du premier groupe, chaque point-cible étant appairé au point du modèle anatomique le plus proche. Cet alignement est par exemple effectué à l’aide de l’algo- rithme d’Arun. Puis, un deuxième groupe de points-cibles est extrait du premier groupe de points cibles en appliquant au moins un deuxième seuil de probabilité d’appartenance au contour de l’organe sur l’image au premier groupe. Ce premier seuil est plus sélectif que le premier seuil. Ce deuxième seuil est ainsi défini de sorte à retenir les points ayant une forte probabilité d’appartenance au contour. On se retrouve alors dans la configuration décrite en regard des deux modes de réalisation et on peut alors procéder à l’étape de déforma- tion à proprement parler qui a été décrite précédemment (en regard des deux modes de réalisation) en se basant sur ce deuxième groupe de points-cibles. Cette déformation est ainsi plus locale et précise. Par exemple le procédé comporte une étape additionnelle d’estimation automatique de la qualité de la segmentation obtenue. Par exemple une telle étape pourra permettre de fournir un indicateur de fiabilité du résultat obtenu à l’opérateur et par exemple un score de qualité Q. Par exemple lorsque Q est en dessous d’un premier seuil prédéterminé, la segmentation obtenue ^^^ ou ^^^′ est automatiquement écartée
et/ou lorsque Q est entre ce premier seuil prédéterminé et un deuxième seuil prédéterminé, l’opérateur est averti automatiquement que la qualité de la segmentation obtenue est douteuse. Par exemple Q est calculé en évaluant la cor- rélation spatiale entre la carte de probabilités CP et la segmentation obtenue ^^^ ou ^^^′. Par exemple une estimation automatique de la qualité de la segmentation ^^^ ou ^^^′ est effectuée en calculant un score de qualité Q tel que : Q=Q0+α×r avec - r le coefficient de corrélation de Pearson, et - Q0et α estimés par un modèle de régression linéaire, où la variable expliquée est le coefficient de Dice entre la segmentation ^^^ ou ^^^′ et une segmentation obtenue manuellement, et la variable explicative est cette cor- rélation r. Le coefficient de corrélation de Pearson r est optionnel- lement calculé entre la carte de probabilités ^^ et une carte de probabilités idéale ^+^ obtenue à partir de la segmentation finale ^^^ ou ^^^′. Cette carte de probabilités idéale ^+^, très fortement corrélée avec la segmentation finale ^^^ ou ^^^′ dont elle est issue, est de la même taille que la carte de proba- bilités ^^. Elle permet le calcul du coefficient de corréla- tion de Pearson r (représentatif de la corrélation spatiale entre la carte de probabilités ^^ et la carte de probabilités idéale ^+^) sans avoir à binariser la carte de probabilités ^^ avec un seuil arbitraire qui ferait perdre de l’informa- tion. La carte de probabilités idéale ^+^ est calculée à partir de la formule suivante :
où p(i) est une valeur de probabilité d’un voxel i de la carte de probabilités idéale ^+^ et δ(i,j) la distance eucli- dienne entre le point associé au voxel i (usuellement le centre dudit voxel) et le point associé au voxel j (usuelle- ment le centre dudit voxel) qui est le point de contour de ^^^ ou ^^^′ le plus proche du point associé au voxel i. On normalise la distance δ(i,j) par la distance euclidienne maximale δmaxdes voxels de cette carte de probabilités ^+^.
Method for automatic segmentation of an organ on a three-dimensional medical image The present invention relates to the field of medical imaging for purposes for example of diagnosis, such as disease screening, for purposes for example of treatment, such as as the guidance of surgical instruments, etc. The invention relates more particularly to the segmentation of organs on three-dimensional medical images, that is to say the determination of the contour of the organ in such an image. BACKGROUND OF THE INVENTION Several technologies exist for obtaining three-dimensional images of a patient's organ. One of the most used is ultrasound, which allows images to be obtained quickly, possibly intraoperatively, using relatively inexpensive equipment compared to other technologies such as magnetic resonance imaging or MRI. Once the image has been obtained, it may prove useful for the practitioner to identify the outline of the organ to be analyzed in it. This is particularly the case if the outline of the organ is subsequently required to plan an operating procedure, or to merge different images together. This contour identification operation can be carried out manually, with tools allowing the contour of the organ to be drawn directly on the image. However, this is time-consuming, boring, and fails to meet two essential needs: having high precision and reproducibility. Image segmentation algorithms are known that exploit image properties such as intensity discontinuities in the image (Edge-Based Segmentation method based on gradients) or similarities between images. image elements (pixels for two-dimensional images, voxels for three-dimensional images; Region-Based Segmentation method). However, these algorithms are rarely effective on the entire contour of the organ present in the image. Thus, in the case of prostate ultrasound, it is difficult to distinguish the outline of the organ from the surrounding tissues, especially for the lower part of the prostate, mainly due to the low contrast between the prostate and non-prostatic areas. -prostatic, the granularity of the ultrasound images which may present speckles and/or speckles and the short range of gray levels available. OBJECT OF THE INVENTION The invention aims in particular to improve the segmentation of medical images. SUMMARY OF THE INVENTION For this purpose, according to the invention, a method of segmenting a three-dimensional image of at least one organ of a patient is provided, comprising at least the steps of: - extracting from the three-dimensional image of said organ, a probability map which assigns to each voxel of the image a probability of belonging to a contour of the organ on the image; - extract from said probability map, at least one target point based on said probability of belonging to the contour of the organ on the image, each target point being extracted from the probability map by applying to the probability map has at least one probability threshold of belonging to the outline of the organ on the image; - from each target point extracted in the previous step, deform a deformable model of this organ to obtain the three-dimensional segmentation of said organ on the image. The model is said to be deformable in that it can be applied to an image and deformed from at least one target point to correspond at all points to the contour of the organ sought in the image. We thus begin by first searching for at least one target point whose belonging to the contour of the organ present in the image has a probability considered sufficient and the deformable model is applied to the image at hand. from this target point. Thus, the target points whose belonging to the contour is most probable are considered to be exact and the definition of the contour is completed using the anatomical data of the deformable model. We therefore do not take into account the least probable points to apply the deformable model because this could introduce an error in the segmentation, by deforming the deformable model from target points whose probability of belonging to the contour of the organ would be too weak, and therefore for which the risk that these points would not truly belong to the contour of the organ would be too high. This combination significantly improves the segmentation achieved, especially as the number of target points retained by the process is high. In particular, with the invention, only the highest probability values are retained to determine the target points. Thus with the invention, the most doubtful areas of belonging to the organ are removed from the probability map instead of trying to adjust them. The probability map is three-dimensional. The probability map is not only defined by two unique values, one of which would represent belonging to the contour of the organ and the other would represent the absence of belonging to the contour of the organ. Usually, more than a single target point is extracted from the probability map. Usually, a cloud of target points is thus extracted from the probability map. We therefore understand that the threshold makes it possible to exclude all the voxels from the image for which the probability of belonging to the contour of the organ is too low. Optionally, the probability map is extracted using a model distinct from the deformable model. Optionally, the distinct model is defined by an at least partly automatic segmentation method. Optionally, this distinct model is defined by at least one artificial intelligence (or a neural network) trained from segmented images of the organ of at least other people. Optionally, the at least one threshold is global. Optionally, at least one threshold is local. Optionally, the at least one threshold has a value independent of the organ and/or the patient and/or the three-dimensional image and/or the probability map. Optionally, the at least one threshold has a value depending on the organ and/or the patient and/or the three-dimensional image and/or the probability map. Optionally at least one threshold is dynamic. Optionally the at least one dynamic threshold is a local threshold making it possible to select only local probability maxima from the probability map. Optionally, the value of at least one threshold can be modulated manually. Optionally the probability map is extracted via a model distinct from the deformable model, and in which the value of said at least one threshold can be modulated automatically if at least one characteristic of the three-dimensional image considered differs from those images from which the separate model was designed. Optionally, the deformable model is a statistical model of the shape of the organ to be segmented. A statistical shape model is a model which, as its name suggests, is defined from different shapes of the organ considered according to the frequency of these shapes in the population. Optionally, the deformable model has an initial shape defined from the average of the shapes of the same organ considered but of patients other than the targeted patient. Optionally, the initial shape of the deformable model is determined by an imaging technology other than ultrasound. Optionally, the deformable model has an initial shape combined with a segmentation of the same organ considered of this same patient, segmentation obtained from an image acquired prior to an acquisition of the image currently being segmented. Optionally, the segmentation obtained during a previous examination is determined by an imaging technology other than ultrasound. Optionally at least one target point can be added manually to said at least one target point extracted from the probability map. Optionally, if there are a number of target points lower than a predetermined threshold, the process is interrupted. Optionally, in the event of an interruption, the probability map is abandoned and the deformable model is deformed from manually added target points. Optionally, the deformable model is first pre-deformed. Optionally, the deformable model is pre-deformed by being globally pre-aligned with the target points. Optionally, the deformable model is deformed based on only part of the target points used in the pre-deformation step. Optionally: - from each target point extracted from the probability map, we pre-deform the deformable model, - then we select only part of the target points extracted from the probability map to form a subgroup of points -targets having a higher probability of belonging to the outline of the organ on the image than the target points not forming part of the subgroup, - from each target point of the subgroup, we deforms the deformable model. Optionally, the deformation of the deformable model is carried out by an iterative approach. Optionally, at each iteration, each target point is paired with the closest point of the deformable model. Optionally, at each iteration, the deformed model is first deformed globally via an affine transformation (and/or scaled) then deformed locally. Optionally the de- Formation of the deformable model is carried out iteratively by alternating at least one scaling phase with an elastic deformation phase. Optionally, during the scaling phase we also carry out a global deformation, and in which at each iteration, an elastic deformation field resulting from the elastic deformation is decomposed into an affine component and a non-residual deformation. -linear, the affine component being used for the global deformation during the following iteration. Optionally, the iterations are stopped when the distances between the target points and corresponding points of the deformable model are less than a predetermined threshold. Optionally, we estimate the quality of the segmentation obtained. Optionally, the quality of the segmentation obtained is estimated by evaluating a spatial correlation between the probability map and said segmentation. The invention also relates to an installation comprising at least one image-taking device and means for segmenting at least one image acquired by said device according to the method as mentioned above. The invention also relates to a computer program comprising instructions which cause an installation as mentioned above to execute the method as mentioned above. The invention also relates to a computer-readable recording medium, on which the computer program as mentioned above is recorded. Other characteristics and advantages of the invention will emerge on reading the following description of particular and non-limiting implementations of the invention. BRIEF DESCRIPTION OF THE DRAWINGS Reference will be made to the appended drawings, including: [Fig. 1] Figure 1 is a flowchart of a first mode of implementation of the method of the invention; [Fig. 2] Figure 2 is a flowchart of a second mode of implementation of the method of the invention; [Fig. 3] Figure 3 is a view of an ultrasound image of a prostate, on which target points are searched for; [Fig. 4] Figure 4 is a view of the same ultrasound image on which target points have been selected; [Fig. 5] Figure 5 is a view of the same ultrasound image on which a contour has been drawn; [Fig. 6] Figure 6 is a schematic view of an ultrasound device for implementing the method of the invention. DETAILED DESCRIPTION OF THE INVENTION The invention is described here in application to the segmentation of an ultrasound image of a patient's prostate. The invention is however applicable to the image of any organ and/or any patient (animal or human) and/or to any technology for image acquisition of such an organ. The invention is a method for segmenting a three-dimensional image. In the figures, for reasons of simplicity, the images represented are two-dimensional images. With reference to Figures 1 and 2, in the two implementations described here, the segmentation process is based on an Anatomical Model ^^ and an Artificial Intelligence Model ^^^. The Anatomical Model ^^ is developed from at least one image bank ^^ ^ including ^ images of the prostate. The ^ images are optionally images acquired with a technology different from that used for the acquisition of images which must subsequently be segmented and for example by MRI technology. Each image ^ is then segmented. The segmentation is for example carried out manually during human segmentation ^^ ^ . Optionally this segmentation is carried out by a practitioner or another qualified person. Then these segmentations are then processed by computer (C) to calculate an average of said segmentations (denoted average form ^^ subsequently) and deduce the Anatomical Model ^^. The Anatomical Model ^^ is a statistical model of deformable shape which is thus obtained by a statistical study of an average shape of the prostate and its variations. Note that the design of an anatomical model is known in itself and will not be further described here. The Artificial Intelligence Model ^^^ is developed from at least one image bank ^^ ^ comprising K images of the prostate. The image bank ^^ ^ is optionally different from the image bank ^^ ^ used to create the Anatomical Model ^^. Each image ^ is then segmented. The segmentation is for example carried out manually during human segmentation ^^ ^ . Optionally this segmentation is carried out by a practitioner or another qualified person. Preferably, the development of the Artificial Intelligence Model ^^^ is carried out from segmented images whose imaging modality corresponds to that of the images that we wishes to segment subsequently. Thus the ^ images here are images captured with the same technology as that used for the acquisition of the images which must be segmented subsequently, here ultrasound. These segmentations from ^^ ^ train artificial intelligence ^^ to train it to estimate for each voxel of a given image the probability that this voxel belongs to the contour of the prostate present in said image. We thus obtain the artificial intelligence model ^^^. It should be noted that the design and training of artificial intelligence to obtain an artificial intelligence model are known in themselves and will not be further described here. For this purpose, the artificial intelligence model can be obtained via automatic learning (or “machine learning” in English) and for example can be obtained via a network of neurons and for example through deep learning. First implementation To segment an image of a patient's prostate using the method according to the first mode of implementation shown in Figure 1, it is necessary to acquire an image ^^ of the patient's prostate, transmit the image ^^ to a computer system applying the Artificial Intelligence Model ^^^ to the image ^^ received as input. It will be understood that the neural network can be implemented on the same computer system or on a different system. We thus obtain as an output a prediction, in the form of a three-dimensional probability map ^^ in which each voxel of position ^, ^, ^ in the image is assigned a probability ^(^, ^ , ^) belonging to the contour of the prostate present in the image ^^. The probability map ^^ is thus a three-dimensional image. Advantageously, the probability of membership has a value V which is between two limits of a closed interval (for example between 0 and 1 or between 0 and 100). The probability map ^^ thus turns out to be precise because it is not only defined by binary values 0 or 1 but by a range of values V all included between two limits of a closed interval. This probability map ^^ can optionally be presented to an operator. Optionally, the probability of membership can be symbolized by a color code to simplify the understanding of the operator. For example, the greater the probability of belonging to the prostate, the warmer and closer its color is, and the lower the probability of belonging to the prostate, the colder the color. A zero probability of belonging to the prostate is thus symbolized by giving the associated voxel the color black and a certain probability of belonging to the prostate is thus symbolized by giving the associated voxel the color red. Given that certain voxels of the probability map ^^ can have a zero probability of belonging to the prostate (in particular the voxels internal to the prostate, it being recalled here that all the voxels of the image ^^ are concerned by the first segmentation step), this can lead to the fact that the probability map ^^ may not present fully closed contours. After having defined a global threshold ^ of probability of belonging (this global threshold ^ being predefined), corresponding to an acceptable probability of belonging, the computer system executes an algorithm for filtering the voxels of the probability map to select, during a selection operation ^, ^ target points each corresponding to a voxel of position ^, ^, ^ having a probability ^(^, ^, ^) greater than the global threshold ^. The threshold ^ is said to be global because it applies in the same way and with the same value for all voxels. Optionally, the threshold ^ is fixed, unlike a dynamic threshold whose value would be adapted to the probability map CP and/or to the image considered IP. This threshold ^ thus makes it possible to exclude all voxels for which the probability of belonging to the contour is too low. Consequently, the value of the threshold ^ is set for the intended application and the Artificial Intelligence Model ^^^ used at an optimized value. Preferably, we will modify the value of the threshold ^ according to the intended application and the Artificial Intelligence Model ^^^ used in order to set it at a new optimized value. The value of the threshold ^ may in particular be determined by a compromise between the desired precision and sensitivity of the model, established via the analysis of sensitivity-precision curves or ROC curves. The selection operation ^ is thus a filtering operation on the probability map ^^. In this way, we only retain target points presenting a very high probability of belonging to the contour of the prostate in the image ^^. We therefore understand that the target points are in three dimensions. We also understand that at the end of the selection operation ^, we obtain a cloud of target points. Depending on the image ^^, the number of target points thus extracted can be high. Therefore, at the end of the selection operation ^, certain groups of target points can already locally draw the contours of a prostate (in the form of at least one continuous surface and/or at least one surface discontinuous formed by points). However, given that other voxels of the probability map ^^ were discarded (because their probability ^(^, ^, ^) of belonging to the prostate in the image ^^ was too low and therefore lower than the threshold ^), these contours are necessarily partial. In no case, at the end of the selection operation ^, do we obtain a representation of a prostate whose contours are entirely closed. During a deformation operation ^, we apply the Anatomical Model ^^ to the image ^^ by deforming the Anatomical Model ^^ from the ^ target points retained at the end of the operation ^. We understand that the anatomical model ^^ thus makes it possible to determine the contour of the prostate on the image to be segmented based on the ^ target points. For example, the Anatomical Model ^^ draws one or more continuous surfaces between neighboring target points (by interpolating and/or connecting them) and completes said surfaces to draw a closed contour of the prostate by through the anatomical information it contains. The Anatomical Model ^^ only deforms from the target points. The Anatomical Model ^^ thus makes it possible to close the partial contour(s) which were defined by the cloud of target points. The deformation operation ^ can therefore be seen as a step of transformation of the Anatomical Model ^^ on the cloud of target points previously established. The deformation of the Anatomical Model ^^ can be carried out in a single phase or several phases. For example, the deformation of the Anatomical Model ^^ can be carried out by iteration. For example, at each iteration i: - each target point is paired with the closest point of the Anatomical Model ^^, - then the Anatomical Model ^^ is scaled (by scaling we mean that the Anatomical Model ^^ is as a whole enlarged or shrunk to better correspond to the target points – this scaling being particularly interesting for a patient whose organ in question is of much larger or much smaller dimensions than the average and therefore for which the organ considered is of much greater or much less important dimensions than the Anatomical Model ^^) and globally deformed via an affine transformation based on the distance between each target point considered and the point of the Anatomical Model ^^ which is paired with it (for example the transformation is determined so as to minimize the sum of said distances and/or for example the transformation is calculated with the Arun algorithm), - then the Anatomical Model ^ ^ is elastically deformed, under the action of external forces deforming the Anatomical Model ^^ towards the target points and internal forces ensuring the regularity of the surface of the Anatomical Model ^^ (an elastic deformation being well known from prior art, it will not be detailed further, it being understood that the external forces are obtained based on the distance between each target point considered and the point of the Anatomical Model ^^ which is paired with it and the internal forces are obtained based on the Anatomical Model ^^ before deformation and /or on a constraint of having a smooth deformed contour, the deformation being based on the sum of these external and internal forces to deduce a displacement of each of the vertices of the Anatomical Model ^^). The iterations i are stopped when the distances between the target points and the corresponding paired points of the Anatomical Model ^^ are, for all the target points, less than a predetermined threshold. This successively affine then elastic iterative approach allows the elastic deformations to progressively correct the errors of the previous affine transformation, and vice versa. We thus carry out an extrapolation of the contour from the Anatomical Model ^^. This iterative approach is particularly interesting in places where the Anatomical Model ^^ is very far from a target point or a group of target points and/or in places where there are few target points . This iterative approach makes it possible to generate a very good quality extrapolation of the contour from the Anatomical Model ^^ even in places where the Anatomical Model ^^ is very far from a target point or a group of target points and/or in places where there are few target points. We then obtain the segmentation ^ ^^ of the image ^^. Preferably, the deformation operation ^ takes into account at least one mesh consistency constraint when of the deformation of the Anatomical Model ^^: prevent the creation of a fold in the mesh, apply an elastic deformation or fluid mechanics constraint optionally according to a biomechanical model of the organ during the propagation of the deformation, … Optionally, at each iteration i and via Arun's algorithm, during the elastic deformation of the Anatomical Model ^^, we extract an affine transformation. For example, the elastic deformation field used during elastic deformation is decomposed using the Arun algorithm into an affine component and a non-linear residual deformation. It is then possible to use this affine component to scale said model during the following iteration i+1. This allows a coherent global deformation during iteration i+1 even in areas not covered by target points. Optionally, at least one of the internal forces is defined from at least one statistical study on the shape of the prostate (study identical or different from that which allowed the creation of the Anatomical Model ^^). An internal force thus makes it possible to further limit the risk of obtaining an anatomically improbable segmentation ^ ^^ . We understand that even if the Anatomical Model ^^ is deformed from ^ target points, the Anatomical Model ^^ can pass through only part of the n target points. It is possible to refine the selection of target points using a double filtering algorithm. Such double filtering is explained in relation to the second implementation mode below but can also be used with the first implementation mode. We can see in Figure 6 an example of a device usable for examining a patient within the framework of the method of the invention. This is an ultrasound device 10 comprising a housing 11 enclosing a computer system 12 connected to an ultrasound probe 13, a screen 14 and a computer network R. The computer system 12 is a computer which comprises at least one processor and memory. The memory here comprises the models ^^^ and ^^ and a computer program having instructions arranged to implement the method of the invention. Optionally the computer program has instructions arranged to implement the neural network itself implementing the artificial intelligence model ^^^. The ultrasound probe 13 allows the acquisition of images ^^ which will be processed by the computer system 12 and displayed on the screen 14. The network R is used for connection to a server containing for example reports, images of examinations of patients for which the practitioner or the organization within which he practices is responsible... Second implementation In the second mode of implementation shown in Figure 2, we have the Artificial Intelligence Model ^^^ and of the Anatomical Model ^^. We also have an old segmentation ^ ^^ ^^^ of the patient's prostate which is currently being examined (by old, we mean that it was carried out during a previous examination). During a combination operation ^^^^, the Anatomical Model ^^ is combined with the old segmentation ^ ^^ ^^^ , for example by replacing the average form ^^ contained in the ^^ by this segment. tation ^ ^^ ^^^ . Of course other combination possibilities are possible: for example taking an average of MS and this segmentation ^ ^^ ^^^ or even a weighted average of the average shape ^^ and this segmentation ^ ^^^ ^ ^ . We thus obtain a combined Anatomical Model ^^′. We note that the old segmentation ^ ^^ ^^^ may come from an ultrasound image or obtained via another technology such as an MRI image. As before, we start by acquiring an image ^^ of the patient's prostate. As before, the image ^^ is transmitted to a computer system in order to apply the artificial intelligence model on the image ^^ received as input. This makes it possible to obtain as an output a prediction in the form of a three-dimensional probability map ^^ in which each voxel of position ^, ^, ^ in the image is assigned a probability ^(^, ^, ^ ) belonging to the contour of the prostate. The probability map ^^ is thus a three-dimensional image. Advantageously, the probability of membership has a value V which is between two limits of an interval, the two limits being included (for example between 0 and 1 or between 0 and 100). The probability map ^^ thus turns out to be precise because it is not only defined by binary values 0 or 1 but by a range of values V all included between two limits of an interval, both limits being included. This probability map ^^ can optionally be presented to an operator. Optionally, the probability membership can be symbolized by a color code to simplify the understanding of the operator. For example, the greater the probability of belonging to the prostate, the warmer and closer the color, and the lower the probability of belonging to the prostate, the colder the color. A zero probability of belonging to the prostate is thus symbolized by giving the associated voxel the color black and a certain probability of belonging to the prostate is thus symbolized by giving the associated voxel the color red. Given that certain voxels of the probability map ^^ can have a zero probability of belonging to the prostate (in particular the voxels internal to the prostate, being reminded here that all the voxels of the image ^^ are concerned by the first segmentation step), this can lead to the fact that the probability map ^^ may not present fully closed contours. The computer system then executes an algorithm for filtering the voxels of the probability map to select, during a selection operation ^′, ^ target points for which a high degree of certainty of belonging to the contour has been assigned ( ie the probability ^(^, ^, ^) is high). For example, as for the first implementation, after having defined a fixed global threshold ^ of probability of membership (this global threshold ^ being predefined), corresponding to an acceptable probability of membership, the computer system executes an algorithm for filtering the voxels of the probability map to select, during a selection operation ^, ^ target points each corresponding to a voxel of position ^, ^, ^ having a higher probability ^(^, ^, ^) at the fixed global threshold ^. The inventors were able to observe that the difficulty of the segmentation task varies greatly from one image to another. This is why the use of a single fixed global threshold generally has the effect of over- or under-segmenting the outline of the organs. For this reason, the filtering algorithm preferably performs a second filtering of the filtered voxels, with a second threshold different from the first. As already noted, the second filtering is also applicable to the first implementation, so the following is indeed applicable to the first implementation. The second threshold is a dynamic threshold, ie a threshold specific to the image considered. The second threshold is optionally local, that is to say it is applied to only part of the CP probability map considered or its value depends on the area of the CP probability map to which it is applied, unlike a global threshold which has the same value over the entire CP probability map. For example, because the anterior part of the prostate is more difficult to segment than the posterior part of the prostate, the second threshold may have a lower value when applied in the area of the anterior part of the prostate than in the area of the posterior part of the prostate. The value of the second threshold is therefore adapted automatically (to each new probability map processed) and locally according to the zone(s) considered of a given probability map ^^. Depending on the application considered, this thresholding can exploit the gradient of the prediction to reject areas where the estimated contour is too diffuse or wide for us to be able to consider the segmented area as anatomically correct. During this second filtering step (part of the selection operation ^′), we will search for a reduced number of contour points, for example associated with local maxima of probability of presence of the contour of the organ. in these positions (figure 3 illustrates these local maxima). In practice, the program executed by the computer system proceeds as follows. We carry out a decomposition # of the image ^^ associated with the probability map ^^ into boxes (also called boxes) and for example into boxes of identical dimensions and for example into rectangular parallelepipeds or cubes. Optionally, each box has dimensions $^, $^, $^ with a resolution of $^ = $^ = $^ and for example $^ = $^ = $^ = & with α between 3 and 6 millimeters and by example between 5 and 5.5 millimeters. We say that the probability map considered has a local maximum in a given voxel '^(^ when there exists a neighborhood of '^(^ such that for any voxel in this neighborhood, the associated probability is less than or equal to that of '^(^. For a box, we thus select the voxel of maximum probability '^(^ within said box, to finally extract it as a target point. We repeat this process for a new box for extract a new target point, etc. We stop this process as soon as we manage to obtain ^ target points The number ^ (for example 100) is the number of target points which will be used to deform the model. , this number being predefined. The number ^ is predefined by the manufacturer and/or by the practitioner. Preferably, it is possible to consider that we have an insufficient number of target points, for example if the number of target points retained at the end of this second filtering is less than a predefined minimum threshold (for example by the manufacturer and/or the practitioner). The segmentation process is then interrupted to suggest to the operator to segment the organ without benefiting from the process of the invention. The selection operation ^′ is thus a filtering operation on the probability map ^^. In this way, we only retain target points presenting a very high probability of belonging to the contour of the prostate in the image ^^. We therefore understand that the target points are in three dimensions. We also understand that at the end of the selection operation ^′, we obtain a cloud of target points. Depending on the image ^^, the number of target points thus extracted can be high. Therefore, at the end of the selection operation ^′, certain groups of target points can already locally draw the contours of a prostate (in the form of at least one continuous surface and/or at least one minus a discontinuous surface formed by points). However, given that other voxels in the probability map ^^ were discarded (because their probability ^(^, ^, ^) of belonging to the prostate in the image ^^ was too low and therefore lower than the threshold ^), these contours are necessarily partial. In no case, at the end of the selection operation T′, do we obtain a representation of a prostate whose contours would be completely closed. Considering that we have obtained a sufficient number of target points (for example that ^ points have been obtained), the program begins the deformation operation ^' during which we apply the combined Anatomical Model ^^^^ to the image ^^ by deforming the combined Anatomical Model ^^^^ from the ^ target points retained at the end of the ^′ operation. We understand that the combined anatomical model thus makes it possible to determine the contour of the prostate from the target points. For example, the Combined Anatomical Model ^^^^ draws one or more continuous surfaces between neighboring target points (by interpolating and/or connecting them) and completes said surfaces to draw a closed contour of the prostate through the anatomical information it contains. The combined Anatomical Model ^^^^ only deforms from the target points. The combined Anatomical Model ^^^^ thus makes it possible to close the partial contour(s) which were defined by the cloud of target points. The deformation operation ^′ can therefore be seen as a step of transformation of the combined Anatomical Model ^^^^ on the cloud of target points. The deformation of the combined Anatomical Model ^^^^ can be carried out in a single phase or several phases. For example the deformation of the combined Anatomical Model ^^^^ can be carried out by iteration. For example, at each iteration i: - each target point is paired with the closest Combined Anatomical Model point ^^^^ e, - then the combined Anatomical Model ^^^^ is scaled (by scaling we mean that the combined Anatomical Model ^^^^ is as a whole enlarged or shrunk to better correspond to the target points – this scaling being particularly interesting for a patient whose organ considered is of much larger or much smaller dimensions than the average and therefore for whom the organ considered is of much larger or much smaller dimensions than the combined Anatomical Model ^^^^) and deformed globally via an affine transformation based on the distance between each target point considered and the point of the combined Anatomical Model ^^^^ which was paired with it (for example the transformation is determined so as to minimize the sum of said distances and/or for example the transformation is calculated with Arun's algorithm), - then the combined Anatomical Model ^^^^ is deformed elastically, under the action of external forces deforming the combined Anatomical Model ^^^^ towards the target points and internal forces ensuring the regularity of the surface of the combined Anatomical Model ^^^^ (an elastic deformation being well known from the prior art , it will not be detailed further, it being understood that the external forces are obtained based on the distance between each target point considered and the point of the combined Anatomical Model ^^^^ which is paired with it and the internal forces are obtained based on the combined Anatomical Model ^^^^ before deformation and/or on a constraint of having a smooth deformed contour, the deformation being based on the sum of these external and internal forces to deduce a displacement of each of the vertices of the combined Anatomical Model ^^^^). The iterations i are stopped when the distances between the target points and the corresponding paired points of the combined Anatomical Model ^^^^ are (for at least part of the target points and preferably for all the target points) less than one predetermined threshold. This successively affine then elastic iterative approach allows the elastic deformations to progressively correct the errors of the previous affine transformation, and vice versa. We thus carry out an extrapolation of the contour from the combined Anatomical Model ^^^^. This iterative approach is particularly interesting in places where the combined Anatomical Model ^^^^ is very far from a target point or a group of target points and/or in places where there are few points. targets. This iterative approach makes it possible to generate a very good quality contour extrapolation from the combined Anatomical Model ^^^^ even in places where the combined Anatomical Model ^^^^ is very far from a target point or of a grouping of target points and/or in places where there are few target points. This iterative approach is particularly interesting where the combined Anatomical Model ^^^^ is very far from a target point or a group of target points. Indeed, the combined Anatomical Model ^^^^ ^^ is thus deformed by iteration and in a localized manner to reach this or these target points and/or the area comprising this or these target points. This localized deformation is preferably of the same order of magnitude as the localized deformation carried out in the places where the Anatomical Model combined ^^^^ is close to a target point or a grouping of target points and is distorted in view of this target point or these target points. We then obtain the segmentation ^ ^^ ' of the image ^^. Preferably, the deformation operation ^ takes into account at least one mesh consistency constraint during the deformation of the combined Anatomical Model ^^^^: prevent the creation of a fold in the mesh, apply a constraint of elastic deformation or liquid mechanics during the propagation of the deformation, ... Optionally, at each iteration i and via the Arun algorithm, we extract during the elastic deformation of the Anatomical Model ^^, an affine updating transformation the scale. For example, the elastic deformation field used during elastic deformation is decomposed using the Arun algorithm into an affine component and a non-linear residual deformation. It is then possible to use this affine component to scale said model during the following iteration i+1. This allows a global deformation during iteration i+1 that is consistent even in areas not covered by target points. Optionally, at least one of the internal forces is defined from at least one statistical study on the shape of the prostate (study identical or different from that which allowed the creation of the Anatomical Model ^^). An internal force thus makes it possible to further limit the risk of obtaining an anatomically improbable segmentation ^ ^^ '. In Figure 5, we represent the segmentation ^ ^^ 'obtained using the combined Anatomical Model ^^^^ and the segmentation ^ ^^ which would have been obtained using only the Anatomical Model ^^. Optionally, the computer program preferably carries out an automatic comparison of the segmentation ^ ^^ (in the case of the first implementation), or of the segmentation ^ ^^ ' (in the case of the second implementation) ,with the old segmentation ^ ^^ ^^^ . Such a comparison (for example based on the Dice coefficient or the volume difference) makes it possible to warn the practitioner when the two segmentations of the same organ are not coherent with each other. For both implementations, it can be expected that the program allows a modulation of the influence of the prediction from the artificial intelligence model in the deformation of the anatomical model by varying the selectivity of the filtering process described upper. Using a cursor, a box with a value to complete (for example by a percentage) or a check box displayed on screen 14, the practitioner can adjust, in the segmentation obtained , the part of information predicted by the neural network and that completed by the anatomical model. If desired, the practitioner can therefore use only the deformable anatomical model. In a clinical routine, the practitioner can accept or reject the segmentation automatically proposed by the method of the invention whatever the implementation considered. The computer program thus leaves the practitioner with the possibility of modifying the segmentation proposed by the method by: - adding target points manually regardless of the number of target points selected by the method of the invention; - removing target points selected by the method of the invention. Then, the anatomical model is then deformed towards these target points. We have thus described a method making it possible to segment an image in three dimensions. Image segmentation makes it possible to obtain a contour which can be used to carry out, for example, image fusion or to plan an operating procedure. Of course, the invention is not limited to the embodiments described but encompasses any variant falling within the scope of the invention as defined by the claims. In particular, it is possible to combine the two modes of implementation in whole or in part. For example, we can introduce in the first mode of implementation double threshold filtering and/or the use of an old segmentation and/or the algorithm described comprising the steps of decomposing the probability map into a box. and look for a '^(^ for at least one of the boxes. Whatever the implementation considered, the filtering could be global or local. Whatever the implementation considered, the filtering could be fixed or dynamic If the filtering is dynamic, we can adapt the filtering so that for at least a first zone of the probability map, the value of the threshold depends on the value of at least one threshold of at least a second zone of the probability map. probability map close to or adjacent to the first. We could have a dynamic and global filtering and/or a. fixed and local filtering and/or fixed and global filtering and/or a dynamic and local threshold. The examination device may be different from that described by the technology used (MRI instead of ultrasound for example) or by the arrangement and/or choice of its components. The value of at least one threshold could be modulated manually, for example by the practitioner. The segmentation process may rely on another model than the ^^^ to establish the probability map. For example, in place of ^^^, the method could rely on an at least partly automatic segmentation method other than that of relying on the ^^^ model and for example any at least partly automatic segmentation method capable of generating localized information on the reliability of its result. In general, each of the steps of the process of the invention may be automatic or only partly automatic. Although here the statistical shape model has an average shape which is the average of the shapes of the same organ in a set of patients not including the patient considered, the statistical shape model could have an average shape which is the average of the forms of the same organ in a set of patients including the patient considered. Likewise, artificial intelligence could be trained from images of the same organ in a set of patients, including or not the patient in question. The model ^^ and/or the model ^^^ and/or the three-dimensional image to be segmented can be designed using statistical processing of segmented images whose image modality gerie differs from that of ultrasound and for example by MRI technology (T1 sequence and/or T2 sequence and/or DC sequence and/or ADC sequence etc.), by scanner technology (like PET Scan)…, Although here each image ^ and/or each image ^ is segmented manually during the pre-intervention phase, this segmentation can be carried out otherwise. For example for at least one image ^ and/or at least one image ^, the segmentation could be automatic or partly automatic (for example the segmentation is carried out automatically and then controlled and retouched by a human). Although here the image bank used to create the Artificial Intelligence Model is different from the Anatomical Model, the Artificial Intelligence Model can be established from at least one image bank used to establish the Anatomical Model. . The ^ images may be images captured with a technology different from that used for the acquisition of images which must subsequently be segmented such as MRI technology. The ^ images may be images captured with the same technology as that used for the acquisition of the images which must subsequently be segmented. In a preliminary step the practitioner will be able to manually place target points on the contour of the organ present in the image displayed on the screen 14 to initialize the placement of the anatomical model and the evolution of the nearest neighbors from the latter towards these indicated points. This initialization can be automated. Preferably, the target points used to initialize the placement of the deformable model will be different from those used by the present invention to deform the deformable model. The deformable model may have an initial shape defined by the shape of several organs (for example the average of said shapes) and/or by the shape of a single organ (and for example that of the patient obtained during a previous examination ) and/or by an analytical form (for example drawn by a practitioner or any other expert) and/or a combination of said aforementioned forms. In the case where the deformable model is linked to the shapes of several organs, we will therefore speak of a “statistical deformable shape model”. The shape of the patient's organ can be included or excluded to define the deformable model. We could also include only the patient's organ (whose shape varies from one image to another, for example) to create the “statistical deformable shape model”. For the two modes of implementation described above, the process may include one or more additional steps. For example, the method may include an additional step of pre-deformation of the anatomical model followed subsequently by the actual deformation step which has been described previously. For example, during the pre-deformation step, the anatomical model can be roughly deformed to quickly obtain a first deformation. The pre-deformation step is thus robust. Then during the deformation itself, we will continue to deform the anatomical model in a more precise manner as proposed above. Optionally, a first group of target points is thus extracted from the probability map by applying to the probability map with at least a first probability threshold of belonging to the contour of the organ on the image. This first threshold is then relatively unselective in order to be able to create a first group containing a large number of target points. The anatomical model is then pre-deformed using these target points. For example, the anatomical model is deformed so as to align itself with the different target points of the first group, each target point being paired with the nearest point of the anatomical model. This alignment is for example carried out using the Arun algorithm. Then, a second group of target points is extracted from the first group of target points by applying at least a second probability threshold of belonging to the outline of the organ on the image to the first group. This first threshold is more selective than the first threshold. This second threshold is thus defined so as to retain the points having a high probability of belonging to the contour. We then find ourselves in the configuration described with regard to the two embodiments and we can then proceed to the deformation step itself which was described previously (with regard to the two embodiments) based on this second group of target points. This deformation is thus more local and precise. For example, the method includes an additional step of automatic estimation of the quality of the segmentation obtained. For example, such a step could make it possible to provide an indicator of reliability of the result obtained to the operator and for example a quality score Q. For example when Q is below a first predetermined threshold, the segmentation obtained ^ ^^ or ^ ^^ ′ is automatically discarded and/or when Q is between this first predetermined threshold and a second predetermined threshold, the operator is automatically warned that the quality of the segmentation obtained is doubtful. For example Q is calculated by evaluating the spatial correlation between the probability map CP and the segmentation obtained ^ ^^ or ^ ^^ ′. For example, an automatic estimation of the quality of the segmentation ^ ^^ or ^ ^^ ′ is carried out by calculating a quality score Q such that: Q=Q0+α×r with - r the Pearson correlation coefficient, and - Q0and α estimated by a linear regression model, where the explained variable is the Dice coefficient between the segmentation ^ ^^ or ^ ^^ ′ and a segmentation obtained manually, and the explanatory variable is this correlation r. The Pearson correlation coefficient r is optionally calculated between the probability map ^^ and an ideal probability map ^ + ^ obtained from the final segmentation ^ ^^ or ^ ^^ ′. This ideal probability map ^ + ^, very strongly correlated with the final segmentation ^ ^^ or ^ ^^ ′ from which it comes, is of the same size as the probability map ^^. It allows the calculation of the Pearson correlation coefficient r (representative of the spatial correlation between the probability map ^^ and the ideal probability map ^ + ^) without having to binarize the probability map ^^ with an arbitrary threshold which would cause information to be lost. The ideal probability map ^ + ^ is calculated from the following formula: where p(i) is a probability value of a voxel i of the ideal probability map ^ + ^ and δ(i,j) the Euclidean distance between the point associated with voxel i (usually the center of said voxel) and the point associated with voxel j (usually the center of said voxel) which is the contour point of ^ ^^ or ^ ^^ ′ closest to the point associated with voxel i. We normalize the distance δ(i,j) by the maximum Euclidean distance δmax of the voxels of this probability map ^ + ^.
Claims
REVENDICATIONS 1. Procédé de segmentation d’une image en trois dimensions d’au moins un organe d’un patient comprenant au moins les étapes de : - extraire de l’image en trois dimensions dudit organe, une carte de probabilités qui affecte à chaque voxel de l’image une probabilité d’appartenance à un contour de l’or- gane sur l’image ; - extraire de ladite carte de probabilités, au moins un point-cible en se basant sur ladite probabilité d’apparte- nance au contour de l’organe sur l’image, chaque point-cible étant extrait de la carte de probabilités en appliquant à la carte de probabilités au moins un seuil de probabilité d’ap- partenance au contour de l’organe sur l’image ; - à partir de chaque point-cible extrait à l’étape précé- dente, déformer un modèle déformable de cet organe pour ob- tenir la segmentation en trois dimensions dudit organe sur l’image. 2. Procédé selon la revendication 1, dans lequel la carte de probabilités est extraite par l’intermédiaire d’un modèle distinct du modèle déformable. 3. Procédé selon la revendication 2, dans lequel le modèle distinct est défini par une méthode de segmentation au moins en partie automatique. 4. Procédé selon la revendication 3, dans lequel le modèle distinct est défini par au moins une intelligence artifi- cielle entraînée à partir d’images segmentées de l’organe d’au moins d’autres personnes. 5. Procédé selon l’une des revendications précédentes, dans lequel le au moins un seuil est global ou local.
6. Procédé selon l’une des revendications 1 à 5, dans le- quel le au moins un seuil a une valeur indépendante, ou dépendante, de l’organe et/ou du patient et/ou de l’image en trois dimensions et/ou de la carte de probabilités. 7. Procédé selon l’une des revendications 1 à 6, dans le- quel le au moins un seuil est dynamique. 8. Procédé selon la revendication 7, dans lequel le au moins un seuil dynamique est un seuil local permettant de sélectionner uniquement des maxima locaux de probabilité de la carte de probabilités. 9. Procédé selon l’une des revendications précédentes, dans lequel le modèle déformable est un modèle statistique de forme de l’organe à segmenter. 10. Procédé selon l’une des revendications précédentes, dans lequel le modèle déformable a une forme initiale définie à partir de la moyenne des formes du même organe considéré mais d’autres patients que le patient visé. 11. Procédé selon l’une des revendications précédentes, dans lequel la forme initiale du modèle déformable est dé- terminée par une autre technologie d’imagerie que l’échogra- phie. 12. Procédé selon l’une des revendications précédentes, dans lequel le modèle déformable a une forme initiale combi- née avec une segmentation du même organe considéré de ce même patient, segmentation obtenue à partir d’une image acquise antérieurement à une acquisition de l’image présentement en cours de segmentation. 13. Procédé selon l’une des revendications précédentes, dans lequel : - à partir de chaque point-cible extrait de la carte des probabilités, on pré-déforme le modèle déformable,
- puis on sélectionne une partie seulement des points-cibles extraits de la carte des probabilités pour former un sous- groupe de points-cibles ayant une probabilité d’appartenance au contour de l’organe sur l’image plus forte que les points- cibles ne faisant pas partie du sous-groupe, - à partir de chaque point-cible du sous-groupe, on déforme le modèle déformable. 14. Procédé selon l’une des revendications précédentes, dans lequel la déformation du modèle déformable est réalisée de manière itérative en alternant au moins une phase de mise à l’échelle avec une phase de déformation élastique. 15. Procédé selon la revendication 14, dans lequel au cours de la phase de mise à l’échelle on effectue également une déformable globale, et dans lequel à chaque itération, un champ de déformation élastique issu de la déformation élas- tique est décomposé en une composante affine et une déforma- tion résiduelle non-linéaire, la composante affine étant uti- lisée pour la déformation globale lors de l’itération sui- vante. 16. Procédé selon l’une des revendications précédentes, dans lequel on estime la qualité de la segmentation obtenue en évaluant une corrélation spatiale entre la carte de pro- babilités et ladite segmentation. 17. Procédé selon l’une des revendications précédentes, dans lequel si on a un nombre de points-cibles inférieur à un seuil prédéterminé, le procédé est interrompu. 18. Installation comprenant au moins un appareil de prise d’images et des moyens pour segmenter au moins une image acquise par ledit appareil selon le procédé selon l’une des revendications précédentes. 19. Programme d’ordinateur comprenant des instructions qui
conduisent un processeur d’une installation selon la revendication 18 à exécuter le procédé selon l’une des revendications 1 à 17. 20. Support d'enregistrement lisible par ordinateur, sur lequel est enregistré le programme d’ordinateur selon la revendication 19.
CLAIMS 1. Method for segmenting a three-dimensional image of at least one organ of a patient comprising at least the steps of: - extracting from the three-dimensional image of said organ, a probability map which assigns to each voxel of the image a probability of belonging to a contour of the organ on the image; - extract from said probability map, at least one target point based on said probability of belonging to the contour of the organ on the image, each target point being extracted from the probability map by applying to the probability map has at least one probability threshold of belonging to the outline of the organ on the image; - from each target point extracted in the previous step, deform a deformable model of this organ to obtain the three-dimensional segmentation of said organ on the image. 2. Method according to claim 1, in which the probability map is extracted via a model distinct from the deformable model. 3. Method according to claim 2, in which the distinct model is defined by an at least partly automatic segmentation method. 4. Method according to claim 3, in which the distinct model is defined by at least one artificial intelligence trained from segmented images of the organ of at least other people. 5. Method according to one of the preceding claims, in which the at least one threshold is global or local. 6. Method according to one of claims 1 to 5, in which the at least one threshold has a value independent, or dependent, of the organ and/or the patient and/or the three-dimensional image and /or the probability map. 7. Method according to one of claims 1 to 6, in which at least one threshold is dynamic. 8. Method according to claim 7, in which the at least one dynamic threshold is a local threshold making it possible to select only local probability maxima from the probability map. 9. Method according to one of the preceding claims, in which the deformable model is a statistical model of the shape of the organ to be segmented. 10. Method according to one of the preceding claims, in which the deformable model has an initial shape defined from the average of the shapes of the same organ considered but of patients other than the targeted patient. 11. Method according to one of the preceding claims, in which the initial shape of the deformable model is determined by an imaging technology other than ultrasound. 12. Method according to one of the preceding claims, in which the deformable model has an initial shape combined with a segmentation of the same organ considered of this same patient, segmentation obtained from an image acquired prior to an acquisition of the The image currently being segmented. 13. Method according to one of the preceding claims, in which: - from each target point extracted from the probability map, the deformable model is pre-deformed, - then we select only part of the target points extracted from the probability map to form a subgroup of target points having a higher probability of belonging to the contour of the organ on the image than the target points not being part of the subgroup, - from each target point of the subgroup, we deform the deformable model. 14. Method according to one of the preceding claims, in which the deformation of the deformable model is carried out iteratively by alternating at least one scaling phase with an elastic deformation phase. 15. Method according to claim 14, in which during the scaling phase a global deformability is also carried out, and in which at each iteration, an elastic deformation field resulting from the elastic deformation is decomposed into an affine component and a non-linear residual deformation, the affine component being used for the global deformation during the following iteration. 16. Method according to one of the preceding claims, in which the quality of the segmentation obtained is estimated by evaluating a spatial correlation between the probability map and said segmentation. 17. Method according to one of the preceding claims, in which if there is a number of target points less than a predetermined threshold, the method is interrupted. 18. Installation comprising at least one image capturing device and means for segmenting at least one image acquired by said device according to the method according to one of the preceding claims. 19. Computer program comprising instructions which cause a processor of an installation according to claim 18 to execute the method according to one of claims 1 to 17. 20. Computer-readable recording medium on which the computer program according to claim 19 is recorded.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2212085A FR3142275B1 (en) | 2022-11-21 | 2022-11-21 | Method for automatic segmentation of an organ on a three-dimensional medical image |
FRFR2212085 | 2022-11-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024110407A1 true WO2024110407A1 (en) | 2024-05-30 |
Family
ID=85727230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2023/082439 WO2024110407A1 (en) | 2022-11-21 | 2023-11-20 | Method for automatically segmenting an organ on a three-dimensional medical image |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR3142275B1 (en) |
WO (1) | WO2024110407A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110116698A1 (en) * | 2009-11-18 | 2011-05-19 | Siemens Corporation | Method and System for Segmentation of the Prostate in 3D Magnetic Resonance Images |
-
2022
- 2022-11-21 FR FR2212085A patent/FR3142275B1/en active Active
-
2023
- 2023-11-20 WO PCT/EP2023/082439 patent/WO2024110407A1/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110116698A1 (en) * | 2009-11-18 | 2011-05-19 | Siemens Corporation | Method and System for Segmentation of the Prostate in 3D Magnetic Resonance Images |
Non-Patent Citations (2)
Title |
---|
ESFANDIARKHANI MINA ET AL: "A generalized active shape model for segmentation of liver in low-contrast CT volumes", COMPUTERS IN BIOLOGY AND MEDICINE, NEW YORK, NY, US, vol. 82, 24 January 2017 (2017-01-24), pages 59 - 70, XP029929492, ISSN: 0010-4825, DOI: 10.1016/J.COMPBIOMED.2017.01.009 * |
SAMRA IRSHAD ET AL: "Improved Abdominal Multi-Organ Segmentation via 3D Boundary-Constrained Deep Neural Networks", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 9 October 2022 (2022-10-09), XP091338197 * |
Also Published As
Publication number | Publication date |
---|---|
FR3142275B1 (en) | 2024-10-04 |
FR3142275A1 (en) | 2024-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shoeibi et al. | Applications of deep learning techniques for automated multiple sclerosis detection using magnetic resonance imaging: A review | |
FR2862788A1 (en) | Subject`s e.g. human, image data analyzing method for e.g. X-ray system, involves analyzing temporal change image of patient via computer aided detection algorithm, to identify feature of interest in image | |
EP2401719B1 (en) | Methods for segmenting images and detecting specific structures | |
EP2435985B1 (en) | Method of quantifying the change of pathologies involving changes in the volume of bodies, especially of tumors | |
CN113424222A (en) | System and method for providing stroke lesion segmentation using a conditional generation countermeasure network | |
WO2020002810A1 (en) | Detecting nerves in a series of ultrasound images by determining regions of interest which are defined by detecting arteries | |
Jagan Mohan et al. | Deep learning for diabetic retinopathy detection: Challenges and opportunities | |
Kugelman et al. | A review of generative adversarial network applications in optical coherence tomography image analysis | |
US20220327691A1 (en) | Method and system to assess medical images for suitability in clinical interpretation | |
CA3176333A1 (en) | Method for determining an ablation region based on deep learning | |
WO2024110407A1 (en) | Method for automatically segmenting an organ on a three-dimensional medical image | |
Barın et al. | An improved hair removal algorithm for dermoscopy images | |
Putri et al. | Retracted: Implementation of Neural Network Classification for Diabetes Mellitus Prediction System through Iridology Image | |
WO2023280708A1 (en) | Automatic method for segmentation of a thrombus and a lesion in a three-dimensional brain image | |
WO2021234304A1 (en) | Method for predicting the recurrence of a lesion by image analysis | |
Upadhyay et al. | U-Net based multi-level texture suppression for vessel segmentation in low contrast regions | |
Jalali et al. | VGA‐Net: Vessel graph based attentional U‐Net for retinal vessel segmentation | |
KR102282334B1 (en) | Method for optic disc classification | |
Safmi et al. | The Augmentation Data of Retina Image for Blood Vessel Segmentation Using U-Net Convolutional Neural Network Method. | |
de Almeida Simões | Image Quality Improvement of Medical Images Using Deep Learning for Computer-Aided Diagnosis | |
BE1028729B1 (en) | IMAGE ANALYSIS METHOD FOR BETTER CLINICAL DECISION MAKING | |
Galiger et al. | Explainable patch-level histopathology tissue type detection with bag-of-local-features models and data augmentation | |
Kumar et al. | Computational Analysis for Candidate X-ray Images Using Generative Adversarial Network | |
Wang et al. | vU-net: Accurate cell edge segmentation in time-lapse fluorescence live cell images based on convolutional neural network | |
Jemima et al. | Deep Learning Based Patient Care Mobile Application for Detecting Skin Cancer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23810312 Country of ref document: EP Kind code of ref document: A1 |