FR3059807A1 - METHOD FOR TRACKING A TARGET IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS - Google Patents

METHOD FOR TRACKING A TARGET IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS Download PDF

Info

Publication number
FR3059807A1
FR3059807A1 FR1661980A FR1661980A FR3059807A1 FR 3059807 A1 FR3059807 A1 FR 3059807A1 FR 1661980 A FR1661980 A FR 1661980A FR 1661980 A FR1661980 A FR 1661980A FR 3059807 A1 FR3059807 A1 FR 3059807A1
Authority
FR
France
Prior art keywords
image
interest
area
current
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1661980A
Other languages
French (fr)
Inventor
Lucas Royer
Alexandre Krupa
Maud Marchal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut Nat Sciences Appliquees
Institut National de Recherche en Informatique et en Automatique INRIA
Institut National des Sciences Appliquees INSA
B Com SAS
Original Assignee
Institut Nat Sciences Appliquees
Institut National de Recherche en Informatique et en Automatique INRIA
Institut National des Sciences Appliquees INSA
B Com SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut Nat Sciences Appliquees, Institut National de Recherche en Informatique et en Automatique INRIA, Institut National des Sciences Appliquees INSA, B Com SAS filed Critical Institut Nat Sciences Appliquees
Priority to FR1661980A priority Critical patent/FR3059807A1/en
Priority to PCT/FR2017/053244 priority patent/WO2018104609A1/en
Publication of FR3059807A1 publication Critical patent/FR3059807A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de suivi de cible dans une séquence d'images numériques médicales, une zone d'intérêt ayant été prédéterminée dans une image initiale de la séquence, dite image de référence (It0), ledit procédé comprenant les étapes suivantes, mises en œuvre pour une image courante de la séquence, distincte de l'image de référence : - Obtention (E1) d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence ; - Obtention (E2) d'une mesure de confiance par élément d'image pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image; - Transformation (E3) de la position initiale du modèle de la zone d'intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, - Suite à la transformation, détection (E5) dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues pour l'image de référence et l'image courante et correction (E6) du au moins un élément détecté au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.The invention relates to a target tracking method in a sequence of medical digital images, an area of interest having been predetermined in an initial image of the sequence, called reference image (It0), said method comprising the following steps, implemented for a current image of the sequence, distinct from the reference image: - Obtaining (E1) an initial position of a model of a zone of interest in the current image from a position a model of a zone of interest in a previous image of the sequence; - Obtaining (E2) a confidence measure per image element for said reference image and for said current image, said measurement being representative of a confidence in an intensity of the image element; Transformation (E3) of the initial position of the model of the area of interest in the current image comprising minimizing a cost function based at least on a difference between the intensities of the current image and the image reference, - Following the transformation, detection (E5) in the area of interest of the reference image of at least one image element to be corrected, based on the confidence measurements obtained for the reference image and the current image and correction (E6) of the at least one detected element at least from the intensity of at least one image element of the area of interest of the current image.

Description

Titulaire(s) : BoCOM,INRIA Etablissement public, INSTITUT NATIONAL SCIENCES APPLIQUEES Etablissement public.Holder (s): BoCOM, INRIA Public establishment, NATIONAL INSTITUTE APPLIED SCIENCES Public establishment.

Demande(s) d’extensionExtension request (s)

Mandataire(s) : AVOXA.Agent (s): AVOXA.

PROCEDE DE SUIVI DE CIBLE DANS UNE SEQUENCE D'IMAGES MEDICALES, DISPOSITIF, EQUIPEMENT TERMINAL ET PROGRAMMES D'ORDINATEURS ASSOCIES.TARGET TRACKING METHOD IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS THEREOF.

FR 3 059 807 - A1FR 3 059 807 - A1

L'invention concerne un procédé de suivi de cible dans une séquence d'images numériques médicales, une zone d'intérêt ayant été prédéterminée dans une image initiale de la séquence, dite image de référence (lt0), ledit procédé comprenant les étapes suivantes, mises en oeuvre pour une image courante de la séquence, distincte de l'image de référence:The invention relates to a method of target tracking in a sequence of medical digital images, an area of interest having been predetermined in an initial image of the sequence, called the reference image (l t0 ), said method comprising the following steps , implemented for a current image of the sequence, distinct from the reference image:

- Obtention (E,) d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence;- Obtaining (E,) an initial position of a model of an area of interest in the current image from a position of a model of an area of interest in a previous image of the sequence ;

- Obtention (E2) d'une mesure de confiance par élément d'image pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image;- Obtaining (E2) a confidence measurement by image element for said reference image and for said current image, said measurement being representative of confidence in an intensity of the image element;

- Transformation (E3) de la position initiale du modèle de la zone d’intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence,- Transformation (E3) of the initial position of the model of the area of interest in the current image comprising a minimization of a cost function based at least on a difference between the intensities of the current image and of the image reference,

- Suite à la transformation, détection (E5) dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues pour l'image de référence et l'image courante et correction (E6) du au moins un élément détecté au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.- Following the transformation, detection (E5) in the area of interest of the reference image of at least one image element to be corrected, on the basis of the confidence measurements obtained for the reference image and the current image and correction (E6) of the at least one element detected at least from the intensity of at least one image element of the area of interest of the current image.

ii

Procédé de suivi de cible dans une séquence d'images médicales, dispositif, équipement terminal et programmes d'ordinateurs associésMethod for tracking target in a sequence of medical images, device, terminal equipment and associated computer programs

1. Domaine de l'invention1. Field of the invention

Le domaine de l'invention est celui du traitement des images médicales.The field of the invention is that of processing medical images.

Plus précisément, l'invention concerne un procédé de suivi d'une cible clinique dans une séquence d'images numériques médicales.More specifically, the invention relates to a method for monitoring a clinical target in a sequence of digital medical images.

L'invention trouve notamment une application dans le traitement des images obtenues par une technique d'imagerie par exemple de type ultrasonore ou endoscopique.The invention finds particular application in the processing of images obtained by an imaging technique, for example of the ultrasonic or endoscopic type.

2. Etat de la technique2. State of the art

Les techniques d'imagerie par ultrasons ou d'endoscopie sont largement utilisées dans le domaine médical pour aider les médecins à visualiser en temps-réel une cible clinique et/ou un outil chirurgical lors d'une intervention chirurgicale ou d'un examen invasif destiné à diagnostiquer une pathologie. Ainsi par exemple, les techniques d'échographie sont fréquemment utilisées lors d'une intervention nécessitant l'insertion d'une aiguille, et notamment en radiologie interventionnelle.Ultrasound or endoscopy imaging techniques are widely used in the medical field to help doctors visualize in real time a clinical target and / or a surgical tool during a surgical intervention or an invasive examination intended for to diagnose a pathology. For example, ultrasound techniques are frequently used during an intervention requiring the insertion of a needle, and in particular in interventional radiology.

Il est parfois difficile pour un chirurgien de repérer par lui-même certaines cibles cliniques, telles que des tumeurs, dans une image obtenue par une technique d'imagerie par ultrasons ou par endoscopie. Afin de l'aider, on a mis à disposition des chirurgiens des outils permettant d'estimer automatiquement la position d'une cible chirurgicale dans une image échographique.It is sometimes difficult for a surgeon to identify certain clinical targets for himself, such as tumors, in an image obtained by an ultrasound or endoscopy imaging technique. To help him, we provided surgeons with tools to automatically estimate the position of a surgical target in an ultrasound image.

On connaît des méthodes de suivi de cible qui reposent sur la détermination d'une transformation permettant d'aligner différentes images au cours du temps. Pour ce faire, ces approches sont généralement basées sur une fonction de coût mesurant la similarité entre ces images. Les méthodes de suivi peuvent être classées selon deux catégories :Target tracking methods are known which are based on the determination of a transformation making it possible to align different images over time. To do this, these approaches are generally based on a cost function measuring the similarity between these images. Monitoring methods can be classified into two categories:

2.1 Stratégies par paires2.1 Pairwise strategies

Un premier type d'approches consiste à déterminer la position de structures anatomiques par comparaison successive entre différentes paires d'images. De nombreuses méthodes sont basées sur ce modèle telles que les approches proposées par Shekhar and Zagrodsky et Heyde et al.A first type of approach consists in determining the position of anatomical structures by successive comparison between different pairs of images. Many methods are based on this model such as the approaches proposed by Shekhar and Zagrodsky and Heyde et al.

De manière générale, la transformation optimale T est obtenue grâce à la minimisation de la fonction de coût suivante:In general, the optimal transformation T is obtained by minimizing the following cost function:

arg mn S(Ir,T o It) + R(T)arg mn S (I r , T o I t ) + R (T)

Dans cette fonction de coût, Ir et It représentent respectivement l'image de référence et l'image courante correspondant à la dernière image acquise au cours du temps.. Le premier terme de la fonction de coût, dénommé S, permet de mesurer l'alignement entre une image de référence (Ir) et une image courante transformée (T°It). Un deuxième terme, appelé R, permet de pénaliser les transformations non réalistes. Le choix de l'image de l'image de référence diffère en fonction des méthodes proposées et peut avoir un impact sur la qualité des résultats de suivi. Généralement, les stratégies par paires peuvent être divisées en trois sous-catégories.In this cost function, Ir and It respectively represent the reference image and the current image corresponding to the last image acquired over time. The first term of the cost function, called S, makes it possible to measure the alignment between a reference image (Ir) and a transformed current image (T ° It). A second term, called R, makes it possible to penalize unrealistic transformations. The choice of the image of the reference image differs according to the methods proposed and can have an impact on the quality of the monitoring results. Generally, pair strategies can be divided into three subcategories.

2.1.1 Stratégies par paires non-itératives2.1.1 Strategies by non-iterative pairs

A chaque acquisition, ces méthodes comparent l'image courante à une image de référence fixe. Généralement, l'image initiale de la séquence est choisie comme image de référence. Ainsi la fonction de coût décrite ci-dessus peut être exprimée sous la forme suivante :With each acquisition, these methods compare the current image to a fixed reference image. Generally, the initial image of the sequence is chosen as the reference image. Thus the cost function described above can be expressed in the following form:

AÎgminS(Ito,T olt) + R(T)AÎgminS (I to , T ol t ) + R (T)

Où ItO représente l'image initiale de la séquence. Cependant, la performance de cette approche est liée au choix de l'image de référence. En effet, des résultats de suivi imprécis peuvent être obtenus si la qualité de l'image de référence n'est pas suffisante.Where ItO represents the initial image of the sequence. However, the performance of this approach is linked to the choice of the reference image. In fact, imprecise monitoring results can be obtained if the quality of the reference image is not sufficient.

2.1.2 Stratégies par paires itératives2.1.2 Strategies by iterative pairs

Pour pallier le problème précédent, ce deuxième type d'approche permet de comparer l'image courante à son image précédente. La fonction de coût peut donc être exprimée sous la forme suivante:To overcome the previous problem, this second type of approach makes it possible to compare the current image with its previous image. The cost function can therefore be expressed in the following form:

argmm^TUt o It^,T o It) + E(T)argmm ^ TUt o I t ^, T o I t ) + E (T)

Où It-1 représente l'image précédant l'image courante. La transformation optimale Tt-1 représente la transformation optimale calculée à l'étape précédente. Cependant, l'inconvénient de ce type d'approche est lié à la dérive de l'algorithme. En effet, des résultats de suivi imprécis peuvent être observés à cause d'une accumulation de l'erreur au cours du temps.Where It-1 represents the image preceding the current image. The optimal transformation Tt-1 represents the optimal transformation calculated in the previous step. However, the drawback of this type of approach is linked to the drift of the algorithm. In fact, imprecise monitoring results can be observed due to an accumulation of the error over time.

2.1.3 Stratégies par paires hybrides2.1.3 Strategies by hybrid pairs

Afin de compenser cette dérive, un troisième type d'approche, proposé par Matthews et al., 2004., permet de combiner les deux précédentes stratégies. Pour ce faire, la transformation optimale T est initialisée en minimisant une fonction de coût entre l'image courante et l'image précédente. Ensuite, cette transformation est affinée en utilisant une fonction de coût entre l'image courante et l'image initiale. Cependant, ce type d'approche reste sensible à la qualité de l'image initiale.In order to compensate for this drift, a third type of approach, proposed by Matthews et al., 2004., makes it possible to combine the two previous strategies. To do this, the optimal transformation T is initialized by minimizing a cost function between the current image and the previous image. Then, this transformation is refined using a cost function between the current image and the initial image. However, this type of approach remains sensitive to the quality of the initial image.

2.2 Stratégies par groupes2.2 Group strategies

Contrairement aux méthodes présentées ci-dessus, les stratégies par groupe comparent toutes les images de la séquence à l'image courante. A chaque nouvelle image courante acquise, ces approches prennent en compte toute l'information de la séquence afin d'obtenir un résultat de suivi plus robuste. Pour des applications basées sur l'image échographique, différents exemples ont été proposés par Metz et al. et Vijayan et al. Ces méthodes permettent de suivre une cible anatomique en comparant l'image courante avec une image synthétique obtenue à partir des images précédentes. L'estimation des déplacements des cibles est obtenue à partir de la minimisation de la fonction de coût suivante :Unlike the methods presented above, group strategies compare all of the images in the sequence to the current image. With each new current image acquired, these approaches take into account all of the information in the sequence in order to obtain a more robust monitoring result. For applications based on the ultrasound image, various examples have been proposed by Metz et al. and Vijayan et al. These methods make it possible to follow an anatomical target by comparing the current image with a synthetic image obtained from the previous images. The estimation of the target displacements is obtained from the minimization of the following cost function:

argniiiiS(Im,T o It) + R(T)argniiiiS (I m , T o I t ) + R (T)

Où Im représente l'image synthétique générée à partir des images précédentes. Pour l'obtenir, Metz et al. propose d'utiliser l'équation suivante:Where Im represents the synthetic image generated from the previous images. To obtain it, Metz et al. suggests using the following equation:

tk=t0 t k = t 0

Ni représente le nombre d'images de la séquence. P(tk) représente le vecteur des positions des voxels appartenant à la cible au temps Tk. Ces positions dépendent directement de la transformation T. Itk(Ptk) représente l'intensité des pixels/voxels de l'image au temps tk. On peut voir que l'image de référence synthétique est obtenue à partir de la moyenne de toutes les images précédant l'image courante. Ainsi, cette méthode a l'avantage d'éviter de sélectionner une image de référence. De plus, elle permet de s'affranchir des problèmes liés à la dérive. En revanche, la principale limitation de ces stratégies est liée au fait que l'intensité de la structure doit rester constante au cours du temps. Cependant, l'intensité d'une structure est souvent affectée par différents effets indésirables comme la présence de bruit, d'artefacts, ou d'ombres.Ni represents the number of images in the sequence. P (tk) represents the vector of the positions of the voxels belonging to the target at time Tk. These positions depend directly on the transformation T. Itk (Ptk) represents the intensity of the pixels / voxels of the image at time tk. We can see that the synthetic reference image is obtained from the average of all the images preceding the current image. Thus, this method has the advantage of avoiding selecting a reference image. In addition, it overcomes the problems associated with drift. On the other hand, the main limitation of these strategies is linked to the fact that the intensity of the structure must remain constant over time. However, the intensity of a structure is often affected by various undesirable effects such as the presence of noise, artifacts, or shadows.

3. Inconvénients de l'art antérieur3. Disadvantages of the prior art

Un inconvénient de ces méthodes est que leur performance est généralement perturbée par des artéfacts présents dans les images de la séquence et dont le type diffère selon la modalité utilisée. Par exemple, les images échographiques sont affectées par des effets d'ombres et de miroirs. De plus, les changements de gains et d'orientation de sonde peuvent aussi avoir un impact sur ces images. L'imagerie endoscopique peut aussi être affectée par différents artéfacts tels que des réflexions spéculaires, des occultations, et des changements d'illuminations.A disadvantage of these methods is that their performance is generally disturbed by artefacts present in the images of the sequence and whose type differs according to the modality used. For example, ultrasound images are affected by shadow and mirror effects. In addition, changes in probe gain and orientation can also have an impact on these images. Endoscopic imaging can also be affected by various artefacts such as specular reflections, occultations, and changes in illumination.

On connaît aussi du document de Royer et al intitulé « Real-time target tracking of soft tissues in 3D ultrasound images based on robust Visual information and mechanical simulation », publié dans la revue « Medical Image Analysis », en septembre 2016, une méthode de suivi de cible basée sur une stratégie par paires qui met en œuvre une mesure de confiance locale des intensités de l'image de référence et de l'image suivante et l'exploite de façon à minimiser l'impact de ces artéfacts sur le suivi de cible.We also know from the document by Royer et al entitled "Real-time target tracking of soft tissues in 3D ultrasound images based on robust Visual information and mechanical simulation", published in the journal "Medical Image Analysis", in September 2016, a method of target tracking based on a paired strategy which implements a local confidence measure of the intensities of the reference image and the next image and uses it in order to minimize the impact of these artefacts on the monitoring of target.

Un inconvénient de cette méthode est que ses performances dépendent de la qualité de l'image de référence.A disadvantage of this method is that its performance depends on the quality of the reference image.

4. Objectifs de l'invention4. Objectives of the invention

L'invention vient améliorer la situation.The invention improves the situation.

L'invention a notamment pour objectif de pallier ces inconvénients de l'art antérieur.The invention particularly aims to overcome these drawbacks of the prior art.

Plus précisément, un objectif de l'invention est de proposer une solution qui garantisse un suivi performant, lorsque l'image de référence comporte des artéfacts dans la zone d'intérêt.More specifically, an objective of the invention is to propose a solution which guarantees efficient monitoring, when the reference image includes artefacts in the area of interest.

5. Exposé de l'invention5. Statement of the invention

Ces objectifs, ainsi que d'autres qui apparaîtront par la suite, sont atteints à l'aide d'un procédé de suivi de cible dans une séquence d'images numériques médicales, une zone d'intérêt ayant été prédéterminée dans une image initiale de la séquence, dite image de référence, ledit procédé comprenant les étapes suivantes, mises en œuvre pour une image courante de la séquence, distincte de l'image de référence :These objectives, as well as others which will appear subsequently, are achieved using a target tracking method in a sequence of digital medical images, an area of interest having been predetermined in an initial image of the sequence, called the reference image, the said method comprising the following steps, implemented for a current image of the sequence, distinct from the reference image:

- Obtention d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence ;- Obtaining an initial position of a model of an area of interest in the current image from a position of a model of an area of interest in a previous image of the sequence;

- Obtention d'une mesure de confiance par élément d'image pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image;- Obtaining a confidence measure per image element for said reference image and for said current image, said measurement being representative of confidence in an intensity of the image element;

- Transformation de la position initiale du modèle de la zone d'intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence,- Transformation of the initial position of the model of the area of interest in the current image comprising a minimization of a cost function based at least on a difference between the intensities of the current image and of the reference image,

Selon l'invention, le procédé comprend en outre, suite à la transformation, une étape de détection dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues pour l'image de référence et l'image courante et, lorsqu'au moins un élément d'image a été détecté, une étape de correction du au moins un élément détecté au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.According to the invention, the method further comprises, following the transformation, a step of detection in the area of interest of the reference image of at least one image element to be corrected, from confidence measurements obtained for the reference image and the current image and, when at least one image element has been detected, a step of correcting the at least one element detected at least on the basis of the intensity of at least one image element of the area of interest of the current image.

Selon l'invention, la zone d'intérêt de l'image de référence est enrichie par de l'information digne de confiance contenue dans l'image courante.According to the invention, the area of interest of the reference image is enriched by trustworthy information contained in the current image.

Ainsi, l'invention repose sur une approche tout à fait nouvelle et inventive, qui consiste à reconstruire une image de référence améliorée, à partir des images suivantes de la séquence, en exploitant une mesure de confiance locale associée aux intensités des éléments d'images des images de la séquence.Thus, the invention is based on a completely new and inventive approach, which consists in reconstructing an improved reference image, from the following images of the sequence, by using a local confidence measure associated with the intensities of the image elements. footage from the sequence.

Contrairement à l'art antérieur qui utilise soit les images précédentes originales, soit une image synthétique issue d'un moyennage des images précédentes originales, l'invention propose de former dynamiquement une image de référence améliorée au fur et à mesure du traitement de la séquence. L'image de référence reconstruite pour l'image courante devient l'image de référence pour l'image suivante.Unlike the prior art which uses either the original previous images or a synthetic image resulting from the averaging of the original previous images, the invention proposes to dynamically form an improved reference image as the sequence is processed. . The reconstructed reference image for the current image becomes the reference image for the next image.

Un avantage est de faire profiter aux images suivantes de la séquence des apports des images précédentes. La qualité de l'image de référence peut ainsi s'améliorer au cours du temps et les éventuels artéfacts d'acquisition sont petit à petit gommés par les corrections successives.An advantage is to allow the following images to benefit from the sequence of contributions from the previous images. The quality of the reference image can thus improve over time and any acquisition artifacts are gradually erased by successive corrections.

La méthode proposée a l'avantage d'être plus rapide que les méthodes par groupes puisqu'elle repose seulement sur la comparaison de deux images. Elle permet aussi d'éviter l'accumulation de l'erreur puisqu'elle ne corrige localement les structures de l'image de référence que lorsque l'image courante offre des informations susceptibles d'améliorer la qualité de l'image de référence.The proposed method has the advantage of being faster than group methods since it is based only on the comparison of two images. It also makes it possible to avoid the accumulation of the error since it locally corrects the structures of the reference image only when the current image offers information likely to improve the quality of the reference image.

L'invention permet ainsi de résoudre le problème technique de la gestion des artéfacts présents dans une séquence d'images médicales et, en particulier dans l'image choisie comme référence pour le suivi de cible.The invention thus makes it possible to solve the technical problem of managing the artefacts present in a sequence of medical images and, in particular in the image chosen as a reference for target tracking.

Selon un aspect de l'invention, le procédé comprend une étape de mise en correspondance des éléments d'image de la zone d'intérêt de l'image de référence et des éléments d'image de la zone d'intérêt de l'image courante et l'étape de détection comprend une comparaison de la mesure de confiance d'un élément d'image de la zone d'intérêt de l'image de référence à celle d'au moins un élément d'image correspondant dans la zone d'intérêt de l'image courante, un élément d'image à corriger étant détecté lorsque sa mesure de confiance est inférieure à celle du au moins un élément d'image correspondant.According to one aspect of the invention, the method comprises a step of matching the picture elements of the area of interest of the reference image and the picture elements of the area of interest of the image. current and the detection step comprises a comparison of the confidence measurement of an image element of the area of interest of the reference image with that of at least one corresponding image element in the area d interest of the current image, an image element to be corrected being detected when its confidence measure is lower than that of the at least one corresponding image element.

Un avantage est qu'on ne corrige que les éléments d'image de l'image de référence qui sont identifiés comme moins dignes de confiance que leurs correspondants dans l'image courante.An advantage is that only the image elements of the reference image which are identified as less reliable than their correspondents in the current image are corrected.

Selon un autre aspect de l'invention, la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par l'intensité du au moins un élément d'image correspondant dans l'image courante.According to another aspect of the invention, the correction of an image element detected in the reference image comprises replacing its intensity by the intensity of the at least one corresponding image element in the current image.

Un avantage de ce mode de réalisation est sa simplicité. L'information supplémentaire extraite de l'image courante est injectée dans l'image de référence afin de l'enrichir.An advantage of this embodiment is its simplicity. The additional information extracted from the current image is injected into the reference image in order to enrich it.

Selon encore un autre aspect de l'invention, la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par une intensité calculée à partir d'une fonction de correction qui prend en compte les intensités des éléments d'image de la zone d'intérêt de l'image de référence et celles des éléments correspondants dans la zone d'intérêt de l'image courante et leurs mesures de confiance associées.According to yet another aspect of the invention, the correction of an image element detected in the reference image comprises replacing its intensity by an intensity calculated from a correction function which takes into account the intensities image elements of the area of interest of the reference image and those of the corresponding elements in the area of interest of the current image and their associated confidence measures.

Un avantage de ce mode de réalisation est que le calcul de la nouvelle intensité prend en compte les intensités des autres éléments d'images de la zone d'intérêt qui sont suffisamment dignes de confiance, et donc d'éventuelles divergences de niveau d'intensité dans le reste de la zone d'intérêt entre l'image courante et l'image de référence. Ceci permet de compenser notamment une variation du niveau de gain entre les deux images ou, pour une séquence d'images échographiques, un changement d'orientation de la sonde et ainsi d'obtenir une image corrigée présentant une zone d'intérêt aux intensités plus homogènes.An advantage of this embodiment is that the calculation of the new intensity takes into account the intensities of the other image elements of the area of interest which are sufficiently trustworthy, and therefore of possible divergences in intensity level. in the rest of the area of interest between the current image and the reference image. This makes it possible in particular to compensate for a variation in the gain level between the two images or, for a sequence of ultrasound images, a change in orientation of the probe and thus to obtain a corrected image having an area of interest at more homogeneous.

Selon encore un autre aspect de l'invention, la fonction de correction de l'intensité d'un élément d'image détecté calcule une intensité corrigée par un rapport entre une densité de probabilité jointe qui définit la probabilité qu'un élément d'image dans la zone d'intérêt prenne une première valeur d'intensité dans l'image courante et une deuxième valeur dans l'image de référence et une probabilité que cet élément d'image prenne la deuxième valeur dans l'image de référence.According to yet another aspect of the invention, the intensity correction function of a detected picture element calculates an intensity corrected by a ratio between a joint probability density which defines the probability that a picture element in the area of interest takes a first intensity value in the current image and a second value in the reference image and a probability that this image element takes the second value in the reference image.

Un avantage de ce mode de réalisation est qu'il est simple à calculer et adapté à une application temps réel.An advantage of this embodiment is that it is simple to calculate and suitable for real-time application.

Selon encore un autre aspect de l'invention, le procédé comprend en outre une étape de correction des mesures de confiance associées aux intensités corrigées dans l'image de référence au moins à partir des mesures de confiance des éléments d'image correspondants de l'image courante.According to yet another aspect of the invention, the method further comprises a step of correcting the confidence measures associated with the intensities corrected in the reference image at least from the confidence measures of the corresponding image elements of the current image.

Un avantage est que le suivi de cible dans l'image suivante bénéficiera non seulement d'une image de référence corrigée, mais aussi de mesures de confiances mises à jour suite à la correction. De cette manière, on garantit de stopper la correction dynamique de l'image de référence dès qu'elle a atteint un niveau de confiance suffisant.An advantage is that the target tracking in the following image will benefit not only from a corrected reference image, but also from confidence measurements updated following the correction. In this way, it is guaranteed to stop the dynamic correction of the reference image as soon as it has reached a sufficient level of confidence.

Selon un autre aspect de l'invention, la mesure de confiance d'un élément d'image corrigé est remplacée par celle de l'élément d'image correspondant de l'image courante.According to another aspect of the invention, the confidence measurement of a corrected image element is replaced by that of the corresponding image element of the current image.

Les différents modes ou caractéristiques de réalisation mentionnés ci-après peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, aux caractéristiques du procédé d'authentification défini ci-dessus.The various embodiments or features mentioned below can be added independently or in combination with each other, to the features of the authentication method defined above.

L'invention concerne également un dispositif de suivi adapté pour mettre en œuvre le procédé de suivi selon l'un des modes particuliers de réalisation définis ci-dessus. Ce dispositif pourra bien sûr comporter les différentes caractéristiques relatives au procédé selon l'invention. Ainsi, les caractéristiques et avantages de ce dispositif sont les mêmes que ceux du procédé, et ne sont pas détaillés plus amplement.The invention also relates to a monitoring device suitable for implementing the monitoring method according to one of the particular embodiments defined above. This device could of course include the various characteristics relating to the method according to the invention. Thus, the characteristics and advantages of this device are the same as those of the method, and are not described in more detail.

Corrélativement, l'invention concerne aussi un équipement terminal comprenant un module d'acquisition d'images, un module de traitement des images acquises, un module d'affichage des images traités, un module d'interaction avec un utilisateur et un dispositif de suivi de cible selon l'invention.Correlatively, the invention also relates to terminal equipment comprising an image acquisition module, a module for processing acquired images, a module for displaying processed images, a module for interacting with a user and a monitoring device. of target according to the invention.

L'invention concerne encore un programme d'ordinateur comportant des instructions pour la mise en œuvre des étapes d'un procédé tel que décrit précédemment, lorsque ce programme est exécuté par un processeur.The invention also relates to a computer program comprising instructions for the implementation of the steps of a method as described above, when this program is executed by a processor.

Ce programme peut utiliser n'importe quel langage de programmation. Il peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur.This program can use any programming language. It can be downloaded from a communication network and / or saved on a computer-readable medium.

L'invention se rapporte enfin à un support d'enregistrement, lisible par un processeur, intégrés ou non au dispositif de cible selon l'invention, éventuellement amovible, mémorisant respectivement un programme d'ordinateur mettant en œuvre un procédé de suivi, tel que décrit précédemment.The invention finally relates to a recording medium, readable by a processor, integrated or not in the target device according to the invention, possibly removable, respectively storing a computer program implementing a monitoring method, such as described previously.

6. Liste des figures6. List of figures

D'autres avantages et caractéristiques de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier de l'invention, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels :Other advantages and characteristics of the invention will appear more clearly on reading the following description of a particular embodiment of the invention, given by way of simple illustrative and nonlimiting example, and the appended drawings, among which :

la figure 1 illustre de façon schématique dans deux images d'une séquence d'images médicales, une zone d'intérêt délimitée autour d'une cible clinique ;FIG. 1 schematically illustrates in two images of a sequence of medical images, an area of interest delimited around a clinical target;

-la figure 2 est une représentation synoptique, sous forme de blocs des étapes d'un procédé de suivi de cible clinique selon un mode de réalisation de l'invention ; la figure 3 est une vue d'un contour segmenté d'une cible dans une coupe d'une image d'une séquence ;FIG. 2 is a synoptic representation, in the form of blocks of the steps of a method for monitoring clinical target according to an embodiment of the invention; FIG. 3 is a view of a segmented contour of a target in a section of an image of a sequence;

la figure 4 illustre une image de mesure de confiance pour une zone d'intérêt d'une coupe d'une image de la séquence ;FIG. 4 illustrates a confidence measurement image for an area of interest of a section of an image of the sequence;

la figure 5 illustre de façon schématique une fonction de correspondance entre un élément d'image de la zone d'intérêt de l'image de référence et des éléments d'image de la zone d'intérêt de l'image courante ;FIG. 5 schematically illustrates a correspondence function between an image element of the area of interest of the reference image and image elements of the area of interest of the current image;

la figure 6 présente des coupes d'images d'une séquence échographique traitée par le procédé de suivi de cible selon l'invention ; et la figure 7 présente de façon schématique un exemple de structure matérielle d'un dispositif de suivi de cible clinique selon l'invention.FIG. 6 shows sections of images of an ultrasound sequence processed by the target tracking method according to the invention; and FIG. 7 schematically presents an example of a material structure of a clinical target monitoring device according to the invention.

7. Description d'un mode de réalisation particulier de l'invention7. Description of a particular embodiment of the invention

Le principe général de l'invention repose sur la détection d'éléments d'images à corriger dans une zone d'intérêt d'une image de référence à partir de mesures de confiance locale obtenues pour l'image de référence et l'image courante et sur la correction des intensités des éléments d'image détectés à l'aide des intensités des éléments d'images correspondants dans la zone d'intérêt de l'image courante.The general principle of the invention is based on the detection of image elements to be corrected in an area of interest of a reference image from local confidence measurements obtained for the reference image and the current image. and on the correction of the intensities of the detected picture elements using the intensities of the corresponding picture elements in the area of interest of the current image.

On détaille maintenant un exemple de mise en œuvre de l'invention. Dans ce mode de réalisation particulier de l'invention, la séquence d'images est obtenue par imagerie par ultrasons. Il s'agit d'une séquence d'images tridimensionnelles, dont les éléments sont des voxels.We now detail an example of implementation of the invention. In this particular embodiment of the invention, the sequence of images is obtained by ultrasound imaging. It is a sequence of three-dimensional images, the elements of which are voxels.

Bien sûr, l'invention n'est pas limitée à cet exemple et pourrait concerner une séquence issue d'une autre modalité d'imagerie, telle que par exemple une séquence endoscopique et s'appliquer à une séquence d'images bidimensionnelles.Of course, the invention is not limited to this example and could relate to a sequence resulting from another imaging modality, such as for example an endoscopic sequence and apply to a sequence of two-dimensional images.

En relation avec la Figure 1, on considère une séquence d'images comprenant T images avec T entier supérieur ou égal à 3 images, parmi lesquelles une image de référence Ito, une image précédente It-i et une image courante It. Par simplicité, on a représenté des images 2D. Dans chacune des images apparaît une cible Cb dont le contour est représenté schématiquement par une courbe fermée.In relation to Figure 1, we consider a sequence of images comprising T images with T integer greater than or equal to 3 images, including a reference image I t o, a previous image I t -i and a current image I t . For simplicity, 2D images have been shown. In each of the images appears a target Cb whose outline is represented schematically by a closed curve.

En référence à la figure 2, on a illustré de façon synoptique, sous forme de schéma-bloc, les étapes d'un exemple de procédé de suivi d'une cible clinique dans une séquence d'images selon l'invention.With reference to FIG. 2, the steps of an example of a method for monitoring a clinical target in a sequence of images according to the invention have been illustrated in a block diagram.

Au cours d'une première étape El, on obtient une position initiale d'un modèle d'une zone d'intérêt de l'image courante à partir d'une zone d'intérêt ZI(It-i) de l'image précédente. Par exemple, on réalise une simple transposition du modèle de la zone d'intérêt de l'image précédente dans l'image courante, en le plaçant à la même position que dans l'image précédente. Comme illustré par la Figure 1, la zone d'intérêt initiale est donc identique en termes de position, de dimension et de forme à celle de l'image précédente.During a first step E1, an initial position of a model of an area of interest of the current image is obtained from an area of interest ZI (I t -i) of the image former. For example, we perform a simple transposition of the model of the area of interest from the previous image into the current image, by placing it in the same position as in the previous image. As illustrated in Figure 1, the initial area of interest is therefore identical in terms of position, size and shape to that of the previous image.

Selon un premier mode de réalisation de l'invention, la zone d'intérêt de l'image de référence Ito a elle-même été obtenue par simple saisie de l'utilisateur qui a délimité à la main les contours de cette zone d'intérêt dans l'image, de façon à englober complètement la cible Cb qu'il souhaite suivre tout au long de la séquence. Cette zone d'intérêt prend généralement une forme géométrique simple telle qu'un rectangle, comme illustré par la Figure 1.According to a first embodiment of the invention, the area of interest of the reference image Ito was itself obtained by simple input from the user who has delimited by hand the contours of this area of interest in the image, so as to completely encompass the target Cb that it wishes to follow throughout the sequence. This area of interest generally takes a simple geometric shape such as a rectangle, as illustrated in Figure 1.

Selon un deuxième mode de réalisation, la zone d'intérêt ZI(Ito) de l'image de référence a été obtenue par délimitation d'un contour de la cible, par une méthode de segmentation connue en soi, qui peut être manuelle ou automatique. Le contour de la cible segmentée a été ensuite lissé afin de supprimer les arêtes vives et les discontinuités de forme apparues sur son contour.According to a second embodiment, the area of interest ZI (I t o) of the reference image was obtained by delimiting a contour of the target, by a segmentation method known per se, which can be manual or automatic. The outline of the segmented target was then smoothed in order to remove the sharp edges and discontinuities of shape that appeared on its outline.

Une zone d'intérêt ZI(Ito) délimitant le contour segmenté de la cible dans l'image de référence Ir est ensuite obtenue en construisant une représentation de l'intérieur du contour de la cible, par exemple en générant un maillage tétraédrique.A zone of interest ZI (I t o) delimiting the segmented contour of the target in the reference image Ir is then obtained by constructing a representation of the interior of the contour of the target, for example by generating a tetrahedral mesh.

Un exemple de maillage de la zone ZI(Ito) est illustré sur la figure 3. Cette figure correspond à une coupe d'image échographique comprenant une cible en partie située dans une ίο zone d'ombre, hachurée en blanc. Dans cet exemple, le maillage de la zone ZI présente Nc sommets délimitant des cellules tétraédriques. La zone Z comprend au total Nuvoxels.An example of a mesh of the zone ZI (I t o) is illustrated in FIG. 3. This figure corresponds to a section of ultrasound image comprising a target partly located in a shadow zone, hatched in white. In this example, the mesh of the zone ZI has N c vertices delimiting tetrahedral cells. Zone Z comprises in total N u voxels.

Au cours d'une étape E2, on obtient des mesures de confiance Uto et Ut des éléments d'images des zones d'intérêt ZI(Ito) et ZI(It).During a step E2, confidence measurements Uto and U t are obtained from the image elements of the zones of interest ZI (I t o) and ZI (I t ).

Dans la suite, on désigne par mesure de confiance d'un élément d'image, une valeur indicative d'une probabilité ou vraisemblance que l'intensité du pixel/voxel auquel elle est associée représente la cible et ne soit pas affectée par différentes perturbations telles par exemple que des ombres, des réflexions spéculaires, ou des occultations générées par la présence d'autres objets. Autrement dit, cette mesure de confiance locale renseigne sur une qualité de l'intensité de l'élément d'image.In the following, a measure of confidence of an image element is designated a value indicative of a probability or likelihood that the intensity of the pixel / voxel with which it is associated represents the target and is not affected by different disturbances. such as shadows, specular reflections, or occultations generated by the presence of other objects. In other words, this local confidence measure provides information on a quality of the intensity of the image element.

On connaît des méthodes d'estimation d'une mesure de confiance par élément d'image, par exemple celle décrite par Karamalis et al. dans un document intitule Ultrasonic confidence map using random walks, dans la revue Medical Image Analysis, publiée par Elsevier en 2012, pp.1101-1112,. Dans cet article on mesure la confiance d'un pixel/voxel de l'image échographique comme la probabilité qu'une marche aléatoire (« random walk » en anglais) partant de ce pixel/voxel atteigne les transducteurs de la sonde échographique. Le chemin est contraint par le modèle de propagation d'une onde ultrasonore dans les tissus mous. La valeur de la mesure de confiance qui est attribuée à chaque voxel est par exemple comprise entre 0 et 255.Methods for estimating a confidence measure per image element are known, for example that described by Karamalis et al. in a document called Ultrasonic confidence map using random walks, in the journal Medical Image Analysis, published by Elsevier in 2012, pp.1101-1112 ,. In this article we measure the confidence of a pixel / voxel in the ultrasound image as the probability that a random walk ("random walk" in English) starting from this pixel / voxel reaches the transducers of the ultrasound probe. The path is constrained by the pattern of propagation of an ultrasonic wave in soft tissue. The value of the confidence measure which is assigned to each voxel is for example between 0 and 255.

Avec cette méthode, des valeurs de la mesure de confiance faibles, par exemple inférieures à 20 sont attribuées à l'intensité de chaque voxel situé dans une partie ombrée PO de la zone ZI, telle que celle représentée hachurée sur la figure 3.With this method, values of the low confidence measure, for example less than 20, are assigned to the intensity of each voxel situated in a shaded part PO of the zone ZI, such as that represented hatched in FIG. 3.

On comprend que cette méthode de mesure d'une valeur de confiance des intensités des éléments de l'image donne une indication de localisation d'éventuelles parties aberrantes dans la zone de la cible.It is understood that this method of measuring a confidence value of the intensities of the elements of the image gives an indication of the location of any outliers in the target area.

Un exemple d'une image d'une carte de confiance Ut obtenue pour la zone ZI est illustré sur la figure 4. Sur cette figure, plus la valeur de confiance d'un élément d'image est importante et plus celui-ci présente une intensité élevée et apparaît donc plus clair.An example of an image of a confidence map U t obtained for the zone ZI is illustrated in FIG. 4. In this figure, the greater the confidence value of an image element and the more it presents high intensity and therefore appears clearer.

Une carte Ut des mesures de confiance locale de l'image courante It peut donc être obtenue en E2, sur la base de cette méthode. Une carte Uto des mesures de confiance locale de l'image de référence Ito a été obtenue précédemment, par exemple avec cette méthode.A map U t of the local confidence measures of the current image It can therefore be obtained in E2, on the basis of this method. A Uto map of local confidence measurements of the reference image I t o has been obtained previously, for example with this method.

De façon alternative, l'étape E2 d'obtention de mesures de confiance pour la zone d'intérêt de l'image courante It comprend une sous-étape de détection de parties ombrées dans la zone d'intérêt.Alternatively, the step E2 of obtaining confidence measurements for the area of interest of the current image I t comprises a sub-step of detection of shaded parts in the area of interest.

Par exemple, cette détection des parties ombrées de la zone ZI(It) met en œuvre une technique connue en soi, par exemple décrite dans le document de Pierre Hellier et al, intitulé « An automatic geometrical and statistical method to detect acoustic shadows in intraoperative ultrasound brain images » dans la revue Medical Image Analysis, publiée par Elsevier, en 2010, vol. 14 (2), pp. 195-204. Cette méthode consiste à analyser les lignes de tir échographiques pour déterminer les positions correspondant à des niveaux de bruit et d'intensité inférieurs à des seuils prédéterminés.For example, this detection of the shaded parts of the zone ZI (It) implements a technique known per se, for example described in the document by Pierre Hellier et al, entitled "An automatic geometrical and statistical method to detect acoustic shadows in intraoperative ultrasound brain images ”in the journal Medical Image Analysis, published by Elsevier, in 2010, vol. 14 (2), pp. 195-204. This method consists in analyzing the echographic shooting lines to determine the positions corresponding to noise and intensity levels below predetermined thresholds.

Pour la détection de parties claires, de type halo ou spécularité, plus adaptée à des images de type endoscopique, on se référera par exemple à la technique de détection décrite dans le document de Morgand et al, intitulé « Détection générique et temps réel des spécularités », publié dans les Proceedings des Journées francophones des jeunes chercheurs en vision par ordinateur, qui se sont tenues à Amiens, en juin 2015. Les spécularités sont détectées en seuillant de façon dynamique l'image dans l'espace TSV pour Teinte-Saturation-Valeur (ou HSV pour « Hue Saturation Value » en anglais). La valeur des seuils utilisés est estimée automatiquement en fonction de la luminosité globale de l'image.For the detection of clear parts, of halo or specularity type, more suitable for endoscopic type images, reference will be made, for example, to the detection technique described in the document by Morgand et al, entitled “Generic and real-time detection of specularities », Published in the Proceedings of the French-speaking days of young researchers in computer vision, which were held in Amiens, in June 2015. The specularities are detected by dynamically thresholding the image in the TSV space for Tint-Saturation- Value (or HSV for “Hue Saturation Value” in English). The value of the thresholds used is estimated automatically based on the overall brightness of the image.

On calcule, dans un deuxième temps, une mesure de confiance pour chaque élément d'image en tenant compte de la partie de la zone où il se trouve. Par exemple, on applique un masque binaire aux intensités de la zone d'intérêt de la cible. Les voxels appartenant à une partie aberrante obtiendront une mesure de confiance nulle et les voxels situés en dehors d'une partie aberrante obtiendront une mesure de confiance égale à 1.We then calculate a confidence measure for each image element, taking into account the part of the area where it is located. For example, a binary mask is applied to the intensities of the target area of interest. Voxels belonging to an outlier will get a zero confidence measure and voxels outside an outlier will get a confidence measure equal to 1.

On comprend qu'un élément d'image obtiendra une mesure de confiance plus faible s'il se trouve dans une partie détectée comme aberrante.It is understood that an image element will obtain a lower confidence measure if it is in a part detected as an outlier.

En ce qui concerne l'image de référence Ito, ces mesures de confiance ont déjà été estimées lors du traitement de l'image de référence et sont disponibles en mémoire, par exemple sous la forme d'une carte de confiance. L'étape E2 comprend donc une lecture de la carte de confiance Uto dans cette mémoire.As regards the reference image I t o, these confidence measures have already been estimated during the processing of the reference image and are available in memory, for example in the form of a confidence card. Step E2 therefore includes a reading of the confidence card Uto in this memory.

A l'issue de cette étape E2, on dispose pour l'image courante It d'une carte ou image de confiance Ut et pour l'image de référence Ito d'une carte ou image de confiance Uto3059807At the end of this step E2, there is a trusted card or image U t for the current image I t and a trusted card or image Uto for the reference image Ito3059807

Au cours d'une étape E3, on transforme la position initiale du modèle correspondant à la zone d'intérêt ZI(It-i) dans l'image courante de façon à la faire coïncider avec la nouvelle position de la cible dans l'image courante It. On exploite pour ce faire les similarités entre l'image de référence et l'image courante. L'objectif de cette étape est de déterminer une transformation des positions du modèle permettant d'optimiser une fonction de coût qui définit la similarité entre les éléments d'images de la zone d'intérêt de l'image courante et les éléments d'images de la zone d'intérêt de l'image de référence. Pour cela, nous définissons une relation permettant de lier les positions du modèle « q » et les positions des éléments d'images « p ».During a step E3, the initial position of the model corresponding to the area of interest ZI (I t -i) is transformed in the current image so as to make it coincide with the new position of the target in the current image I t . To do this, the similarities between the reference image and the current image are exploited. The objective of this step is to determine a transformation of the positions of the model allowing to optimize a cost function which defines the similarity between the image elements of the area of interest of the current image and the image elements. of the area of interest of the reference image. For this, we define a relation allowing to link the positions of the model "q" and the positions of the image elements "p".

Selon le premier mode de réalisation de l'invention, le modèle représentant la zone d'intérêt initiale est de forme géométrique simple, par exemple rectangulaire pour une image 2D ou parallélépipédique pour une image 3D. Il comprend notamment les sommets de la forme géométrique et définit à partir de ces sommets les cellules tétraédriques d'un maillage de la zone d'intérêt délimitée par cette forme géométrique. Ce type de modèle définit en outre une fonction permettant de lier les positions des éléments d'image de la zone d'intérêt à la position des sommets du rectangle. Afin de calculer les déplacements du modèle, on met en œuvre une approche basée intensité qui consiste à minimiser une fonction de coût C basée sur les différences d'intensité entre les pixels/voxels de la zone dintérêt dans l'image de référence et de la zone dintérêt dans l'image courante. Plus précisément, cette approche calcule les nouvelles positions des sommets du modèle constituant la cible en utilisant la fonction reliant les positions des Nu voxels avec les positions des Nc sommets du rectangle. Cette fonction s'exprime sous la forme p=M.q, où p est un vecteur, de dimension (3. Nu)xl, représentant les positions des Nu voxels de la zone d'intérêt, q est un vecteur, de dimension (3.Nc)xl, représentant les positions des Nc sommets du rectangle, et M est une matrice à coefficients constants, de dimension (3.Nu)x (3.NC), définissant un ensemble de coefficients bilinéaires. Grâce à la minimisation de la fonction de coûtAccording to the first embodiment of the invention, the model representing the initial area of interest is of simple geometric shape, for example rectangular for a 2D image or parallelepiped for a 3D image. It notably includes the vertices of the geometric shape and defines from these vertices the tetrahedral cells of a mesh of the area of interest delimited by this geometric shape. This type of model also defines a function making it possible to link the positions of the image elements of the area of interest to the position of the vertices of the rectangle. In order to calculate the displacements of the model, an intensity-based approach is implemented which consists in minimizing a cost function C based on the intensity differences between the pixels / voxels of the area of interest in the reference image and of the area of interest in the current image. More precisely, this approach calculates the new positions of the vertices of the model constituting the target using the function linking the positions of the N u voxels with the positions of the N c vertices of the rectangle. This function is expressed in the form p = Mq, where p is a vector, of dimension (3. N u ) xl, representing the positions of the N u voxels of the area of interest, q is a vector, of dimension ( 3.N c ) xl, representing the positions of the N c vertices of the rectangle, and M is a matrix with constant coefficients, of dimension (3.N u ) x (3.N C ), defining a set of bilinear coefficients. By minimizing the cost function

C, nous obtenons les nouvelles positions des sommets q(t) ainsi que l'ensemble des nouvelles positions des pixels p(t) de la zone d'intérêt dans l'image courante.C, we obtain the new positions of the vertices q (t) as well as the set of new positions of the pixels p (t) of the area of interest in the current image.

Selon le deuxième mode de réalisation de l'invention, la zone d'intérêt initiale de l'image courante est délimitée par un contour segmenté. On considère par exemple un modèle comprenant des sommets de ce contour et définissant un maillage de la zone d'intérêt délimitée par ce contour.According to the second embodiment of the invention, the initial area of interest of the current image is delimited by a segmented contour. Consider for example a model comprising vertices of this contour and defining a mesh of the area of interest delimited by this contour.

De façon analogue à celle du premier mode de réalisation, on met en œuvre une approche basée intensité pour calculer les déplacements dits externe du contour de la cible, qui consiste à minimiser une fonction de coût C basée sur les différences d'intensité entre les sommets des contours de la cible dans l'image de référence et dans l'image courante. Cette approche, décrite dans le document de Royer et al déjà cité plus avant, s'appuie sur un maillage de la zone d'intérêt.Analogously to that of the first embodiment, an intensity-based approach is used to calculate the so-called external displacements of the outline of the target, which consists in minimizing a cost function C based on the intensity differences between the vertices contours of the target in the reference image and in the current image. This approach, described in the document by Royer et al already cited above, is based on a mesh of the area of interest.

Plus précisément, cette approche consiste à calculer une déformation de cellules tétraédriques constituant la cible et applique une fonction affine par morceaux reliant les positions des Nu voxels de la cible avec les positions des Nc sommets du maillage, s'exprimant sous la forme p=M.q, où p est un vecteur, de dimension (3. Nu)xl, représentant les positions des Nu voxels de la cible, q est un vecteur, de dimension (3.Nc)xl, représentant les positions des Nc sommets du maillage, et M est une matrice à coefficients constants, de dimension (3.Nu)x (3.NC), définissant un ensemble de coordonnées barycentriques.More precisely, this approach consists in calculating a deformation of tetrahedral cells constituting the target and applies a piecewise affine function connecting the positions of the N u voxels of the target with the positions of the N c vertices of the mesh, expressed in the form p = Mq, where p is a vector, of dimension (3. N u ) xl, representing the positions of the N u voxels of the target, q is a vector, of dimension (3.N c ) xl, representing the positions of N c vertices of the mesh, and M is a matrix with constant coefficients, of dimension (3.N u ) x (3.N C ), defining a set of barycentric coordinates.

Pour obtenir la position optimale du contour segmenté, on combine cette estimation des déplacements externes subis par le contour de la cible à celle de déplacements internes résultant de la simulation de la déformation d'un système mécanique masse-ressort-amortisseur appliquée à la cible.To obtain the optimal position of the segmented contour, we combine this estimate of the external displacements undergone by the target's contour with that of internal displacements resulting from the simulation of the deformation of a mechanical mass-spring-damper system applied to the target.

Un déplacement optimal des sommets du contour de la cible est estimé de façon itérative en prenant en compte les deux types de déplacements interne et externe.An optimal displacement of the vertices of the target contour is estimated iteratively taking into account the two types of internal and external displacement.

Dans la solution décrite, les mesures de confiance associées aux éléments d'images, respectivement aux sommets des cellules tétraédriques, sont avantageusement exploitées pour pondérer le déplacement externe, de sorte à minimiser le déplacement externe d'éléments d'image associés à une mesure de confiance faible.In the solution described, the confidence measurements associated with the image elements, respectively with the vertices of the tetrahedral cells, are advantageously used to weight the external displacement, so as to minimize the external displacement of image elements associated with a measurement of low confidence.

A l'issue de cette étape E3, on dispose d'une zone d'intérêt ZIT(It) transformée, dont la forme, la taille et la position dans l'image courante sont optimisées par rapport à la position réelle de la cible à suivre dans cette image. Plus précisément, cette zone d'intérêt transformée est représentée par un vecteur p(t) dont les éléments d'image px(t) sont les transformés des éléments d'image px(t-l) du vecteur p(t-l) de la zone d'intérêt de l'image précédente.At the end of this step E3, there is a transformed area of interest ZI T (It), the shape, size and position of which in the current image are optimized with respect to the actual position of the target. to follow in this picture. More precisely, this transformed area of interest is represented by a vector p (t) whose image elements px (t) are the transforms of the image elements px (tl) of the vector p (tl) of the area d interest of the previous image.

Pour déterminer la correspondance entre deux images non successives de la séquence d'image, on concatène les différentes transformations locales appliquées aux images successives.To determine the correspondence between two non-successive images of the image sequence, the different local transformations applied to the successive images are concatenated.

On comprend que les transformées locales successivement appliquées au vecteur p(t-l) définissent ainsi une transformée globale qui permet de passer du vecteur p(to) de l'image de référence au vecteur p(t) de l'image courante. Autrement dit un élément d'image pxtodu vecteur p(to) a pour correspondant l'élément d'image pxt dans l'image courante.It is understood that the local transforms successively applied to the vector p (tl) thus define a global transform which makes it possible to pass from the vector p (to) of the reference image to the vector p (t) of the current image. In other words an image element px t odu vector p (to) has for image element px t in the current image.

On notera que les coordonnées de l'élément d'image pxt peuvent ne pas être entières du fait des transformations successives. Dans ce cas, on lui associe les éléments d'images ayant les positions entières voisines, comme illustré par la Figure 5. Il se peut donc qu'un élément d'image pxto ait plusieurs correspondants dans l'image courante.It will be noted that the coordinates of the image element px t may not be whole due to the successive transformations. In this case, we associate the image elements with neighboring integer positions to it, as illustrated in Figure 5. It is therefore possible that an image element px t o has several correspondents in the current image.

Au cours d'une étape E4, on parcourt les éléments d'image du vecteur p(to) de l'image de référence, selon un ordre prédéterminé, par exemple celui des N composantes du vecteur, avec N entier non nul et on associe à un élément d'image courant, pxto du vecteur p(to), son élément d'image correspondant pxt dans le vecteur p(t).During a step E4, the image elements of the vector p (to) of the reference image are traversed, according to a predetermined order, for example that of the N components of the vector, with N non-zero integer and we associate to a current picture element, px t o of the vector p (to), its corresponding picture element px t in the vector p (t).

En E5i, on compare l'élément d'image courant pxto du vecteur p(to) à l'élément d'image pxt correspondant du vecteur p(t).In E5i, we compare the current picture element px t o of the vector p (to) with the corresponding picture element px t of the vector p (t).

La comparaison concerne plus précisément les mesures de confiance des images Uto et Ut associées aux éléments d'image correspondants dans les images Ito et It.The comparison relates more precisely to the confidence measures of the images Uto and U t associated with the corresponding image elements in the images I t o and I t .

On compare les mesures de confiance Ut(pxt) et Uto(pxto) et on détermine en E52 si Ut(pxt) est supérieure à U(pxto).We compare the confidence measures U t (pxt) and Uto (pxto) and we determine in E5 2 if U t (pxt) is greater than U (px t o).

Si c'est le cas, l'élément d'image pxto de l'image de référence est détecté comme à corriger.If this is the case, the image element px t o of the reference image is detected as being to be corrected.

On notera que si plusieurs éléments d'images pxt correspondent à l'élément d'image pxto, le résultat de chacune de leurs comparaisons contribue à la prise de décision concernant l'élément d'image pxto. Par exemple, la moyenne de leurs mesures de confiance est comparée à celle de pxto ou de façon alternative, la mesure de confiance la plus élevée.It will be noted that if several image elements px t correspond to the image element px t o, the result of each of their comparisons contributes to the decision concerning the image element px t o. For example, the average of their confidence measures is compared to that of px t o or, alternatively, the highest confidence measure.

Selon l'invention, on réalise en E6 une correction dynamique de l'élément d'image pxto(i) détecté dans la zone d'intérêt de l'image de référence ItoDans un premier mode de réalisation de l'invention, elle est mise en œuvre de la façon suivante :According to the invention, a dynamic correction is made in E6 of the image element pxto (i) detected in the area of interest of the reference image I t o In a first embodiment of the invention, it is implemented as follows:

Ito(pxto)>sit = t0 Jt(pxt), siUt(pxt) > Ut0(pxt0).I t o (pxto)> sit = t 0 J t (px t ), siU t (px t )> U t0 (px t0 ).

Id représente l'image de référence corrigée ou dynamique. pxto est un élément d'image détecté comme à corriger.I d represents the corrected or dynamic reference image. px t o is an image element detected as being to be corrected.

On comprend que l'intensité de l'image de référence est corrigée dynamiquement dans les zones où la confiance locale des éléments de l'image de référence est inférieure à celle des éléments correspondants de l'image de référence. Dans ce mode, on remplace simplement l'intensité de l'élément d'image à corriger par celle de l'élément d'image Pt qui lui correspond dans l'image de référence.It will be understood that the intensity of the reference image is corrected dynamically in the zones where the local confidence of the elements of the reference image is lower than that of the corresponding elements of the reference image. In this mode, the intensity of the image element to be corrected is simply replaced by that of the image element Pt which corresponds to it in the reference image.

Si, comme illustré par la Figure 5, plusieurs éléments d'image de l'image courante correspondent à l'élément d'image pxto courant, on calcule une valeur de correction, par exemple par moyennage des intensités des éléments pxæ, pxto2, pxto3,pxto4 correspondants ou encore par interpolation.If, as illustrated in Figure 5, several image elements of the current image correspond to the current px t o image element, a correction value is calculated, for example by averaging the intensities of the elements pxæ, pxto2 , pxto3, pxto4 corresponding or by interpolation.

Selon un deuxième mode de réalisation de l'invention, la correction d'un élément d'image de l'image de référence prend en outre en compte les intensités des autres éléments d'image dans l'image de référence et dans l'image courante et leurs mesures de confiance associées.According to a second embodiment of the invention, the correction of an image element of the reference image also takes into account the intensities of the other image elements in the reference image and in the image. routine and their associated confidence measures.

Avantageusement, on calcule une intensité corrigée Id(pxto) pour l'élément d'image px de la façon suivante :Advantageously, a corrected intensity Id (px t o) for the image element px is calculated as follows:

1,b si t = ta 1, b if t = t a

LfPxho)) ; ;=o /rf(px(0) sinonLfPxho)) ; ; = o / rf (px (0 ) otherwise

Le terme pr,t,K(i,j') représente une fonction de densité de probabilité jointe qui définit la probabilité qu'un élément d'image dans la zone d'intérêt prenne la valeur d'intensité i dans l'image courante et la valeur j dans l'image de référence. Le terme pr,t(i) représente la probabilité qu'un élément d'image prenne la valeur i dans l'image courante lt.The term pr, t , K (i, j ') represents a joint probability density function which defines the probability that an image element in the area of interest takes the value of intensity i in the current image and the value j in the reference image. The term pr, t (i) represents the probability that an image element takes the value i in the current image lt.

Ce calcul prend en compte un rapport entre une densité de probabilité jointe qu'un élément d'image de l'image de référence prenne une valeur j et un élément d'image de l'image courante prenne la valeur i et la probabilité que l'élément d'image pxto prenne la valeur j dans l'image de référence.This calculation takes into account a ratio between a joint probability density that an image element of the reference image takes a value j and an image element of the current image takes the value i and the probability that l the image element px t o takes the value j in the reference image.

Ceci permet de compenser une éventuelle différence de gain entre les deux images et éviter d'introduire dans l'image de référence une intensité corrigée qui n'est pas homogène avec la structure locale.This makes it possible to compensate for any difference in gain between the two images and avoid introducing into the reference image a corrected intensity which is not homogeneous with the local structure.

Avantageusement, la densité de probabilité jointe est calculée de la façon suivante :Advantageously, the joint probability density is calculated as follows:

Pr;t;roft7) = 2k=iHto (.Pkto^HXPkRSAitiPktRôjqtoLp^o))P r ; t ; ro ft7) = 2k = i H to (.Pkto ^ HXPkRSAitiPktRôjqtoLp ^ o))

L-l i=oL-l i = o

Htn etHt représentent des matrices de pondération associées à l'image de référence corrigée et à l'image courante. Ces matrices permettent de pondérer l'influence des pixels/voxels en fonction de leurs mesures de confiance associée. Elles sont obtenues à partir des cartes de confiance L et représentant la mesure de confiance locale associés aux éléments d'images de l'image courante et l'image initiale. La fonction ^k(x) vaut 1 lorsque x=k, et 0 ailleurs.Htn and H t represent weighting matrices associated with the corrected reference image and the current image. These matrices make it possible to weight the influence of the pixels / voxels according to their associated confidence measures. They are obtained from confidence maps L and representing the local confidence measure associated with the image elements of the current image and the initial image. The function ^ k (x) is 1 when x = k, and 0 elsewhere.

De cette manière, on garantit que l'intensité corrigée dans l'image de référence Id corresponde aux intensités des autres éléments d'images de l'image de référence Ito. Ceci permet de prendre en compte une éventuelle variation globale d'intensité entre l'image de référence et l'image courante, qui risquerait de rendre la correction de l'image de référence incohérente. Dans le cas de l'échographie, une telle variation peut être occasionnée par un changement de gain ou d'orientation de sonde.In this way, it is guaranteed that the intensity corrected in the reference image Id corresponds to the intensities of the other image elements of the reference image I t o. This makes it possible to take into account a possible overall variation in intensity between the reference image and the current image, which would risk making the correction of the reference image incoherent. In the case of ultrasound, such a variation can be caused by a change in gain or orientation of the probe.

Au cours d'une étape E7, la carte de confiance Uto associée à l'image de référence est corrigée à son tour, en remplaçant la mesure de confiance Uto(pxto) d'un élément d'image dont l'intensité a été corrigée par une mesure de confiance corrigée, fonction de la ou des mesures de confiance du ou des éléments d'image correspondants dans l'image courante Ito.During a step E7, the confidence card Uto associated with the reference image is corrected in turn, by replacing the confidence measure Uto (pxto) of an image element whose intensity has been corrected by a corrected confidence measure, a function of the confidence measure or measures of the corresponding picture element or elements in the current image I t o.

On obtient une image de confiance dynamique Ud qui représente bien la qualité de l'image de référence dynamique Id.We obtain a dynamic confidence image Ud which well represents the quality of the dynamic reference image Id.

Par exemple, cette correction est réalisée à partir de l'équation suivante :For example, this correction is made from the following equation:

Ud U d

Uto(Pxto)’Sit = t0 Uto (Pxto) 'Sit = t 0

Ut(Pxt)’ si Ut(Pxt) > Ud(Pxto) (4)Ut (Pxt) ’if Ut (Pxt)> Ud (Pxto) (4)

La correction consiste ici en un simple remplacement de la mesure de confiance associée à l'élément d'image pxto par celle de l'élément d'image pxt correspondant à partir duquel il a été corrigé.The correction here consists of a simple replacement of the confidence measure associated with the image element px t o by that of the corresponding image element p xt from which it was corrected.

Dans le cas où l'élément d'image pxto correspond à plusieurs éléments d'image pxt dans l'image courante, la mesure de confiance corrigée Ud(pxto) est obtenue à partir des mesures de confiance des éléments d'image pxt correspondants, par exemple par moyennage ou interpolation de leurs valeurs.In the case where the image element px t o corresponds to several image elements px t in the current image, the corrected confidence measure Ud (pxto) is obtained from the confidence measures of the image elements px t correspondents, for example by averaging or interpolating their values.

Les opérations qui viennent d'être décrites sont répétées pour tous les éléments d'image de la zone d'intérêt de l'image de référence ItoDans le mode de réalisation qui vient d'être présenté, on passe en revue les éléments d'image de la zone d'intérêt de l'image de référence et dès, qu'un élément d'image détecté comme à corriger en E5, il est directement corrigé en E6, et sa mesure de confiance mise à jour en E7, avant de passer à l'élément suivant.The operations which have just been described are repeated for all the image elements of the area of interest of the reference image I t o In the embodiment which has just been presented, the elements d image of the area of interest of the reference image and as soon as an image element detected as to be corrected in E5, it is directly corrected in E6, and its confidence measure updated in E7, before go to the next item.

Bien sûr, l'invention n'est pas limitée à cet exemple de réalisation. On pourrait par exemple prévoir une implémentation de l'invention selon laquelle chaque étape est réalisée tous les éléments du vecteur ptO de l'image de référence, avant de passer à l'étape suivante.Of course, the invention is not limited to this exemplary embodiment. One could for example provide an implementation of the invention according to which each step is carried out all the elements of the vector ptO of the reference image, before proceeding to the next step.

En relation avec la Figure 6, on présente des exemples de coupes d'une séquence d'image traitée selon l'invention. La première ligne représente des coupes des images de la séquence au cours du temps. La deuxième ligne représente une évolution au cours du temps de l'image de référence corrigée dynamiquement selon l'invention. La troisième ligne montre un agrandissement de la zone d'intérêt dans l'image de référence corrigée et son évolution au cours du temps. Comme on peut le voir sur les images a), e) et i), l'image initiale Ito est perturbée par la présence d'une ombre. Les images e) à h), respectivement i) à I) dans leurs versions agrandies, mettent en évidence l'amélioration de la qualité de la zone d'intérêt de l'image de référence au cours du temps, au fur et à mesure des corrections successives par les intensités dignes de confiance de l'image courante It.In connection with FIG. 6, examples of sections of an image sequence processed according to the invention are presented. The first line represents sections of the images of the sequence over time. The second line represents an evolution over time of the dynamically corrected reference image according to the invention. The third line shows an enlargement of the area of interest in the corrected reference image and its evolution over time. As can be seen in images a), e) and i), the initial image I t o is disturbed by the presence of a shadow. The images e) to h), respectively i) to I) in their enlarged versions, demonstrate the improvement in the quality of the area of interest of the reference image over time, as and when successive corrections by the trustworthy intensities of the current image It.

La méthode proposée a l'avantage d'être plus rapide que les méthodes par groupes de l'art antérieur du fait qu'elle repose seulement sur la comparaison de deux images. De plus, l'invention permet d'éviter l'accumulation de l'erreur puisqu'elle remplace localement les structures de l'image de référence jusqu'à ce que sa qualité soit suffisante. Elle présente des performances améliorées par rapport à une méthode de suivi basée sur une image de référence fixe, potentiellement de mauvaise qualité.The proposed method has the advantage of being faster than the group methods of the prior art because it is based only on the comparison of two images. In addition, the invention makes it possible to avoid the accumulation of the error since it locally replaces the structures of the reference image until its quality is sufficient. It has improved performance compared to a monitoring method based on a fixed reference image, potentially of poor quality.

La figure 7 présente la structure simplifiée d'un dispositif de suivi d'une cible adapté pour mettre en œuvre le procédé de suivi de cible de l'invention. Le dispositif 100 est adapté, pour une image courante de la séquence, à :FIG. 7 presents the simplified structure of a target tracking device suitable for implementing the target tracking method of the invention. The device 100 is adapted, for a current image of the sequence, to:

obtenir une position initiale d'un modèle d'une zone d'intérêt dans l'image courante à partir d'une position d'un modèle de zone d'intérêt d'une image précédente ; obtenir une mesure de confiance par élément d'image dans ladite zone pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance associée à l'intensité de l'élément d'image; transformer la position initiale de la zone d'intérêt dans l'image courante par minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, suite à la transformation, détecter dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues et,obtaining an initial position of a model of an area of interest in the current image from a position of a model of area of interest of a previous image; obtaining a confidence measure per picture element in said area for said reference image and for said current image, said measurement being representative of a confidence associated with the intensity of the picture element; transform the initial position of the area of interest in the current image by minimizing a cost function based at least on a difference between the intensities of the current image and the reference image, following the transformation, detecting in the area of interest of the reference image of at least one image element to be corrected, from the confidence measurements obtained and,

-lorsqu'au moins un élément d'image a été détecté, le corriger au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.-when at least one image element has been detected, correct it at least on the basis of the intensity of at least one image element of the area of interest of the current image.

Le dispositif 100 est en outre configuré pour mettre en œuvre les différents modes de réalisation de l'invention qui viennent d'être décrits en relation avec la figure 2.The device 100 is further configured to implement the various embodiments of the invention which have just been described in relation to FIG. 2.

Selon un mode particulier de réalisation de l'invention, les étapes du procédé de suivi sont mises en œuvre par des instructions de programme d'ordinateur. Pour cela, le dispositif 100 a l'architecture classique d'un ordinateur et comprend notamment une mémoire MEM1, une unité de traitement UT1, équipée par exemple d'un microprocesseur pl, et pilotée par le programme d'ordinateur Pgl stocké en mémoire MEM1. Le programme d'ordinateur Pgl comprend des instructions pour mettre en œuvre les étapes du procédé de suivi tel que décrit ci-dessus, lorsque le programme est exécuté par le processeur pl.According to a particular embodiment of the invention, the steps of the tracking method are implemented by computer program instructions. For this, the device 100 has the conventional architecture of a computer and comprises in particular a memory MEM1, a processing unit UT1, equipped for example with a microprocessor pl, and controlled by the computer program Pgl stored in memory MEM1 . The computer program Pgl includes instructions for implementing the steps of the tracking method as described above, when the program is executed by the processor pl.

A l'initialisation, les instructions de code du programme d'ordinateur Pgl sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur pl, qui met notamment en œuvre les étapes du procédé de suivi décrit ci-dessus, selon les instructions du programme d'ordinateur Pgl.At initialization, the code instructions of the computer program Pgl are for example loaded into a RAM memory before being executed by the processor pl, which in particular implements the steps of the tracking method described above, according to the instructions of the computer program Pgl.

Selon un autre mode particulier de réalisation de l'invention, le procédé est mis en œuvre par des modules ou unités fonctionnel(le)s. Pour cela, le dispositif de suivi 100 comprend en outre les modules suivants:According to another particular embodiment of the invention, the method is implemented by modules or functional units (s). For this, the monitoring device 100 further comprises the following modules:

obtention GET ZI(It-i) d'une position initiale de la zone d'intérêt dans l'image courante ;obtaining GET ZI (I t -i) of an initial position of the area of interest in the current image;

obtenir GET Ut, Uto une mesure de confiance par élément d'image dans ladite zone d'intérêt de ladite image de référence et de ladite image courante; transformer TRANS ZI(It-i) la position initiale de la zone d'intérêt dans l'image courante par minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, suite à la transformation, détecter DET EI(Ito) dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues et,obtaining GET U t , Uto a confidence measure per image element in said area of interest of said reference image and said current image; transform TRANS ZI (I t -i) the initial position of the area of interest in the current image by minimization of a cost function based at least on a difference between the intensities of the current image and of the image of reference, following the transformation, detect DET EI (I t o) in the area of interest of the reference image of at least one image element to be corrected, from the confidence measurements obtained and,

-lorsqu'au moins un élément d'image a été détecté, le corriger CORR EI(Ito) au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.-when at least one picture element has been detected, correct it CORR EI (I t o) at least from the intensity of at least one picture element in the area of interest of the image current.

Avantageusement, le dispositif comprend en outre un module CORR Uto de correction de la mesure de confiance associée à l'élément corrigé.Advantageously, the device also comprises a CORR Uto module for correcting the confidence measure associated with the corrected element.

L'unité de traitement UT1 coopère avec les différents modules fonctionnels décrits ci-dessus et la mémoire MEM1 afin de mettre en œuvre les étapes du procédé de suivi.The processing unit UT1 cooperates with the various functional modules described above and the memory MEM1 in order to implement the steps of the monitoring process.

Selon un mode de réalisation de l'invention, le dispositif 100 comprend en outre une unité Mi de stockage de la position de la zone d'intérêt de l'image de référence, des images de confiance Ut, UtO, de l'image de référence corrigée Ud, de l'image de confiance corrigée UdtoCes unités sont pilotées par le processeur μι de l'unité de traitement 110.According to one embodiment of the invention, the device 100 further comprises a unit Mi for storing the position of the area of interest of the reference image, trusted images Ut, UtO, of the image of corrected reference Ud, of the corrected confidence image Ud t o These units are controlled by the processor μι of the processing unit 110.

De façon avantageuse, un tel dispositif 100 peut être intégré à un équipement terminal d'utilisateur ET, tel qu'un système d'acquisition d'images médicales, par exemple un échographe ou un endoscope. Il comprend notamment un module d'acquisition telle qu'une sonde échographique, un module de traitement des données acquises, un module d'affichage des données tel qu'un écran et un module d'interaction avec l'utilisateur tel qu'un clavier, une souris etc.Advantageously, such a device 100 can be integrated into a terminal user equipment AND, such as a medical image acquisition system, for example an ultrasound scanner or an endoscope. It notably comprises an acquisition module such as an ultrasound probe, a module for processing the acquired data, a data display module such as a screen and a user interaction module such as a keyboard. , a mouse etc.

Les différents modules fonctionnels décrits ci-dessus peuvent être sous forme matérielle et/ou 5 logicielle. Sous une forme logicielle, un tel module fonctionnel peut comprendre un processeur, une mémoire et des instructions de code de programme pour mettre en œuvre la fonction correspondante au module lorsque les instructions de code sont exécutées par un le processeur. Sous une forme matérielle, un tel module fonctionnel peut mis en œuvre par tout type de circuits d'encodage adaptés, tels que par exemple et de manière non limitative des microprocesseurs, des processeurs de traitement du signal (DSP pour Digital Signal Processor en anglais), des circuits intégrés spécifiques à des applications (ASICs pour Application Spécifie Integrated Circuit en anglais), des circuits FPGA pour Field Programmable Gâte Arrays en anglais, un câblage d'unités logiques.The various functional modules described above can be in hardware and / or software form. In software form, such a functional module can comprise a processor, a memory and program code instructions for implementing the function corresponding to the module when the code instructions are executed by a processor. In hardware form, such a functional module can be implemented by any type of suitable encoding circuits, such as for example and without limitation microprocessors, signal processing processors (DSP for Digital Signal Processor in English) , application-specific integrated circuits (ASICs for Application Specifies Integrated Circuit in English), FPGA circuits for Field Programmable Gate Arrays in English, wiring of logic units.

Il va de soi que les modes de réalisation qui ont été décrits ci-dessus ont été donnés à titre purement indicatif et nullement limitatif, et que de nombreuses modifications peuvent être facilement apportées par l'homme de l'art sans pour autant sortir du cadre de l'invention.It goes without saying that the embodiments which have been described above have been given for purely indicative and in no way limitative, and that numerous modifications can be easily made by those skilled in the art without departing from the scope. of the invention.

Claims (11)

REVENDICATIONS 1. Procédé de suivi de cible dans une séquence d'images numériques médicales, une zone d'intérêt ayant été prédéterminée dans une image initiale de la séquence, dite image de référence, ledit procédé comprenant les étapes suivantes, mises en œuvre pour une image courante de la séquence, distincte de l'image de référence :1. A method of tracking a target in a sequence of medical digital images, an area of interest having been predetermined in an initial image of the sequence, called the reference image, said method comprising the following steps, implemented for an image current of the sequence, distinct from the reference image: Obtention (El) d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence ;Obtaining (El) an initial position of a model of an area of interest in the current image from a position of a model of an area of interest in a previous image of the sequence; Obtention (E2) d'une mesure de confiance par élément d'image pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image;Obtaining (E2) a confidence measurement per image element for said reference image and for said current image, said measurement being representative of confidence in an intensity of the image element; Transformation (E3) de la position initiale du modèle de la zone d'intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, caractérisé en ce qu'il comprend en outre, suite à la transformation, une étape (E5) de détection dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues pour l'image de référence et l'image courante et, lorsqu'au moins un élément d'image a été détecté, une étape de correction (E6) du au moins un élément détecté au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.Transformation (E3) of the initial position of the model of the area of interest in the current image comprising a minimization of a cost function based at least on a difference between the intensities of the current image and of the image of reference, characterized in that it further comprises, following the transformation, a step (E5) of detection in the area of interest of the reference image of at least one image element to be corrected, from confidence measurements obtained for the reference image and the current image and, when at least one image element has been detected, a correction step (E6) of the at least one element detected at least from l intensity of at least one image element of the area of interest of the current image. 2. Procédé de suivi de cible selon la revendication 1, caractérisé en ce qu'il comprend une étape (E4) de mise en correspondance des éléments d'image de la zone d'intérêt de l'image de référence et des éléments d'image de la zone d'intérêt de l'image courante et en ce que l'étape de détection comprend une comparaison (E51) de la mesure de confiance d'un élément d'image de la zone d'intérêt de l'image de référence à celle d'au moins un élément d'image correspondant dans la zone d'intérêt de l'image courante, un élément d'image à corriger étant détecté (E52) lorsque sa mesure de confiance est inférieure à celle du au moins un élément d'image correspondant.2. A target tracking method according to claim 1, characterized in that it comprises a step (E4) of matching the image elements of the area of interest of the reference image and the elements of image of the area of interest of the current image and in that the detection step comprises a comparison (E51) of the confidence measurement of an image element of the area of interest of the image of reference to that of at least one corresponding picture element in the area of interest of the current image, a picture element to be corrected being detected (E52) when its confidence measurement is lower than that of at least one corresponding picture element. 3. Procédé de suivi de cible selon la revendication 2, caractérisé en ce que la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par l'intensité du au moins un élément d'image correspondant dans l'image courante.3. A method of target tracking according to claim 2, characterized in that the correction of a picture element detected in the reference image comprises replacing its intensity by the intensity of the at least one picture element corresponding in the current image. 4. Procédé de suivi de cible selon la revendication 2, caractérisé en ce que la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par une intensité calculée à partir d'une fonction de correction qui prend en compte les intensités des éléments d'image de la zone d'intérêt de l'image de référence et celles des éléments correspondants dans la zone d'intérêt de l'image courante et leurs mesures de confiance associées.4. A method of target tracking according to claim 2, characterized in that the correction of an image element detected in the reference image comprises replacing its intensity with an intensity calculated from a correction function which takes into account the intensities of the image elements in the area of interest of the reference image and those of the corresponding elements in the area of interest of the current image and their associated confidence measures. 5. Procédé de suivi de cible selon la revendication 4, caractérisé en ce que la fonction de correction de l'intensité d'un élément d'image détecté calcule une intensité corrigée par un rapport entre une densité de probabilité jointe qui définit la probabilité qu'un élément d'image dans la zone d'intérêt prenne une première valeur d'intensité dans l'image courante et une deuxième valeur dans l'image de référence et une probabilité que cet élément d'image prenne la deuxième valeur dans l'image de référence.5. A target tracking method according to claim 4, characterized in that the intensity correction function of a detected picture element calculates an intensity corrected by a ratio between a joint probability density which defines the probability that an image element in the area of interest takes a first intensity value in the current image and a second value in the reference image and a probability that this image element takes the second value in the reference image. 6. Procédé de suivi de cible selon l'une des revendications 2 à 5, caractérisé en ce qu'il comprend en outre une étape de correction des mesures de confiance associées aux intensités corrigées dans l'image de référence au moins à partir des mesures de confiance des éléments d'image correspondants de l'image courante.6. A target tracking method according to one of claims 2 to 5, characterized in that it further comprises a step of correcting the confidence measurements associated with the intensities corrected in the reference image at least from the measurements of confidence of the corresponding picture elements of the current picture. 7. Procédé de suivi de cible selon la revendication 5, caractérisé en ce que la mesure de confiance d'un élément d'image corrigé est remplacée par celle de l'élément d'image correspondant de l'image courante.7. A target tracking method according to claim 5, characterized in that the confidence measurement of a corrected image element is replaced by that of the corresponding image element of the current image. 8. Dispositif (100) de suivi de cible dans une séquence d'images numériques médicales à partir d'une image courante, une zone d'intérêt (Zl(Ito)) ayant été prédéterminée dans une image de référence de la séquence, comprenant une machine dédiée à ou configurée pour mettre en œuvre, pour une image courante de la séquence :8. Device (100) for tracking a target in a sequence of medical digital images from a current image, an area of interest (Zl (Ito)) having been predetermined in a reference image of the sequence, comprising a machine dedicated to or configured to implement, for a current image of the sequence: - Obtention d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence ;- Obtaining an initial position of a model of an area of interest in the current image from a position of a model of an area of interest in a previous image of the sequence; - Obtention d'une mesure de confiance par élément d'image (Uto) pour ladite image de référence et (Ut) pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image;- Obtaining a confidence measure per image element (Uto) for said reference image and (Ut) for said current image, said measurement being representative of confidence in an intensity of the image element; - Transformation de la zone d'intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, caractérisé en ce que, suite à la transformation, elle est apte à :- Transformation of the area of interest in the current image comprising a minimization of a cost function based at least on a difference between the intensities of the current image and of the reference image, characterized in that, following for processing, it is able to: - détecter dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues et,detecting in the area of interest of the reference image of at least one image element to be corrected, on the basis of the confidence measurements obtained and, - lorsqu'au moins un élément d'image a été détecté, le corriger au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.- when at least one image element has been detected, correct it at least on the basis of the intensity of at least one image element of the area of interest of the current image. 9. Equipement terminal (ET) comprenant un module d'acquisition (ACQ) d'images, un module de traitement (PROC) des images acquises, un module (DISP) d'affichage des images traités, un module d'interaction (INT) avec un utilisateur, caractérisé en ce qu'il comprend un dispositif (100) de suivi de cible selon la revendication 8.9. Terminal equipment (ET) comprising an image acquisition module (ACQ), a processing module (PROC) of the acquired images, a module (DISP) for displaying the processed images, an interaction module (INT ) with a user, characterized in that it comprises a target tracking device (100) according to claim 8. 10. Programme d'ordinateur (Pgl) comportant des instructions pour la mise en œuvre du procédé de suivi de cible selon l'une quelconque des revendications 1 à 7, lorsque ledit programme est exécuté par un processeur.10. Computer program (Pgl) comprising instructions for the implementation of the target tracking method according to any one of claims 1 to 7, when said program is executed by a processor. 11. Support d'enregistrement lisible par un ordinateur, sur lequel est enregistré un programme d'ordinateur comprenant des instructions de code de programme pour l'exécution des étapes du procédé selon l'une des revendications 1 à 7.11. A recording medium readable by a computer, on which a computer program is recorded comprising program code instructions for the execution of the steps of the method according to one of claims 1 to 7. 1/41/4
FR1661980A 2016-12-06 2016-12-06 METHOD FOR TRACKING A TARGET IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS Pending FR3059807A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1661980A FR3059807A1 (en) 2016-12-06 2016-12-06 METHOD FOR TRACKING A TARGET IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS
PCT/FR2017/053244 WO2018104609A1 (en) 2016-12-06 2017-11-24 Method for tracking a target in a sequence of medical images, associated device, terminal apparatus and computer programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1661980A FR3059807A1 (en) 2016-12-06 2016-12-06 METHOD FOR TRACKING A TARGET IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS
FR1661980 2016-12-06

Publications (1)

Publication Number Publication Date
FR3059807A1 true FR3059807A1 (en) 2018-06-08

Family

ID=58228200

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1661980A Pending FR3059807A1 (en) 2016-12-06 2016-12-06 METHOD FOR TRACKING A TARGET IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS

Country Status (2)

Country Link
FR (1) FR3059807A1 (en)
WO (1) WO2018104609A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145152A (en) * 2019-12-24 2020-05-12 上海联影智能医疗科技有限公司 Image detection method, computer device, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685839B (en) * 2018-12-20 2023-04-18 广州华多网络科技有限公司 Image alignment method, mobile terminal and computer storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150117761A1 (en) * 2013-10-29 2015-04-30 National Taipei University Of Technology Image processing method and image processing apparatus using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150117761A1 (en) * 2013-10-29 2015-04-30 National Taipei University Of Technology Image processing method and image processing apparatus using the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ROYER LUCAS ET AL: "Real-time target tracking of soft tissues in 3D ultrasound images based on robust visual information and mechanical simulation", MEDICAL IMAGE ANALYSIS, vol. 35, 15 September 2016 (2016-09-15), pages 582 - 598, XP029801732, ISSN: 1361-8415, DOI: 10.1016/J.MEDIA.2016.09.004 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145152A (en) * 2019-12-24 2020-05-12 上海联影智能医疗科技有限公司 Image detection method, computer device, and storage medium
CN111145152B (en) * 2019-12-24 2024-02-27 上海联影智能医疗科技有限公司 Image detection method, computer device, and storage medium

Also Published As

Publication number Publication date
WO2018104609A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
Zhuang et al. Bayesian retinex underwater image enhancement
Sen et al. Robust patch-based hdr reconstruction of dynamic scenes.
Huhle et al. Fusion of range and color images for denoising and resolution enhancement with a non-local filter
Li et al. Specular reflections removal for endoscopic image sequences with adaptive-RPCA decomposition
WO2020187705A1 (en) Feature point detection
Benecki et al. Evaluating super-resolution reconstruction of satellite images
Bağci et al. Automatic best reference slice selection for smooth volume reconstruction of a mouse brain from histological images
WO2015195048A1 (en) Reducing speckle noise in optical coherence tomography images
Shim et al. Time-of-flight sensor and color camera calibration for multi-view acquisition
CN116580068B (en) Multi-mode medical registration method based on point cloud registration
Vlachos et al. Finger vein segmentation from infrared images based on a modified separable mumford shah model and local entropy thresholding
EP2405816B1 (en) Pattern noise correction for pseudo projections
Zhang et al. Depth enhancement with improved exemplar-based inpainting and joint trilateral guided filtering
WO2018104609A1 (en) Method for tracking a target in a sequence of medical images, associated device, terminal apparatus and computer programs
Zhang et al. Underwater image enhancement via multi-scale fusion and adaptive color-gamma correction in low-light conditions
Bevilacqua et al. Joint inpainting of depth and reflectance with visibility estimation
Koehler et al. Multi-sensor super-resolution for hybrid range imaging with application to 3-D endoscopy and open surgery
WO2016207036A1 (en) Edge detection on images with correlated noise
Feigin et al. Statistical consensus matching framework for image registration
Viacheslav et al. Kinect depth map restoration using modified exemplar-based inpainting
Ko et al. Accurate depth estimation of skin surface using a light‐field camera toward dynamic haptic palpation
Lobachev et al. Evaluating registrations of serial sections with distortions of the ground truths
Bansal et al. 3D optic disc reconstruction via a global fundus stereo algorithm
Balure et al. A Survey--Super Resolution Techniques for Multiple, Single, and Stereo Images
WO2016005688A1 (en) System and method for three-dimensional depth imaging

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180608

PLFP Fee payment

Year of fee payment: 3

RX Complete rejection

Effective date: 20200130