FR2842931A1 - Amelioration d'un procede pour afficher des variations temporelles dans des images superposees dans l'espace. - Google Patents

Amelioration d'un procede pour afficher des variations temporelles dans des images superposees dans l'espace. Download PDF

Info

Publication number
FR2842931A1
FR2842931A1 FR0308856A FR0308856A FR2842931A1 FR 2842931 A1 FR2842931 A1 FR 2842931A1 FR 0308856 A FR0308856 A FR 0308856A FR 0308856 A FR0308856 A FR 0308856A FR 2842931 A1 FR2842931 A1 FR 2842931A1
Authority
FR
France
Prior art keywords
image signal
image
signal
confidence
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0308856A
Other languages
English (en)
Other versions
FR2842931B1 (fr
Inventor
John Michael Sabol
Gopal B Avinash
Vianney Pierre Battle
Kadri N Jabri
Renuka Uppaluri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Global Technology Co LLC
Original Assignee
GE Medical Systems Global Technology Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Global Technology Co LLC filed Critical GE Medical Systems Global Technology Co LLC
Publication of FR2842931A1 publication Critical patent/FR2842931A1/fr
Application granted granted Critical
Publication of FR2842931B1 publication Critical patent/FR2842931B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/412Dynamic
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S378/00X-ray or gamma ray systems or devices
    • Y10S378/901Computer tomography program or processor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Multimedia (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Un système 10 de traitement temporel d'images comprend un organe de commande de traitement temporel 14 recevant au moins deux images temporellement espacées l'une de l'autre, provenant d'un module de balayage 16. L'organe de commande de traitement temporel 14 comprend un module de superposition, qui superpose une zone d'intérêt dans les images et produit en réponse un signal de superposition. L'organe de commande de traitement temporel 14 comprend en outre un module de confiance qui reçoit le signal de superposition et produit en réponse une carte de confiance. La carte de confiance accentue le contraste de variations temporelles dans l'objet par rapport au contraste dû à des erreurs de superposition.

Description

AMELIORATION D'UN PROCEDE POUR AFFICHER DES VARIATIONS
TEMPORELLES DANS DES IMAGES SUPERPOSEES DANS L'ESPACE
Cette invention porte globalement sur des systèmes d'imagerie et en particulier
sur un procédé pour améliorer l'affichage de variations temporelles.
Les appareils d'imagerie, tels que des appareils à rayons X, sont largement utilisés à la fois dans des applications médicales et industrielles. Les appareils d'imagerie utilisent souvent un traitement temporel pour suivre des variations dans un
objet au cours du temps.
Les systèmes de traitement temporel comprennent typiquement les modules classiques suivants: module de mémorisation d'acquisitions, module de segmentation, module de superposition (mise en correspondance), module de comparaison et module de compte-rendu. Les images d'entrée sont des images en une, deux ou trois dimensions (ID, 2D ou 3D), sont calculées, synthétisées, ou montées quand de multiples images séparées acquises à un même instant sont combinées pour former une plus grande image composée sans raccords. De plus, des images en une dimension peuvent être montées pour former des images en deux ou trois dimensions, par exemple un scanogramme
(balayage de repérage) en tomosynthèse.
La détection de variations entre des images médicales d'un patient acquises à deux instants différents offre un important potentiel d'amélioration du diagnostic. Les progrès de l'imagerie numérique permettent une détection et une identification assistées par ordinateur de ces variations, et la création d'une "image de dissimilitudes" contenant l'information de variations. Cette image de dissimilitudes peut être examinée par l'oeil humain ou peut devenir l'entrée d'un dispositif d'analyse automatique tel qu'un
algorithme de DAO (diagnostic assisté par ordinateur).
Actuellement, selon une partie de l'application "soustraction temporelle" du logiciel Space de Mitsubishi, des images de dissimilitudes sont calculées en utilisant une simple soustraction pixel par pixel d'images superposées. Une simple soustraction fournit toutefois des images ayant un faible contraste, et n'est pas très robuste quand les deux images initiales sont acquises par des techniques différentes. De plus, une simple soustraction n'incorpore pas d'indication de la confiance en la valeur de dissimilitude mesurée. Pour une image de soustraction temporelle, les valeurs de pixel résultantes (et donc les niveaux de gris affichés) sont proportionnelles à la différence ou dissimilitude de valeur de pixel entre deux images acquises avec une certaine séparation temporelle. Des images d'entrée sont souvent superposées (mises en correspondance) et traitées pour compenser divers facteurs tels que: des différences dans le positionnement du sujet entre les deux acquisitions d'image, des différences dans les paramètres d'acquisition, des différences dans les définitions en bits des images, et des différences
dans les éventuels pré- ou post-traitements qui peuvent avoir été appliqués aux images.
Des erreurs de superposition des deux images peuvent entraîner des valeurs significativement élevées dans l'image de dissimilitudes. Par exemple, si la superposition obtenue n'est pas parfaite, l'image d'analyse temporelle d'un sujet qui est identique aux deux instants d'acquisition n'est pas uniforme alors que le résultat souhaité serait une image à contraste nul. Des éléments non nuls apparaissent aux positions o la superposition n'est pas exacte. Ces éléments non nuls représentent des artefacts qui
peuvent être considérés à tort comme des variations temporelles dans le sujet.
Même un algorithme de superposition idéal produit des artefacts, simplement en raison du bruit dans l'opération d'acquisition d'image. Avec une définition d'affichage mal choisie, des différences de texture du bruit entre les deux images temporellement séparées sont visibles et peuvent potentiellement gêner l'observateur. Dans le cas d'une superposition imparfaite, des erreurs de superposition peuvent être visualisées avec un
contraste plus élevé que des variations physiques dans le patient.
Les inconvénients associés aux systèmes d'imagerie actuels font clairement
apparaître un besoin d'une nouvelle technique pour le traitement temporel et l'affichage.
La nouvelle technique doit sensiblement augmenter la précision des informations
acquises obtenues par traitement temporel. La présente invention est dirigée vers ce but.
Selon un premier aspect de la présente invention, un système de traitement temporel d'images comprend un organe de commande de traitement temporel adapté pour recevoir un premier signal d'image et un deuxième signal d'image provenant d'un organe de commande d'image. L'organe de traitement temporel comprend un module de superposition adapté pour superposer une zone d'intérêt du premier signal d'image et du deuxième signal d'image et produire en réponse un signal de superposition. L'organe de commande de traitement temporel comprend en outre un module de confiance adapté pour recevoir le signal de superposition et adapté en outre pour déterminer en réponse une carte de confiance. La carte de confiance est adaptée pour accentuer le contraste d'une variation temporelle dans l'objet par rapport au contraste d à au moins une erreur
de superposition.
Selon un autre aspect de la présente invention, un procédé de traitement temporel d'images comprend une étape consistant à balayer un objet et produire en réponse un premier signal d'image et un deuxième signal d'image. Le procédé comprend en outre une étape consistant à recevoir le premier signal d'image et le deuxième signal d'image dans un module de superposition et à superposer au moins une zone d'intérêt du premier signal d'image et du deuxième signal d'image pour produire au moins un signal de cot. Une carte de confiance est produite à partir du signal de cot, pour accentuer le contraste des variations temporelles entre le premier signal d'image et le deuxième signal d'image. Au moins une distinction est créée entre le contraste de variations temporelles entre le premier signal d'image et le deuxième signal d'image et le contraste
d à au moins une erreur de superposition.
D'autres avantages et caractéristiques de la présente invention ressortiront de la
description qui suit et peuvent être réalisés par les instruments et combinaisons décrits
avec précision dans les revendications annexées et les dessins joints.
L'invention sera mieux comprise à l'étude de la description suivante de quelques
formes de réalisation exemplaires, illustrée par les dessins joints dans lesquels: la figure 1 est un schéma d'un système d'imagerie selon une forme de réalisation préférée de la présente invention; la figure 2 est un schéma synoptique de la figure 1; la figure 3 est un schéma synoptique du module de traitement temporel de la figure 1; et la figure 4 est un organigramme d'un procédé de traitement temporel d'images,
selon une forme de réalisation préférée de la présente invention.
La présente invention est représentée à propos d'un système 10 de traitement temporel d'images, particulièrement adapté au domaine médical, spécifiquement à la radiographie pulmonaire. La présente invention est toutefois applicable à diverses autres utilisations qui peuvent requérir l'imagerie temporelle, telles que les essais non destructifs et autres applications industrielles, comme le comprendront les personnes
compétentes dans l'art.
On se rapportera maintenant aux figures 1 et 2, qui représentent un organe de commande d'image 12 comprenant un organe de commande de traitement temporel 14
relié à un module de balayage 16, selon une forme de réalisation préférée de l'invention.
Le module de balayage 16 comprend par exemple une source de rayons X 18 reliée à un portique 20 et produisant un flux de rayons X 22 qui traverse un objet 24 (par exemple un patient) placé sur une table 25. Le système 10 comprend en outre un détecteur de
rayons X 26, également relié au portique 20.
L'organe de commande d'image 12, comprenant l'organe de commande de traitement temporel 14 et divers autres composants bien connus de commande d'imagerie et d'affichage, reçoit les signaux du détecteur et produit en réponse des premier et deuxième signaux d'image. L'organe de commande d'image 12 comprend aussi, par exemple, un pupitre d'opérateur 28, un écran de contrôle et interface utilisateur 29, un organe de commande de rayons X 30, un organe de commande de table 32, un organe de commande de moteur de portique 34, une mémoire de masse 38, un reconstructeur d'image 41 et un système d'acquisition de données (SAD) 42, qui sont tous reliés à un ordinateur hôte et dispositif d'affichage 43, sont bien connus dans l'art et
seront décrits plus bas.
On se rapportera maintenant à la figure 3 qui représente schématiquement l'organe de commande de traitement temporel 14 de la figure 1. Une forme de réalisation de l'organe de commande de traitement temporel 14 comprend un module de mémorisation d'acquisitions 40, un module de traitement 42, un module de segmentation 44, un module de superposition 46, un module de confiance 48, un module de comparaison 50 et un module de compte-rendu 52. Les modules mentionnés plus haut sont soit des algorithmes logiciels soit des composants de circuit discrets, ou une combinaison des deux, comme le comprendront les personnes compétentes dans l'art. A propos des figures 1, 2 et 3, le module de mémorisation d'acquisitions 40 contient les images acquises. Pour une analyse des variations temporelles, un système de recherche automatique de données récupère des données d'image mémorisées (par exemple dans la mémoire de masse 38) correspondant à un instant antérieur, ou des données provenant du reconstructeur d'image 41 qui reçoit des signaux du système
d'acquisition de données (SAD) 42.
A titre d'exemple représentatif, seulement deux images Il et 12 correspondant à deux instants t1 et t2 sont contenues, toutefois les personnes compétentes dans l'art comprendront que l'approche globale peut être étendue à n'importe quel nombre d'images dans la séquence d'acquisition et de traitement temporel. L'image de comparaison temporelle est appelée Il-2. Il et I2 sont soit les images originales non traitées provenant d'un système d'acquisition, soit des versions des images originales ayant subi un post-traitement. Les personnes compétentes dans l'art comprendront que le module de mémorisation d'acquisitions 40 peut contenir des images provenant de presque n'importe quelle source d'imagerie numérique, incluant des versions numérisées
d'images analogiques sur pellicule.
Le module de traitement 42 reçoit les deux images Il et I2 du module de mémorisation d'acquisitions 40 et les "normalise" pour tenir compte de différences dans les techniques d'acquisition ou de différences dans les procédés de pré- et posttraitement. Toujours à titre d'exemple, dans des images radiographiques, si la première image Il correspond à une dose moitié de celle de la deuxième image 12, les niveaux de gris dans la première image sont multipliés par deux avant toute autre comparaison à la deuxième image. Cette multiplication compense les différences d'intensité globale des images dues, par exemple, à des différences dans la dose de rayons X. Le module de segmentation 44 reçoit les images normalisées du module de traitement 42 et, par fonctionnement automatique ou commande manuelle par l'interface
utilisateur 29 ou le pupitre d'opérateur 28, isole des zones d'intérêt de Il 54 et de I2 56.
Assez souvent, la zone d'intérêt est l'image entière.
Le module de superposition 46 reçoit les signaux de zone d'intérêt 54, 56 du module de segmentation 44 et met en oeuvre des procédés de superposition pour produire un signal de superposition. Si les zones d'intérêt 54, 56 utilisées pour l'analyse de variations temporelles sont petites, des transformations de superposition à corps rigides, incluant des translations, rotations, agrandissements et cisaillements, sont suffisantes pour superposer une paire d'images acquises aux instants t, et t2. Toutefois, si les zones d'intérêt 54, 56 sont grandes, comprenant l'image presque entière, des
transformations élastiques de gauchissement sont appliquées.
Un moyen de mise en oeuvre de la superposition par gauchissement consiste à utiliser une approche pyramidale à plusieurs échelles et plusieurs zones. Pour cette approche, une fonction de cot différente mettant des variations en évidence est optimisée à chaque échelle. Ces fonctions de cot sont des procédés de corrélation, tels qu'une corrélation mathématique et une mesure des changements de signe, ou des
procédés statistiques tels que des mesures d'entropie et d'informations mutuelles.
Pour une superposition par gauchissement, les images sont rééchantillonnées à une échelle donnée puis sont scindées en de multiples zones. Des vecteurs de décalage sont calculés séparément pour les différentes zones. Les vecteurs de décalage sont interpolés pour produire une transformation à décalages réguliers, qui est appliquée pour gauchir l'une des images. Les images Il, 12 sont ré-échantillonnées et le processus de superposition par gauchissement est répété à l'échelle supérieure suivante jusqu'à atteindre l'échelle finale prédéfinie. Dans d'autres situations, une combinaison de
transformations de superposition rigides et élastiques est utilisée.
Le module de confiance 48 reçoit la fonction de cot et un facteur de mérite de la fonction de cot, et les utilise pour déterminer une carte de confiance. La carte obtenue accentue le contraste des variations temporelles dans l'objet par rapport au contraste d aux erreurs de superposition. Cela met en évidence des variations anatomiques par rapport à de petites erreurs de superposition. Il est important de noter que la fonction de cot fournit des valeurs extrêmes indépendamment du fait que les valeurs de pixel non nulles dans l'image de dissimilitudes sont dues à une imprécision
des procédés de superposition ou à de réelles variations anatomiques.
Une variante comprend le fait de distinguer si les variations sont dues à une variation anatomique ou à des imprécisions dans la superposition. Cela est réalisé dans de nombreux procédés différents. Tous ces procédés utilisent une connaissance préalable de l'objet 24, des modes de déplacement envisagés, ou de l'état pathologique envisagé. Par exemple, les os dans l'objet 24 ont tendance à se déplacer comme des corps rigides, et des objets au sein d'un organe ou d'une structure tissulaire ont tendance à se déplacer ensemble d'une manière régulière et continue. Une connaissance de la forme caractéristique, de l'étendue envisagée, etc. d'une pathologie est utilisée dans une variante. Par exemple, pour détecter des nodules, une métrique de circularité en 2D ou une métrique de sphéricité en 3D est utilisée avec des limites envisagées pour ces métriques. Le module de comparaison 50 reçoit le signal de zone d'intérêt de Il 54 et le signal de superposition, calcule une mesure de dissimilitude entre les images
superposées, et produit en réponse un signal de comparaison.
La comparaison des images superposées est réalisée de plusieurs manières. En plus, ou au lieu, d'utiliser une simple soustraction entre les images superposées pour obtenir l'image de dissimilitudes, un procédé de division amélioré est utilisé, qui est
décrit par l'expression (11xI2)/(I2xI2+(D).
La carte de confiance est utilisée dans au moins deux formes de réalisation. Dans la première forme de réalisation, la carte de confiance est intégrée à la création d'une image de dissimilitudes. Par exemple, dans une forme de réalisation de la présente invention, phi ('1) est une fonction spatiale de la carte de confiance. Pour plus de souplesse, une métrique de sensibilité détermine l'importance relative de la pondération par la confiance. Cela est représenté par le trait interrompu liant le module de confiance au module de comparaison. Une commande de l'utilisateur ou autre dispositif de commande connu règle l'importance relative de la pondération. La commande est
incorporée à l'application ou adaptée en vue d'une action par l'utilisateur.
Par exemple, par un réglage extrême de la commande, un utilisateur calcule une image de dissimilitudes pure (toutes les variations sont également pondérées), ou par le réglage extrême opposé de la commande, l'utilisateur calcule une image de dissimilitudes pondérée dans laquelle les valeurs de pixel sont pondérées par la confiance avec laquelle elles représentent des variations anatomiques et non des erreurs
de superposition.
Dans la deuxième forme de réalisation, la carte de confiance est utilisée seulement pour pondérer l'affichage, de sorte que l'image obtenue par la division améliorée est combinée à l'information de confiance obtenue au préalable, comme décrit
plus bas à propos du module de compte-rendu 52.
Le module de compte-rendu 52 reçoit le signal de comparaison et fournit les capacités d'affichage et de quantification permettant à l'utilisateur de visualiser et quantifier les résultats de la comparaison temporelle. Les résultats de la comparaison temporelle sont simultanément affichés sur un deuxième module d'affichage avec l'une ou l'autre des images Il et 12. Selon une autre possibilité, une superposition de I12 sur Il ou 12 est produite par un opérateur logique en fonction d'un critère préalablement spécifié, comme le comprendront les personnes compétentes dans l'art. Pour une comparaison quantitative, des tables de couleur à consulter pour les images superposées sont utilisées à titre d'exemple représentatif. D'autres techniques de comparaison quantitative comprennent une classification numérique, une segmentation des
différentes sections de l'image, ou d'autres techniques connues d'identification discrète.
La combinaison obtenue est réalisée par un affichage en incrustation multicolore.
Une autre manière de combiner les informations de variations et de confiance consiste à modifier localement l'image de dissimilitudes en fonction de la carte de confiance. Ces modifications affectent localement les couleurs utilisées pour afficher
l'image de dissimilitudes ou le contraste de niveaux de gris lui-même.
Pour plus de souplesse, une métrique de sensibilité détermine l'importance relative de la pondération par la confiance. Cela est représenté par le trait interrompu liant le module de confiance au module de compte-rendu 58. Une commande de
l'utilisateur règle l'importance relative de la métrique de sensibilité.
Par exemple, par un réglage extrême, l'écran de contrôle 29 affiche une image de dissimilitudes pure (toutes les variations sont également pondérées), ou par le réglage extrême opposé de la commande d'utilisateur, l'écran de contrôle 29 affiche une image de dissimilitudes pondérée dans laquelle toutes les valeurs de pixel sont pondérées par la confiance avec laquelle elles représentent des variations anatomiques et non des erreurs de superposition. Cet affichage incorpore des procédés calorimétriques, numériques ou autres procédés connus pour mettre en évidence des zones d'intérêt par
des caractéristiques distinctives.
En plus de l'affichage destiné à l'observateur, les images obtenues sont encore analysées quantitativement. Par exemple, l'utilisation d'autres mesures statistiques, telles que d'entropie, ou des techniques de reconnaissance de formes incluant le DAO
réalisent une autre analyse automatique des résultats.
La présente invention est représentée par rapport à des systèmes de radiographie et de tomodensitométrie, toutefois elle peut être utilisée selon une variante pour n'importe quel type de système d'imagerie incluant l'imagerie par résonance magnétique (IRM), la mammographie, la radiographie vasculaire, la scintigraphie osseuse, la tomographie par émission de positons (TEP), la scintigraphie, l'échographie, l'imagerie optique, etc. D'autres formes de réalisation comprennent des applications non médicales, telles que l'inspection de soudures et l'inspection de métaux. Essentiellement, n'importe quelle application utilisant un système d'imagerie pour obtenir des images en 1, 2 ou 3 dimensions ou des images montées en 1, 2 ou 3 dimensions entre dans le
champ d'application.
Des modules de balayage typiques comprennent une source de rayons X 18 reliée à un portique 20. La source de rayons X 18 produit un flux de rayons X 22 qui traverse un objet balayé 24 placé sur une table 25. Un détecteur de rayons X 26 est aussi typiquement relié au portique 20 de sorte que le détecteur 26 reçoit le flux de rayons X 22. Des corrections ou étalonnages spécifiques du détecteur sont alors effectués, comme
le comprendront les personnes compétentes dans l'art.
La source de rayons X 18 est réalisée sous la forme d'une source de rayons X à panneau plat ou d'une source de rayons X étendue (par exemple Imatron), ou d'un tube à rayons X classique. La source de rayons X 18 est activée soit par l'ordinateur hôte 43 soit par un organe de commande de rayons X 30, comme le comprendront les personnes compétentes dans l'art. La source de rayons X 18 émet le flux de rayons X 22 à travers l'objet 24 placé sur la table mobile 25 commandée par le dispositif de commande de table 32 en réponse à des signaux provenant de l'ordinateur hôte 43, comme le
comprendront les personnes compétentes dans l'art.
Dans une forme de réalisation, le portique 20 est une plate-forme annulaire qui tourne autour de l'objet balayé 24 en réponse à des signaux provenant de l'organe de commande de moteur de portique 34, comme le comprendront les personnes
compétentes dans l'art.
Pour une seule image I, le flux de rayons X 22 provenant de la source de rayons X 18 traverse l'objet 24 et frappe le détecteur de rayons X 26. Le signal est transmis à l'ordinateur hôte et dispositif d'affichage 43, o le signal est converti en niveaux de gris correspondant à l'atténuation des photons de rayons X à travers le patient. L'image est ensuite mémorisée dans la mémoire de masse 38 ou reçue dans l'organe de commande
de traitement temporel 14.
Le détecteur 26 est typiquement situé en regard de la source de rayons X 18 pour
recevoir le flux de rayons X 22 qu'elle émet.
L'ordinateur hôte 43 reçoit des signaux du détecteur. L'ordinateur hôte 43 active aussi la source de rayons X 18 par des signaux provenant du pupitre d'opérateur 28 ou de l'interface utilisateur 29; toutefois, des variantes comprennent un moyen d'activation indépendant pour la source de rayons X 18. La présente invention comprend un pupitre d'opérateur 28 pour une commande par des techniciens, comme le comprendront les
personnes compétentes dans l'art.
Une forme de réalisation de la présente invention incorpore l'utilisation d'une imagerie temporelle pour le scanogramme (balayage de repérage) sur un système d'imagerie 10. Durant un scanogramme de la source de rayons X 18 vers les éléments du détecteur 26, le tube de rayons X reste stationnaire tandis que la table de patient 25 est translatée sous le flux de rayons X 22. Cela permet d'obtenir une image bidimensionnelle idéale pour des informations qualitatives et pour localiser la position
désirée en vue d'un balayage durant une autre imagerie temporelle.
On se rapportera maintenant à la figure 4 qui est un organigramme d'un procédé de traitement temporel d'images. L'exécution commence à une étape 102 à laquelle l'objet est balayé à des périodes de temps différentes pour produire des signaux d'image. L'exécution passe ensuite à une étape 104 à laquelle l'organe de commande de traitement temporel acquiert les signaux d'image par l'intermédiaire du module de mémorisation d'acquisitions, normalise les images dans le module de traitement et isole des zones d'intérêt dans le module de segmentation. L'exécution passe ensuite à une étape 106 à laquelle l'organe de commande de traitement temporel superpose les images. A une étape 108, la région ou zone d'intérêt est analysée. De petites zones sont analysées en utilisant au moins un critère parmi des critères de translation, de rotation, d'agrandissement et de cisaillement, pour produire un signal de cot (c'est-à-dire une
fonction de cot ou un facteur de mérite de la fonction de cot) à une étape 114.
De grandes zones sont analysées en utilisant au moins un critère de transformation par gauchissement, pour produire un signal de cot (c'està-dire une
fonction de cot ou un facteur de mérite de la fonction de cot).
Le signal de cot associé à une grande zone ou une petite zone, obtenu à l'étape
114, est utilisé pour produire une carte de confiance à une étape 1 16.
L'exécution passe ensuite à une étape 118 à laquelle au moins une caractéristique distinctive est créée entre le contraste des variations temporelles entre les images et le
contraste d à une erreur de superposition.
Une étape critique de la technique de soustraction temporelle est la présentation des résultats à l'observateur. Il est crucial que l'observateur comprenne la chaîne de traitement d'affichage. Dans ce but, même si la correspondance entre les résultats de soustraction et les niveaux de gris affichés est probablement établie par un logiciel
incorporé, non accessible à l'utilisateur final, une description précise de l'algorithme est
donnée pour que l'observateur comprenne ce qu'il voit et puisse apprécier la signification clinique des niveaux de gris affichés en utilisant sa connaissance préalable
du processus et ses compétences en physique d'imagerie, anatomie et pathologie.
L'inclusion supplémentaire d'une variable d'utilisateur, ou métrique de sensibilité dépendant de l'examen, pour déterminer l'importance relative de la pondération par la confiance offre plus de souplesse. Comme l'utilisateur choisit ce qu'il souhaite voir, allant d'une image de dissimilitudes pure à une image de dissimilitudes pondérée par la confiance en la superposition, il peut se familiariser au système et apprendre à apprécier
la signification clinique des variations présentées.
En service, le procédé de traitement temporel d'images comprend les étapes consistant à balayer un objet et produire en réponse un premier signal d'image et un deuxième signal d'image. Un module de superposition reçoit les signaux et superpose au moins une zone d'intérêt du premier signal d'image et du deuxième signal d'image pour produire au moins un signal de cot. Une carte de confiance est produite à partir du signal de cot, pour accentuer le contraste des variations temporelles entre le premier signal d'image et le deuxième signal d'image. Au moins une caractéristique distinctive est aussi produite pour distinguer le contraste de variations temporelles entre le premier signal d'image et le deuxième signal d'image par rapport au contraste d à au moins une
erreur de superposition.
Il ressort de ce qui précède qu'un nouveau système 10 de traitement temporel
d'images a été apporté à l'art. On comprendra que la description précédente des formes
de réalisation préférées est simplement représentative de certaines des nombreuses
formes de réalisation constituant des applications des principes de la présente invention.
Les personnes compétentes dans l'art pourront facilement imaginer de nombreux autres agencements restant dans la portée de l'invention.

Claims (10)

REVENDICATIONS
1. Système 10 de traitement temporel d'images, comprenant: un organe de commande de traitement temporel 14 adapté pour recevoir un premier signal d'image et un deuxième signal d'image provenant d'un module de balayage 16, caractérisé en ce que ledit organe de commande de traitement temporel 14 comprend un module de superposition 46 adapté pour superposer une zone d'intérêt dudit premier signal d'image et dudit deuxième signal d'image, ledit module de superposition 46 étant en outre adapté pour produire en réponse un signal de superposition, ledit organe de commande de traitement temporel 14 comprenant en outre un module de confiance 48 adapté pour recevoir ledit signal de superposition et en outre adapté pour déterminer en réponse une carte de confiance, ladite carte de confiance étant adaptée pour accentuer le contraste de variations temporelles dans ledit
objet par rapport au contraste d à au moins une erreur de superposition.
2. Système 10 selon la revendication 1, caractérisé en ce quand ladite zone d'intérêt comprend une petite zone dudit objet, au moins une transformation de superposition à corps rigides, incluant au moins une transformation parmi translation, rotation, agrandissement et cisaillement, est un critère utilisé pour superposer ledit premier signal
d'image et ledit deuxième signal d'image.
3. Système 10 selon la revendication 1, caractérisé en ce quand ladite zone d'intérêt comprend une grande zone dudit objet, au moins une transformation de gauchissement est un critère utilisé pour superposer ledit premier signal d'image et ledit deuxième
signal d'image.
4. Système 10 selon la revendication 3, caractérisé en ce que ladite au moins une transformation de gauchissement est mise en oeuvre par une logique pyramidale à plusieurs échelles et à plusieurs zones, conçue de manière telle qu'une fonction de cot différente est adaptée pour mettre en évidence des variations entre ledit premier signal d'image et ledit deuxième signal d'image pour une pluralité de zones à chacune d'une
pluralité d'échelles.
5. Système 10 selon la revendication 4, caractérisé en ce que ladite fonction de cot comprend au moins une opération parmi corrélation mathématique, mesure des
changements de signe et analyse statistique.
6. Système 10 selon la revendication 1, caractérisé en ce que ledit module de confiance 48 est adapté pour recevoir au moins une valeur parmi ladite fonction de cot et un facteur de mérite de ladite fonction de cot, ledit module de confiance 48 étant en
outre adapté pour produire en réponse ladite carte de confiance.
7. Système 10 selon la revendication 1, caractérisé en ce que ledit module de confiance 48 est adapté pour distinguer si une différence entre ledit premier signal d'image et ledit deuxième signal d'image provient d'une variation anatomique ou de
ladite au moins une erreur de superposition.
8. Système 10 selon la revendication 1, caractérisé en ce qu'il comprend en outre une métrique de sensibilité adaptée pour régler l'importance relative de ladite carte de confiance.
9. Procédé de traitement temporel d'images, caractérisé par les étapes consistant à: balayer un objet et produire en réponse un premier signal d'image et un deuxième signal d'image; recevoir ledit premier signal d'image et ledit deuxième signal d'image dans un module de superposition 46; superposer au moins une zone d'intérêt dudit premier signal d'image et dudit deuxième signal d'image pour produire au moins un signal de cot; produire une carte de confiance à partir dudit signal de cot pour accentuer le contraste des variations temporelles entre ledit premier signal d'image et ledit deuxième signal d'image; et produire au moins une caractéristique distinctive entre le contraste de variations temporelles entre ledit premier signal d'image et ledit deuxième signal d'image et le
contraste d à au moins une erreur de superposition.
10. Procédé selon la revendication 9, caractérisé en ce qu'il comprend en outre le fait de produire un premier signal d'image comprenant une image monodimensionnelle, une image bidimensionnelle, une image tridimensionnelle, une image montée monodimensionnelle, une image montée bidimensionnelle ou une image montée tridimensionnelle.
FR0308856A 2002-07-25 2003-07-21 Amelioration d'un procede pour afficher des variations temporelles dans des images superposees dans l'espace. Expired - Fee Related FR2842931B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/064,548 US6771736B2 (en) 2002-07-25 2002-07-25 Method for displaying temporal changes in spatially matched images

Publications (2)

Publication Number Publication Date
FR2842931A1 true FR2842931A1 (fr) 2004-01-30
FR2842931B1 FR2842931B1 (fr) 2006-01-06

Family

ID=30113650

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0308856A Expired - Fee Related FR2842931B1 (fr) 2002-07-25 2003-07-21 Amelioration d'un procede pour afficher des variations temporelles dans des images superposees dans l'espace.

Country Status (3)

Country Link
US (1) US6771736B2 (fr)
JP (1) JP4584553B2 (fr)
FR (1) FR2842931B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2856169A1 (fr) * 2003-06-13 2004-12-17 Ge Med Sys Global Tech Co Llc Analyse de variations temporelles utilisant des images de decomposition a deux ou multiples niveaux d'energie

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265728B2 (en) * 2003-11-26 2012-09-11 University Of Chicago Automated method and system for the evaluation of disease and registration accuracy in the subtraction of temporally sequential medical images
JP2006055235A (ja) * 2004-08-18 2006-03-02 Ge Medical Systems Global Technology Co Llc X線ct装置およびその撮影方法
DE102004062857A1 (de) * 2004-12-27 2006-07-13 Siemens Ag Verfahren zur Ermittlung wenigstens eines Skalierungsfaktors für Messwerte eines Computertomographiegerätes
US20070081703A1 (en) * 2005-10-12 2007-04-12 Industrial Widget Works Company Methods, devices and systems for multi-modality integrated imaging
DE102005058095A1 (de) * 2005-12-05 2007-06-06 Forschungszentrum Jülich GmbH Verfahren zur topographischen Darstellung von Veränderungen in einem untersuchten Gehirn
US7769216B2 (en) * 2005-12-29 2010-08-03 Hologic, Inc. Facilitating comparison of medical images
CN101453950A (zh) * 2006-06-01 2009-06-10 皇家飞利浦电子股份有限公司 分层运动估计
CN101505662B (zh) * 2006-07-31 2013-01-30 皇家飞利浦电子股份有限公司 用于旋转血管造影术的自动等中心
US7693349B2 (en) * 2006-08-15 2010-04-06 General Electric Company Systems and methods for interactive image registration
US7974456B2 (en) * 2006-09-05 2011-07-05 Drvision Technologies Llc Spatial-temporal regulation method for robust model estimation
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
US8218905B2 (en) * 2007-10-12 2012-07-10 Claron Technology Inc. Method, system and software product for providing efficient registration of 3D image data
WO2009097612A1 (fr) * 2008-01-31 2009-08-06 The Johns Hopkins University Analyse d'image automatisée pour imagerie par résonance magnétique
EP2319013B1 (fr) * 2008-08-28 2018-02-28 Koninklijke Philips N.V. Appareil pour déterminer une modification d'une taille d'un objet
DE102008049467B4 (de) * 2008-09-29 2016-12-29 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Registrierung von tomographischen Volumendatensätzen des Darms
US8786873B2 (en) 2009-07-20 2014-07-22 General Electric Company Application server for use with a modular imaging system
US8694075B2 (en) * 2009-12-21 2014-04-08 General Electric Company Intra-operative registration for navigated surgical procedures
KR101430121B1 (ko) * 2010-04-06 2014-08-14 삼성전자주식회사 멀티-에너지 X-ray 시스템의 영상 처리 장치 및 그 방법
US8243882B2 (en) 2010-05-07 2012-08-14 General Electric Company System and method for indicating association between autonomous detector and imaging subsystem
US10194874B2 (en) 2011-05-27 2019-02-05 Ge Sensing & Inspection Technologies Gmbh Computed tomography method, computer software, computing device and computed tomography system for determining a volumetric representation of a sample
JP6049999B2 (ja) * 2012-01-13 2016-12-21 三谷セキサン株式会社 杭穴掘削管理方法及び杭穴掘削装置
US8944597B2 (en) 2012-01-19 2015-02-03 Carl Zeiss Meditec, Inc. Standardized display of optical coherence tomography imaging data
US9420945B2 (en) 2013-03-14 2016-08-23 Carl Zeiss Meditec, Inc. User interface for acquisition, display and analysis of ophthalmic diagnostic data
US9595088B2 (en) 2013-11-20 2017-03-14 Toshiba Medical Systems Corporation Method of, and apparatus for, visualizing medical image data
EP3234918A1 (fr) 2014-12-16 2017-10-25 Koninklijke Philips N.V. Visualisation pilotée par un carte de probabilité de correspondance
JP6278366B2 (ja) * 2016-09-06 2018-02-14 三谷セキサン株式会社 杭穴掘削管理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359513A (en) * 1992-11-25 1994-10-25 Arch Development Corporation Method and system for detection of interval change in temporally sequential chest images
JPH08110939A (ja) * 1994-10-12 1996-04-30 Konica Corp 画像の位置合わせ処理装置及び画像間演算処理装置
US6064770A (en) * 1995-06-27 2000-05-16 National Research Council Method and apparatus for detection of events or novelties over a change of state

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KANO A ET AL: "DIGITAL IMAGE SUBTRACTION OF TEMPORALLY SEQUENTIAL CHEST IMAGES FORDETECTION OF INTERVAL CHANGE", MEDICAL PHYSICS, AMERICAN INSTITUTE OF PHYSICS. NEW YORK, US, vol. 21, no. 3, 1 March 1994 (1994-03-01), pages 453 - 461, XP000435154, ISSN: 0094-2405 *
LESTER H ET AL: "A survey of hierarchical non-linear medical image registration", PATTERN RECOGNITION, ELSEVIER, KIDLINGTON, GB, vol. 32, no. 1, January 1999 (1999-01-01), pages 129 - 149, XP004151619, ISSN: 0031-3203 *
SUCHIN CHEN COUTRE ET AL: "Performance evaluation of image registration", PROC. 22ND ANNUAL EMBS INT CONF, vol. 4, 23 July 2000 (2000-07-23), pages 3140 - 3143, XP010531310 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2856169A1 (fr) * 2003-06-13 2004-12-17 Ge Med Sys Global Tech Co Llc Analyse de variations temporelles utilisant des images de decomposition a deux ou multiples niveaux d'energie

Also Published As

Publication number Publication date
FR2842931B1 (fr) 2006-01-06
JP2004057827A (ja) 2004-02-26
US6771736B2 (en) 2004-08-03
JP4584553B2 (ja) 2010-11-24
US20040017892A1 (en) 2004-01-29

Similar Documents

Publication Publication Date Title
FR2842931A1 (fr) Amelioration d'un procede pour afficher des variations temporelles dans des images superposees dans l'espace.
JP4079632B2 (ja) 医用画像データを選択し表示する方法及び装置
US7676257B2 (en) Method and apparatus for segmenting structure in CT angiography
US8497862B2 (en) Method and apparatus for processing three dimensional images, and recording medium having a program for processing three dimensional images recorded therein
US7860331B2 (en) Purpose-driven enhancement filtering of anatomical data
US8923577B2 (en) Method and system for identifying regions in an image
US7113631B2 (en) Method and device for reconstruction of a dynamic three-dimensional image of an object covered by a contrast medium
US8111889B2 (en) Method and apparatus for efficient calculation and use of reconstructed pixel variance in tomography images
WO2020183799A1 (fr) Dispositif de traitement d'image médicale, procédé de traitement d'image médicale, et programme
JP7114358B2 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
US20180033143A1 (en) Retrieval of corresponding structures in pairs of medical images
JP5295562B2 (ja) フレキシブル3次元回転血管造影−コンピュータ断層撮影融合方法
CN101336844A (zh) 医用图像处理装置以及医用图像诊断装置
FR2864301A1 (fr) Systeme et procede de tomosynthese radioscopique
EP2401719B1 (fr) Méthodes de segmentation d'images et de détection de structures particulières
CN111540025A (zh) 预测用于图像处理的图像
JP2020166813A (ja) 医用画像処理装置、医用画像処理方法及びプログラム
JP7490741B2 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
US20080219532A1 (en) Geometry-dependent filtering in CT method and apparatus
FR2856169A1 (fr) Analyse de variations temporelles utilisant des images de decomposition a deux ou multiples niveaux d'energie
US20040022425A1 (en) Temporal image comparison method
JP2006000127A (ja) 画像処理方法および装置並びにプログラム
CN114565711A (zh) 基于深度学习的心脏图像重建方法及系统
US7209580B2 (en) Fast computed tomography method
US10755454B2 (en) Clinical task-based processing of images

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20160331