FR2884013A1 - Systeme et procede d'amelioration d'images volumetriques - Google Patents

Systeme et procede d'amelioration d'images volumetriques Download PDF

Info

Publication number
FR2884013A1
FR2884013A1 FR0602733A FR0602733A FR2884013A1 FR 2884013 A1 FR2884013 A1 FR 2884013A1 FR 0602733 A FR0602733 A FR 0602733A FR 0602733 A FR0602733 A FR 0602733A FR 2884013 A1 FR2884013 A1 FR 2884013A1
Authority
FR
France
Prior art keywords
pixels
structural
pixel
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0602733A
Other languages
English (en)
Inventor
Gopal B Avinash
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of FR2884013A1 publication Critical patent/FR2884013A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/548Remote control of the apparatus or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Une technique est décrite pour améliorer des données d'images tridimensionnelles ou volumétriques, comme des données de tranche ou plaque épaisse, ou des données pour des tranches empilées dans une troisième dimension orthogonale à un plan d'imagerie. Cette technique traite les données d'image relativement à des paramètres de données, à la fois en deux dimensions (x, y) et en trois dimensions (x, y, z). Le traitement permet l'identification (58, 60) de pixels structurels et permet de les différencier de pixels non structurels. Les pixels structurels peuvent être identifiés d'après des gradients déterminés en trois dimensions, mais avec des directions déterminées seulement en deux dimensions. Les pixels structurels et les pixels non structurels peuvent ensuite être traités différemment pour fournir une image améliorée.

Description

Système et procédé d'amélioration d'images volumétriques
La présente invention concerne de manière générale le domaine de l'imagerie numérique, et particulièrement l'amélioration d'images volumétriques. Plus particulièrement, l'invention concerne des techniques pour traiter des images en une combinaison d'étapes d'analyse à deux dimensions et à trois dimensions.
Les images numériques sont typiquement prises et traitées soit en deux dimensions, soit en trois dimensions. Les images bidimensionnelles (images en 2D) sont traditionnellement faites en soumettant un détecteur numérique à un rayonnement. Le détecteur peut être un dispositif à couplage de charge (CCD), comme dans les caméras numériques, ou un détecteur plus complexe tel que ceux utilisés en radiographie numérique et dans diverses techniques radiographiques. Les données d'images tridimensionnelles (images en 3D) peuvent être acquises sous la forme d'une pluralité d'ensembles de données 2D. Les techniques pour acquérir des images en 3D comprennent l'imagerie par résonance magnétique (IRM), les systèmes d'imagerie par tomographie informatisée (CT) et ainsi de suite.
Des techniques ont également été développées pour améliorer les images 2D et 3D. En général, ces techniques sont adaptées spécifiquement soit à l'amélioration des images 2D, soit à l'amélioration des images 3D. Les hypothèses émises dans chaque technique ne peuvent cependant généralement rester valables que pour des situations spécifiques. Par exemple, pour des images ayant des pixels d'un premier pas ou résolution spéciale (c'est-à-dire le nombre de pixels par unité de longueur ou de surface), à la fois dans un plan image et dans une troisième dimension, les techniques existantes peuvent se comporter de façon adéquate. Toutefois, lorsque les dimensions sont différentes, l'information peut être perdue ou bien l'analyse du contenu des images peut être déformée. Ceci est particulièrement vrai pour les images ayant une plus grande profondeur dans une direction orthogonale à un plan d'image. De telles images peuvent être appelées images "à tranches épaisses" ou images "volumétriques épaisses".
2884013 2 Plusieurs applications d'amélioration d'image 2D et 3D ont été proposées pour améliorer les images 2D et 3D. En général, ces techniques d'amélioration sont utiles pour identifier des caractéristiques et des objets d'intérêt, typiquement des objets visibles dans les images. En fonction du contexte, ces caractéristiques peuvent être circonscrites, identifiées, catégorisées puis analysées, par exemple à des fins de reconnaissance. Dans un contexte de diagnostic médical, par exemple, diverses anatomies et divers états pathologiques peuvent être déterminés en se basant sur ce type d'analyse d'images. De même, l'analyse peut être utilisée pour visualiser les structures et les anatomies. Dans d'autres contextes, comme l'inspection de pièces, les défauts et caractéristiques internes peuvent être visualisés et analysés de manière similaire. Enfin, dans des contextes comme l'inspection de bagages et de colis, le contenu interne des objets peut être déterminé au moyen de techniques d'analyse et de reconnaissance.
Les images volumétriques épaisses ont à la fois des caractéristiques d'images 2D et 3D. Pour ces images, le filtrage 2D n'utilise pas pleinement une troisième dimension. Autrement dit, l'échantillonnage dans une troisième direction, qui peut être appelée "direction Z", peut être plutôt faible dans ces données d'images, ce qui donne des résultats d'analyse relativement pauvres lors de l'utilisation du filtrage 3D.
Il existe donc un besoin pour des techniques améliorées pour analyser des images volumétriques épaisses. Il existe en particulier un besoin pour une technique qui puisse utiliser de l'information supplémentaire fournie par des données volumétriques tout en maintenant l'utilisation complète de données dans le plan. Ces techniques permettraient d'améliorer les détails en mettant mieux en évidence les zones d'intérêt visuel que les techniques 2D.
La présente invention propose de nouvelles techniques d'amélioration d'images conçues pour répondre à ces besoins. Ces techniques sont particulièrement bien adaptées à l'amélioration d'images volumétriques épaisses, c'est-à-dire d'images ayant un échantillonnage le long d'une dimension orthogonale à un plan d'imagerie qui est supérieur à celui le long de la dimension dans le plan, en particulier plus de cinq fois supérieur. Toutefois, l'invention n'est pas nécessairement limitée à une épaisseur particulière, mais elle peut être plus généralement adaptée à l'analyse d'images volumétriques 2884013 3 incluant des données d'images disponibles en deux et trois dimensions. La technique permet l'analyse de structures fines qui sont échantillonnées de façon clairsemée et généralement non analysées ou analysées insuffisamment dans le traitement 3D seul. Les plus grandes structures sont toutefois échantillonnées de façon adéquates et peuvent être utilisées pour le traitement 3D dans la présente technique. La présente application de filtrage d'image réalise ainsi une analyse via des étapes de traitement 2D et 3D. Cette technique peut donc être appelée technique "2,5D".
Cette technique peut être utilisée dans un certain nombre de contextes, comme l'imagerie médicale classique, ainsi que pour l'inspection et l'analyse de pièces, l'inspection et l'analyse de bagages et de colis, et ainsi de suite. De plus, cette technique n'est pas limitée à une quelconque modalité d'imagerie particulière, mais elle peut être utilisée avec toute une gamme de modalités existantes. Enfin, cette technique peut être employée directement dans un système d'acquisition de données d'images, ou bien elle peut être utilisée en association avec un poste de traitement qui peut être entièrement distant du système d'acquisition de données d'images, qui peut traiter des données d'images après l'acquisition de données d'images, à partir des données d'images stockées dans une mémoire.
Selon certains aspects des techniques, des étapes de traitement sont exécutées en référence à des données d'images 3D, tandis que d'autres étapes de traitement sont exécutées en référence à des données d'images 2D. En particulier, l'analyse et la segmentation des caractéristiques structurelles des données d'images sont effectuées par une association de traitement 2D et 3D.
Le traitement donne une carte ou masque binaire de pixels qui sont déterminés pour être représentatifs d'une structure et de pixels qui sont déterminés pour être représentés comme non structurels. Les données d'images peuvent ensuite être traitées davantage en se basant sur cette catégorisation.
Ces caractéristiques ainsi que d'autres aspects et avantages de la présente invention seront mieux compris à la lecture de la description détaillée qui suit, en se référant aux dessins annexés, dans lesquels les références similaires représentent des parties similaires dans tous les dessins, et dans lesquels: 2884013 4 la figure 1 est un schéma fonctionnel d'un système d'imagerie exemplaire pour l'acquisition de données d'images 2D et 3D qui sont traitées selon la présente technique; la figure 2 est un volume d'imagerie 3D exemplaire utilisé pour réaliser une série d'images améliorées par la présente technique; la figure 3 est un organigramme d'une logique exemplaire pour mettre en oeuvre le programme d'amélioration d'image en 2,5D de la présente technique; la figure 4 est une vue en perspective d'une partie exemplaire d'un volume d'imagerie utilisé pour illustrer comment un bloc ou voisinage de pixels est employé dans l'analyse de la figure 3; la figure 5 est une vue en perspective similaire, où certains pixels de voisinage ont été retirés pour permettre de voir un pixel intérieur d'intérêt; la figure 6 est un organigramme d'étapes exemplaires de la logique permettant l'analyse et la segmentation résumées sur la figure 3; la figure 7 est une représentation d'une série de matrices mathématiques utilisées dans l'analyse de la figure 6; et la figure 8 est une vue en perspective d'un ensemble de voisinage réduit pour une partie de l'analyse effectuée selon les étapes de la figure 6.
Si l'on se réfère à présent aux dessins, en commençant par la figure 1, un système d'imagerie 10 est illustré de manière générale comme comprenant un dispositif d'imagerie 12 pour créer des données d'images d'un sujet 14. Bien qu'une silhouette humaine soit représentée de façon schématique comme sujet 14, il faut avoir à l'esprit que n'importe quel sujet approprié pourrait être étudié. Dans le présent contexte, par exemple, le sujet peut être humain ou animal, animé ou inanimé, comme des pièces manufacturées, des sujets se présentant naturellement et ainsi de suite. En fait, le système d'imagerie 10 peut être tout type de système qui produit des données d'images numérisées basées sur une certaine physique d'imagerie. Dans le contexte de l'imagerie médicale, comme ailleurs, ces systèmes d'imagerie peuvent inclure des systèmes d'IRM, des systèmes de tomographie par émission de positons (PET), des systèmes de tomographie informatisée (CT), des systèmes de tomosynthèse, des systèmes à rayons X, des systèmes à ultrasons, parmi bien d'autres modalités d'imagerie. Les systèmes peuvent aussi inclure des systèmes 2884013 5 d'imagerie photographiques classiques qui produisent des données d'images numérisées d'après le rayonnement reçu de n'importe quelle bande ou fréquence adaptée.
Dans le schéma fonctionnel de la figure 1, le système d'imagerie comprend un dispositif d'imagerie 12 couplé à un circuit de commande de dispositif d'imagerie 16 et à un circuit d'acquisition de données d'images 18. En fonction de la modalité et de la physique du système, le dispositif d'imagerie va typiquement émettre un certain type de rayonnement, comme avec les rayons X, la CT, la tomosynthèse et autres systèmes. D'autres systèmes d'imagerie actifs, comme les systèmes d'IRM, influent sur les sujets par excitation, par exemple par production d'impulsions de fréquence radio en présence de champs magnétiques contrôlés. Dans tous ces cas, toutefois, le fonctionnement du dispositif d'imagerie est régulé par le circuit de commande de dispositif d'imagerie 16. Ce circuit de commande peut prendre n'importe quelle forme appropriée, et comprend typiquement des circuits pour activer le dispositif d'imagerie, recevoir du rayonnement ou d'autres signaux, créer tous les signaux d'excitation ou rayonnements nécessaires à la prise d'images, et ainsi de suite. Le circuit d'acquisition d'images 18, ensuite, reçoit et traite initialement les données reçues par le dispositif d'imagerie. Ce traitement initial peut comprendre une conversion de signaux analogiques en signaux numériques, le filtrage des signaux analogiques ou numériques, la mise à l'échelle ou des réglages de plage dynamique, et traitements similaires.
Le circuit de commande de dispositif d'imagerie 16 et le circuit d'acquisition de données d'images 18 sont généralement régulés par un certain type de circuit de gestion de système 20. Ici encore, en fonction de la nature du système d'imagerie et de la physique impliquée, le circuit de gestion du système peut lancer des séquences de prise d'images en échangeant des signaux appropriés avec le circuit de commande de dispositif d'imagerie 16. Le circuit de gestion du système 20 peut aussi recevoir les données d'images brutes ou prétraitées du circuit d'acquisition de données d'images 18. Le circuit de gestion du système 20 peut, surtout dans des systèmes plus complexes, être couplé à un poste de travail d'opérateur 22 où un opérateur choisit, configure et lance des séquences d'examen ou d'imagerie. Les données d'images, qu'elles soient brutes, partiellement traitées ou complètement traitées, sont typiquement 2884013 6 stockées sur un support de stockage quelconque, comme représenté par la référence 24. Dans le présent contexte, ce support de stockage peut faire partie du circuit de gestion du système 20, du poste de travail de l'opérateur 22 ou de tout autre composant du système d'ensemble. Par exemple, dans un contexte de diagnostic médical, ce support de stockage peut comprendre de la mémoire locale et de la mémoire distante, à la fois magnétique et optique, et peut comprendre des systèmes d'archivage et de communication d'images (PACS) complexes, conçus pour stocker et servir des données d'images à la demande.
Dans l'illustration de la figure 1, le poste de travail d'opérateur 22 est représenté couplé à un circuit de traitement de données d'images 26. Une fois encore, ce circuit de traitement peut en réalité être réparti dans tout le système, et peut mettre en oeuvre du matériel, du micrologiciel et du logiciel conçu pour traiter les données d'images pour produire des images reconstruites destinées à être visionnées. Selon les présentes techniques décrites ci-dessous, le circuit de traitement d'images 26 effectue une association de traitement de données 2D et 3D (traitement "2,5D") sur les données d'images pour manipuler les données brutes ou prétraitées afin d'améliorer davantage l'aptitude à l'emploi des images reconstruites. Le circuit de traitement de données d'images 26 peut être localisé dans le système d'imagerie, comme illustré de façon générale en figure 1, ou bien il peut être complètement distant du système, et accéder simplement aux données d'images, par exemple dans le support de stockage 24 en vue d'un post-traitement. Enfin, la figure 1 représente divers postes de commande/traitement/visualisation distants 28 qui peuvent être couplés au système d'imagerie par des liaisons de réseau appropriées 30. Ces postes peuvent être utilisés pour visualiser, analyser et traiter davantage les données d'images, comme décrit dans ce qui suit.
Comme l'apprécieront les personnes du métier, les données d'images du type acquis sur de nombreux systèmes d'imagerie différents sont généralement traitées par diverses techniques de filtrage et d'amélioration pour reconnaître, clarifier, ou manipuler d'une autre manière des éléments picturaux discrets ou pixels qui sont codés par les données d'images. Chaque pixel comprend typiquement des données qui décrivent son emplacement et son intensité, ou, dans les systèmes en couleur, son intensité dans plusieurs couleurs différentes. L'amélioration des données d'images est effectuée en 2884013 7 calculant de façon mathématique diverses caractéristiques de chaque pixel et de pixels voisins afin de reconnaître et de traiter les pixels en groupes utiles. Essentiellement, les données d'images sont le plus utiles lorsqu'un humain ou une machine peut reconnaître des groupes de pixels qui partagent certaines qualités ou caractéristiques. Par exemple, les structures et les non structures peuvent être reconnues dans les données d'images par les processus décrits ci-dessous. Les structures peuvent représenter des bords, des surfaces, des contours, des régions, des couleurs et autres caractéristiques d'image qui, lorsqu'elles sont vues par un humain ou par une visionneuse, rendent l'image utile ou sujette à un certain type d'interprétation.
La figure 2 représente un volume d'imagerie exemplaire, comme obtenu avec le système d'imagerie 10 décrit plus haut. Comme le reconnaîtront les personnes du métier, le volume d'imagerie peut être analysé dans trois directions orthogonales, une direction x 32, une direction y 34 et une direction z 36. La présente technique ou application d'amélioration d'image 2,5D améliore les images volumétriques épaisses faites dans le volume d'imagerie en traitant essentiellement ces images comme des objets 3D à des fins d'analyse et de segmentation pour obtenir un masque de segmentation 3D. Cependant, cette application traite chacune des tranches ou images épaisses séparément pour un filtrage d'amélioration en 2D pendant qu'elle est guidée par le masque de segmentation 3D. En conséquence, cette technique utilise de l'information tridimensionnelle pour effectuer un filtrage bidimensionnel. Cette technique a donc un potentiel pour améliorer davantage la robustesse du filtrage des images.
Dans l'illustration de la figure 2, une plaque ou tranche 38 du volume d'imagerie est représentée comme comprenant des éléments volumiques discrets (voxels) qui sont, pour la présente description, appelés éléments d'image (pixels) 40 dans la plaque ou tranche 38 choisie. Les pixels ont un "pas" ou dimension connu(e) dans chacune des directions orthogonales, incluant un pas 42 dans la direction x, un pas 44 dans la direction y et un pas 46 dans la direction z. Comme l'apprécieront les personnes du métier, une image 2D représente généralement la projection de trois dimensions dans un plan d'imagerie bidimensionnel. Une image 48 peut ainsi être présentée comme la projection des pixels 40 de la plaque ou tranche 38 dans un plan 2884013 8 d'imagerie à la surface de la plaque ou tranche. Toutefois, comme pourront l'apprécier les personnes du métier, quand la dimension ou pas 46 dans la direction z diffère de celui des directions x et y, la projection peut ne pas rendre complètement certains des détails qui représentent des caractéristiques ou des structures qui s'étendent dans la direction z. Les données d'images sont traitées dans le présent contexte de manière à analyser et traiter de façon plus précise les caractéristiques structurelles en prenant en compte ces détails.
Une logique exemplaire pour exécuter certaines des étapes d'amélioration d'image selon la présente technique est illustrée sur la figure 3 et désignée de manière générale par la référence 50. La logique de traitement commence par l'entrée ou accès à des données d'image 3D, comme indiqué à l'étape 52. Comme l'apprécieront les personnes du métier, les données d'image comprennent typiquement une série de valeurs, numérisées sur une plage dynamique utile. Chaque pixel des données d'image correspond à l'une des valeurs de données d'image. Les données d'image elles-mêmes peuvent être comprises dans un plus grand flux de données d'images, qui peut comprendre comme autres caractéristiques des en-têtes descriptifs, des données d'identification, des horodatages, des identificateurs de routine de compression, etc. Dans le présent contexte, les données d'image comprennent une donnée de pixel qui peut être désignée par II(x,y,z), où le terme "Il" représente les valeurs collectives de chaque pixel de l'image en des emplacements individuels définis entre parenthèses. A l'étape 54, les limites de l'image sont étendues par symétrie (de miroir). Comme l'apprécieront les personnes du métier, cette symétrie permet d'effectuer une analyse et des calculs sur des données de pixels près des limites de l'image, en particulier lorsque des filtres spatiaux sont employés, comme décrit ci-dessous. Dans le présent contexte, l'extension par symétrie est exécutée en ajoutant des pixels à chaque côté de l'image 3D, un premier pixel ajouté adjacent à chaque pixel d'image étant de valeur égale au pixel d'image lui-même, et un second pixel ajouté adjacent étant égal à la valeur de pixel du pixel immédiatement adjacent dans les données d'image. Cette extension par symétrie peut être faite pour n'importe quel nombre approprié de rangées et de colonnes des données d'image. Dans une présente mise en oeuvre, un noyau ayant des dimensions de 3x3 est employé comme décrit ci-dessous, de sorte que l'extension par 2884013 9 symétrie est effectuée en ajoutant deux rangées ou deux colonnes ou tranches dans chacune des trois dimensions de l'image.
A l'étape 56, l'image est rétrécie pour faciliter l'analyse. Le rétrécissement est exécuté en remplaçant chaque pixel par la valeur moyenne des pixels environnants. Le nombre de pixels considéré pour effectuer la moyenne peut dépendre d'un facteur de rétrécissement qui peut être programmé dans le présent algorithme, ou qui peut être choisi par un utilisateur. Dans un présent mode de réalisation, le rétrécissement est exécuté de manière bidimensionnelle pour chaque tranche des données d'image. Les personnes du métier reconnaîtront aussi que l'extension par symétrie exécutée à l'étape 54 facilite le calcul des valeurs moyennes de pixels pour les pixels qui se trouvent près des limites de l'image. Les données d'image rétrécie résultantes sont désignées par I2(x,y,z).
A l'étape 58 de la figure 3, on effectue une analyse et une segmentation sur l'image rétrécie I2(x,y,z). L'analyse et la segmentation sont destinées à générer un masque ou carte de pixels structurels et de pixels non structurels. A savoir, des pixels considérés comme représentatifs de caractéristiques d'intérêt de l'image, typiquement des bords et des détails qui contrastent de façon plus distincte, peuvent être appelés pixels "structurels".
Bien que d'autres caractéristiques, parmi lesquelles la texture, ne puissent pas être considérées comme structurelles, celles-ci peuvent néanmoins être importantes pour l'analyse d'ensemble de l'image, pour la visualisation, etc. Toutefois, le traitement de pixels structurels différemment des pixels non structurels s'est avéré particulièrement utile dans le développement d'images améliorées. Avant de passer aux autres étapes de la figure 3, décrivons, en faisant particulièrement référence à la figure 6, les étapes détaillées impliquées dans l'analyse et la segmentation exécutées à l'étape 58.
L'analyse résumée sur la figure 6 fait appel à des voisinages de pixels qui peuvent être visualisés comme représenté sur les figures 4 et 5. En particulier, les pixels d'une image ou tranche individuelle du volume d'imagerie peuvent généralement tomber dans un plan, comme le plan de pixels vertical médian montré sur les figures 4 et 5. La partie de volume 74, dans ce cas, consiste en ce plan de pixels et en pixels supplémentaires de chaque côté de ce plan. La figure 5 illustre la partie de volume 74 avec certains 2884013 10 pixels supprimés pour montrer un pixel central 76 qui, dans l'analyse décrite ci-après, peut être n'importe quel pixel de l'image, et est appelé pixel d'intérêt . Le pixel d'intérêt 76 peut ainsi comprendre jusqu'à 26 pixels voisins. Plus précisément, les pixels 78 voisinent avec le pixel central 76 dans une direction x, les pixels 80 voisinent avec le pixel central 76 dans une direction y, et les pixels 82 voisinent avec le pixel central 76 dans une direction z. Dans toute la présente description, on parlera de voisinage 3x3 pour désigner ce voisinage, bien que des voisinages plus grands puissent être employés pour le traitement.
En se référant à présent à la figure 6, sont présentées des étapes exemplaires de l'analyse et de la segmentation illustrées en figure 3. Dans l'analyse illustrée, l'image rétrécie I2(x,y,z) est d'abord mise à l'échelle. Cette mise à l'échelle est effectuée en identifiant les valeurs maximale et minimale pour tous les pixels de l'image, désignées respectivement par "maxorig" et "minorig" dans un présent mode de réalisation. Dans un présent mode de réalisation, un facteur d'échelle est déterminé en divisant une valeur de plage dynamique par la valeur de maxorig, avec une valeur de plage dynamique actuelle égale à 4095. Bien entendu, d'autres valeurs peuvent être employées. La valeur mise à l'échelle de chaque pixel est ensuite calculée en soustrayant la valeur de minorig de chaque valeur de pixel individuel, puis en multipliant la différence obtenue par le facteur d'échelle.
L'image mise à l'échelle est ensuite lissée comme indiqué à l'étape 86 de la figure 6. Dans un présent mode de réalisation, ce lissage est effectué via un filtre à fenêtre rectangulaire (boxcar) 3D dans lequel chaque pixel devient le pixel central ou pixel d'intérêt, comme illustré sur les figures 4 et 5, et chaque valeur de pixel est remplacée séquentiellement par la valeur moyenne de tous les pixels du voisinage 3x3x3. Le lissage est effectué d'après les valeurs des pixels de l'image I2(x,y,z).
A l'étape 88, la sortie du filtre à fenêtre rectangulaire est utilisée pour calculer des gradients pour chaque pixel. Comme l'apprécieront les personnes du métier, dans le contexte de l'imagerie numérique, un "gradient" représente une différence entre la valeur d'un pixel d'intérêt et une valeur d'un ou de plusieurs pixel(s) supplémentaire(s) (c'est-àdire de voisinage). A l'étape 88, des gradients sont calculés pour les composantes des directions x, y et z. Les 2884013 11 composantes dans les directions x, y et z, appelées dans un présent mode de réalisation "gradx", "grady" et gradz", sont calculées en utilisant les opérateurs de gradient 3D de Sobel présentés en figure 7. Pour les personnes ayant une certaine connaissance du domaine, on reconnaîtra que les opérateurs de Sobel 120 sont définis par une série de matrices 104 qui peuvent être multipliées par des pixels en divers emplacements du voisinage 3x3x3 pour obtenir les valeurs des composantes. En se basant sur ces valeurs de composantes, on peut ensuite calculer une amplitude de gradient en 3D pour le pixel d'intérêt d'après la relation: amplitude du gradient = V(gradx2 + grady2 + gradz2).
Alors que l'amplitude du gradient est calculée en référence à des composantes 3D, sa direction est calculée en référence à deux dimensions seulement, celles qui définissent le plan d'image ou la projection. Dans le présent contexte, la direction est calculée d'après la relation: direction = arctan(grady/gradx).
Une fois que les amplitudes et directions ont été calculées pour chaque pixel de l'image rétrécie, on détermine les gradients maximum et minimum, et un histogramme de gradients est obtenu, comme indiqué à l'étape 90 de la figure 6. Les gradients maximum et minimum sont déterminés par rapport aux amplitudes des gradients. Comme l'apprécieront les personnes ayant une connaissance du domaine, l'histogramme des gradients définit alors le nombre de pixels individuels ayant des amplitudes de gradients particulières. Dans un présent mode de réalisation, l'histogramme comprend des gradients pour tous les voxels, chaque voxel ayant une amplitude de gradient associée. Les maxima et minima sont calculés sur chaque valeur de gradient de tous les voxels. L'histogramme peut être représenté sous la forme d'un diagramme en bâtons avec des amplitudes de gradient le long d'un axe horizontal et des nombres de pixels ayant chacun une amplitude de gradient individuelle le long d'un axe vertical. Cependant, en pratique, le processeur mémorise simplement les adresses des pixels, leurs valeurs de gradients et le nombre pour chaque amplitude.
2884013 12 A l'étape 92, on choisit une valeur de seuil initial et des pixels structurels candidats. La valeur de seuil employée dans cette étape est une valeur de seuil de gradient initial qui est choisie initialement avec une valeur telle que l'amplitude de gradient de 30 % des pixels de l'image I2(x,y,z) se trouve sous le seuil. Tous les pixels ayant des valeurs qui se trouvent au-dessus du seuil de gradient initial sont ensuite comptés. Dans un présent mode de réalisation, on impose aussi un critère de direction. A savoir, pour qu'un pixel soit compté comme pixel structurel candidat, l'amplitude de gradient du pixel doit se trouver au-dessus du seuil de gradient initial, et la direction de gradient du pixel doit être au-dessus d'un angle particulier, dénommé "gradangle" dans un présent mode de réalisation. Si le nombre est supérieur à une valeur prédéterminée, le pixel est retenu comme bord adéquat possible. Lacollecte de pixels de bord adéquats est ensuite notée, par exemple dans un masque ou une carte, où les pixels structurels candidats ont une valeur de "1" et les pixels non structurels candidats ont une valeur de "0".
A l'étape 94 de la figure 6, certains pixels du masque sont éliminés d'après la connectivité. Dans ce processus, chaque pixel ayant une valeur de 1 dans le masque binaire se voit attribuer un nombre d'index en commençant par le coin supérieur gauche de l'image et en continuant vers le coin inférieur droit.
Les nombres d'index sont incrémentés pour chaque pixel ayant une valeur de 1 dans le masque. Le masque est ensuite analysé rangée par rangée en commençant par le coin supérieur gauche en comparant les valeurs d'index des pixels se trouvant à l'intérieur de petits voisinages. Par exemple, lorsqu'un pixel identifié a un nombre d'index, une comparaison à connexion de quatre est exécutée, dans laquelle le nombre d'index du pixel d'intérêt est comparée, le cas échéant, aux nombres d'index des pixels situés immédiatement au-dessus, en dessous, à gauche et à droite du pixel d'intérêt. On remplace ensuite les nombres d'index pour chacun des pixels connectés par le nombre d'index le plus bas du voisinage connecté. La procédure de recherche, de comparaison et de réattribution continue ensuite pour toute la matrice de pixels, les régions de pixels voisins se voyant attribuer des nombres d'index communs. Dans le mode de réalisation préféré, la fusion des nombres d'index peut être exécutée plusieurs fois. Chaque itération successive est de préférence effectuée dans une direction opposée (c'est-à-dire de haut en bas et de bas en haut) .
2884013 13 Suite aux itérations accomplies lors des recherches et fusions successives de nombres d'index, la matrice de pixels à nombres d'index contient des régions de pixels contiguës ayant des nombres d'index communs. On produit alors un histogramme à partir de cette matrice d'index en comptant le nombre de pixels ayant chacun un nombre d'index apparaissant dans la matrice d'index. Comme le verront les personnes du métier, chaque région de pixels contiguë distincte ayant des nombres d'index aura un nombre d'index propre. Les régions représentées par des nombres d'index ayant des populations inférieures à un seuil souhaité sont éliminées de la définition de structure. Dans un mode de réalisation actuellement préféré, les régions ayant un nombre de pixels inférieur à 50 sont éliminées. Le nombre de pixels à éliminer dans cette étape peut cependant être choisi en fonction de la taille de la matrice, et de la quantité et de la taille des artéfacts isolés devant être autorisés dans la définition de structure dans l'image finale.
A l'étape 96, un seuil final est choisi pour les pixels structurels et le masque de structure est affiné d'après ce seuil. Une fois de plus, le masque de structure ou carte va généralement correspondre à une liste des pixels de l'image I2(x,y,z) qui sont considérés comme représentatifs de structures présentes dans l'image. Ici encore, chaque pixel peut être représenté dans le masque de structure comme un "1" ou un "0", la valeur "1" indiquant que le pixel individuel est déterminé pour représenter une structure. Le seuil de gradient final choisi à l'étape 96 pour la détermination du masque de structure comprend l'ajout d'un nombre de pixels souhaité au nombre appelé "1" dans le masque (le nombre de masque binaire). Par exemple, dans un mode de réalisation actuellement préféré, on ajoute une valeur de 4 000 au nombre de masque binaire pour arriver à un nombre de pixels voulu dans la définition de structure d'image. Ce paramètre peut être établi comme valeur par défaut, ou bien il peut être modifié par un opérateur. En général, une valeur additive supérieure produit une image plus précise, tandis qu'une valeur additive inférieure produit une image plus lisse. Ce paramètre, appelé "paramètre de focalisation" dans le présent mode de réalisation, peut ainsi être modifié pour redéfinir la classification des pixels en structures et en non structures.
Le seuil de gradient final ou FGT est ensuite déterminé. En particulier, les nombres de population pour chaque valeur d'amplitude de gradient 2884013 14 commençant avec les plus grandes amplitudes sont additionnés en allant vers les plus faibles amplitudes. Une fois atteint le nombre de pixels structurels souhaité (c'est-à-dire le nombre de pixels comptés plus le paramètre de focalisation), la valeur d'amplitude de gradient correspondante est identifiée comme seuil de gradient final. Dans le mode de réalisation actuellement préféré, la valeur de FGT est ensuite mise à l'échelle en la multipliant par une valeur qui peut être déterminée automatiquement ou qui peut être choisie par un utilisateur. Par exemple, une valeur de 1,9 peut être employée pour mettre à l'échelle le FGT, en fonction des caractéristiques d'image, du type et des caractéristiques de la structure visible dans l'image, et ainsi de suite. L'utilisation d'une valeur de seuil échelonnable permet aussi à la technique d'être adaptée facilement et rapidement à divers types d'images, comme par exemple les données d'IRM générées dans des systèmes ayant différentes puissances de champ, les données de CT, etc. A l'étape 98, les pixels sont éliminés d'après la connectivité. Dans la présente forme de réalisation, les pixels sont éliminés à cette étape si le pixel individuel a un nombre inférieur à un nombre de seuil défini par rapport au masque en utilisant une approche de connectivité à 6. A savoir, chaque pixel est considéré comme pixel central dans un voisinage réduit, où seuls les pixels qui bordent le pixel d'intérêt sur une face sont considérés. La figure 8 représente un tel voisinage réduit, dans lequel un pixel d'intérêt ou pixel central 76 est montré, et le voisinage réduit de pixels sur ses faces est constitué de pixels désignés par la référence 106. En considérant ce voisinage réduit, les pixels sont éliminés par un processus autrement identique à celui décrit plus haut en référence à l'étape 94.
A l'étape 100, les régions ou volumes de pixels petit(e)s ou isolé(e)s peuvent être récupéré(e)s ou inclus(es) dans la collecte de pixels déterminés pour être des structures potentielles, pour fournir une continuité de bords et de structures. Dans ce processus, un seuil est déterminé, que l'on peut appeler un ratio suiveur, comme pourcentage du seuil de gradient final. Si un pixel est au-dessus du ratio suiveur, et est connecté aux pixels qui sont au-dessus du seuil de gradient final (c'est-à-dire les pixels structurels candidats), alors la valeur binaire correspondant du pixel est modifiée. Ce suivi de gradient est 2884013 15 généralement exécuté de façon récursive dans les trois dimensions, pour obtenir une classification initiale en pixels structurels et pixels non structurels.
Le traitement continue en se basant sur ces déterminations, comme indiqué à l'étape 60 de la figure 3. A savoir, une fois faites l'analyse et la segmentation des pixels individuels d'après l'approche en 2,5D, un masque de structure est obtenu à l'étape 60. Ce masque de structure est obtenu en répétant le processus d'obtention d'un masque binaire final qui décrit les régions structurelles et non structurelles de chaque image de projection dans le volume d'imagerie. Le masque binaire final est obtenu en comparant le nombre de pixels à un seuil préétabli, appelé dans un présent mode de réalisation "seuilnombrel". En d'autres termes, si un pixel courant a une valeur de masque binaire égale à 1, le nombre de pixels de voisinage est calculé. Si le nombre de pixels est supérieur au seuil, la valeur de pixel courante dans le masque est mise à 1. Sinon, elle est mise à 0. Si la valeur de pixel courante vaut 0 dans le masque, le même compte est calculé et s'il est supérieur à un seuil inférieur, appelé "seuilnombre2" dans un présent mode de réalisation, la valeur binaire pour le pixel dans le masque est mise à 1. Sinon elle est mise à 0. La carte résultante de valeurs binaires représente les déterminations des pixels représentant une structure (ceux ayant une valeur de 1), et de ceux qui représentent une non structure (ceux ayant une valeur de 0).
A l'étape 62 de la figure 3, l'image rétrécie I2(x,y,z) est filtrée. Dans un présent mode de réalisation, trois types de filtrages sont exécutés sur les données d'images: un lissage d'orientation, un lissage d'homogénéisation et une définition des contours d'orientation. Il est à noter que ce filtrage est effectué en se basant sur le masque de structure déterminé à l'étape 60. A savoir, bien que le filtrage soit effectué en deux dimensions, que le filtrage soit effectué et comment le filtrage est effectué dépend de la structure déterminée relativement à une analyse bidimensionnelle et tridimensionnelle.
Dans le lissage d'orientation qui peut être exécuté à l'étape 62, la valeur de certains pixels est remplacée par une valeur qui est la moyenne d'elle-même et de celles des pixels voisins. En particulier, en fonction du lissage d'orientation souhaité, dominant ou local, le traitement se fait comme suit. Si le lissage d'orientation dominante est choisi, le lissage commence par l'attribution d'indices directionnels à chaque pixel identifié comme pixel 2884013 16 structurel. Dans le présent mode de réalisation, un indice directionnel parmi quatre est attribué à chaque pixel structurel en fonction des écarts statistiques pour chaque pixel. A l'intérieur d'un voisinage local entourant chaque pixel structurel, on calcule des écarts statistiques pour des noyaux de pixels dans quatre directions en se rapportant aux valeurs d'intensité normalisées des pixels environnants. La direction de l'écart minimum est choisie parmi les quatre valeurs calculées et un indice directionnel correspondant est attribué. Dans le présent mode de réalisation, ces indices directionnels sont attribués comme suit: "1" pour 45 degrés, "2" pour 135 degrés, "3" pour 90 degrés et "4" pour 0 degré. Une valeur de seuil de zone est attribuée d'après la taille de matrice d'image. Dans le présent mode de réalisation, on utilise un seuil de zone local de 6 pour des images de 256x256 pixels, une valeur de 14,25 pour les images de 512x512 pixels, et une valeur de 23 pour les images de 1024x1024 pixels. Une orientation dominante est établie pour chaque pixel structurel en examinant les indices directionnels à l'intérieur d'un voisinage local entourant chaque pixel structurel. Dans ce processus, on compte les indices directionnels trouvés dans le voisinage local et l'on attribue au pixel d'intérêt l'indice directionnel qui obtient le plus grand nombre (ou le plus faible indice localisé en cas de nombres égaux).
Dans le présent mode de réalisation, on considère la direction dominante et sa direction orthogonale pour prendre une décision de cohérence dans l'opération de lissage d'orientation dominante. Ces directions sont 1 et 2, ou 3 et 4. On a constaté que la prise en compte de ces facteurs améliore de façon substantielle la robustesse de la détermination de l'orientation dominante, dans le sens où elle est cohérente avec le système visuel humain (c.à.d. qu'elle donne des images reconstruites qui sont intuitivement satisfaisantes pour l'observateur).
La décision de cohérence ainsi prise peut être basée sur un certain nombre de critères. Dans le présent mode de réalisation, l'image est lissée suivant la direction dominante (c.à.d. la direction obtenant le plus grand nombre dans le voisinage) si l'un quelconque des critères suivants est satisfait: (1) le nombre de l'orientation obtenant le plus grand nombre est supérieur à un pourcentage (par exemple 67 %) des nombres totaux du voisinage, et l'orientation orthogonale obtient les plus petits nombres; (2) le nombre de 2884013 17 l'orientation obtenant les plus grands nombres est supérieur à un pourcentage inférieur à celui du critère (1) (p.ex. 44 %) des nombres totaux du voisinage, et la direction orthogonale obtient le nombre minimum, et le rapport des nombres de la direction dominante et de sa direction orthogonale est supérieur à un scalaire spécifié (p.ex. 5) ; ou (3) le rapport des nombres de la direction dominante aux nombres de sa direction orthogonale est supérieur à un multiple scalaire souhaité (p.ex. 10).
Dans le présent mode de réalisation, la taille de voisinage utilisée pour identifier la direction de l'orientation dominante est différente pour la série de dimensions de matrices d'image considérée. En particulier, on utilise un voisinage 3x3 pour les images de 256x256 pixels, un voisinage de 5x5 pour les images de 512x512 pixels, et un voisinage de 9x9 pour les images de 1024x1024 pixels.
Ensuite, on compare le nombre déterminé dans le voisinage étudié pour chaque pixel au seuil de zone local. Si le nombre dépasse le seuil de zone local, la valeur d'intensité pour chaque pixel structurel est rendue égale à l'intensité moyenne d'un noyau de 1x3 pixels dans la direction dominante pour le pixel d'intérêt. Ensuite, la valeur d'un emplacement correspondant dans la carte de structure de matrice binaire passe de 0 à 1. Si le nombre ne dépasse pas le seuil de zone local pour un pixel particulier, la valeur d'intensité pour le pixel d'intérêt est rendue égale à une moyenne pondérée déterminée par l'équation: moy pondérée = (1/(1 +p)) (entrée) + (p/(1 +p)) (valeur lissée) ; où la valeur entrée est la valeur pour le pixel d'intérêt au début du lissage, p est un facteur de pondération compris entre 1 et 200, et la valeur lissée est l'intensité moyenne d'un noyau de 1x3 dans la direction dominante du pixel d'intérêt.
Ensuite, on évalue les valeurs de tous les pixels du masque de structure binaire. Si la valeur du pixel vaut zéro, la valeur d'intensité correspondante est multipliée par un facteur de pondération a. Dans le présent mode de réalisation, le facteur a est égal à 0,45. La valeur résultante est ajoutée au produit de la valeur d'intensité normalisée pour le pixel correspondant et d'un facteur de pondération (3. Dans le présent mode de 2884013 18 réalisation, les facteurs c et [3 ont une somme égale à l'unité, ce qui donne une valeur de [3 égale à 0,55.
Si la valeur pour un pixel particulier est égale à 1 dans le masque de structure binaire, le processeur détermine si le nombre d'itérations souhaité a été atteint, et si ce n'est pas le cas, renvoie à un lissage supplémentaire des régions structurelles. Dans le présent mode de réalisation, l'opérateur peut choisir un nombre d'itérations allant de 1 à 10.
Un lissage d'homogénéisation est effectué sur les pixels non structurels. Dans une forme de réalisation, le lissage d'homogénéisation effectue la moyenne, de façon itérative, de chaque pixel non structurel en se basant sur un noyau de 3x3.
La définition des contours d'orientation est effectuée sur les pixels filtrés en orientation ou les pixels structurels lissés. La définition des contours d'orientation est effectuée pour les pixels qui ont des gradients au-dessus d'une limite pré-spécifiée, comme deux fois un seuil de gradient final utilisé pour déterminer les pixels structurels.
Après les opérations de filtrage, le traitement peut comprendre une renormalisation des pixels. Cette renormalisation est exécutée en calculant l'intensité de pixel moyenne dans l'image filtrée I1(x,y,z) et en obtenant un facteur de normalisation basé dessus. Selon une présente mise en oeuvre, le facteur de normalisation peut être calculé pour chaque pixel en divisant la valeur moyenne avant filtrage par la valeur moyenne après filtrage. L'image normalisée est ensuite obtenue en multipliant chaque valeur de pixel de l'image d'origine I1(x,y,z) par le facteur de normalisation, puis en ajoutant la valeur minimum minorig.
Les valeurs d'image filtrées et renormalisées sont ensuite expansées pour ramener l'image filtrée à sa taille d'origine. Cette étape, résumée par la référence 64 sur la figure 3, inverse essentiellement le rétrécissement effectué à l'étape 56. Comme l'apprécieront les personnes du métier, cette expansion peut être effectuée par interpolation bi- cubique ou bilinéaire. L'expansion d'image est exécutée en deux dimensions.
A l'étape 66, on effectue un mélange de textures pour recapturer certaines des textures présentes dans les données d'origine. Dans le présent mode de réalisation, l'image expansée renormalisée est mélangée pixel par 2884013 19 pixel avec l'image préfiltrée. La quantité d'original mélangée avec l'image filtrée peut varier et le mélange est effectué d'après la relation suivante: I(x,y,z) = mélange*(I(x,y,z)-A(x,y, z)+A(x,y,z) où I(x,y,z) est l'image filtrée et expansée renormalisée, "mélange" est un paramètre de mélange, et A(x,y,z) est l'image préfiltrée.
A l'étape 68, la définition des contours est qualifiée de différentielle parce que l'on effectue différents niveaux de définition des contours sur les pixels structurels et sur les pixels non structurels, à nouveau relativement au masque de structure obtenu à l'étape 60. Une comparaison de contraste ou d'intensité est effectuée en se basant sur les données d'image d'origine. A savoir, l'image à contours définis et l'image originale sont toutes deux filtrées en utilisant un filtre passe-bas (p. ex. une fenêtre rectangulaire) et la comparaison d'intensité est réalisée en utilisant la relation: I(x,y,z) = I(x,y,z)* [filtrepasse-bas(I(x,y,z)) /filtrepasse-bas(A(x,y,z))] où les images I(x,y,z) et A(x,y, z) sont telles que décrites plus haut.
Comme noté plus haut, suite au traitement qui précède, les données d'image résultantes peuvent être affichées, stockées et transmises pour visualisation. En outre, il est possible d'améliorer de façon similaire plus d'une image dans le volume d'imagerie, et il est possible de stocker une collection d'images aux fins de visualisation et d'analyse. Les techniques qui précèdent fournissent un traitement amélioré dans tous ces contextes, en particulier là où la taille ou le taux d'échantillonnage des pixels ou voxels est substantiellement supérieur(e) dans une dimension par rapport aux autres.

Claims (10)

REVENDICATIONS
1. Procédé pour améliorer une image à pixels discrets comprenant: l'identification (60) de pixels structurels et de pixels non structurels dans des données d'image par analyse (58) des données d'image en deux et trois dimensions (78, 80, 82) ; et le traitement supplémentaire (62, 64, 66, 68, 70, 72) des données d'image en deux dimensions basé sur l'identification de pixels structurels et de pixels non structurels.
2. Procédé selon la revendication 1, dans lequel les pixels structurels sont identifiés relativement à des valeurs d'amplitude de gradient calculées (88) à partir de données tridimensionnelles et à des valeurs de direction de gradient calculées à partir de données bidimensionnelles.
3. Procédé selon la revendication 2, dans lequel les pixels structurels sont identifiés d'après une combinaison de critères incluant des valeurs d'amplitude de gradient tridimensionnelles et des valeurs de direction de gradient bidimensionnelles.
4. Procédé selon la revendication 3, dans lequel les pixels structurels sont identifiés comme étant des pixels ayant une amplitude de gradient supérieure à un seuil souhaité et un angle de gradient supérieur à un angle souhaité.
5. Procédé selon la revendication 1, dans lequel l'identification de pixels structurels et de pixels non structurels est basée sur l'analyse de pixels (106) qui voisinent avec chaque pixel en trois dimensions.
6. Procédé selon la revendication 1, dans lequel un masque de structure est généré pour les pixels identifiés comme pixels structurels.
7. Procédé selon la revendication 1, dans lequel les données d'image codent les pixels ayant un premier pas dans deux dimensions (x, y) d'un plan d'image et un troisième pas supérieur au premier pas dans une troisième dimension (z) orthogonale au plan d'image.
8. Procédé selon la revendication 1, dans lequel le traitement supplémentaire comprend un filtrage (62) des données d'image en deux dimensions relativement aux pixels structurels et pixels non structurels identifiés.
2884013 21
9. Procédé selon la revendication 1, dans lequel le traitement supplémentaire comprend un mélange (66) de données d'image originale pour obtenir des données d'image traitées.
10. Procédé selon la revendication 1, dans lequel on distingue les 5 pixels structurels des pixels non structurels d'après des données d'image originale lissées en trois dimensions (86).
FR0602733A 2005-03-29 2006-03-29 Systeme et procede d'amelioration d'images volumetriques Withdrawn FR2884013A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/092,487 US7512284B2 (en) 2005-03-29 2005-03-29 Volumetric image enhancement system and method

Publications (1)

Publication Number Publication Date
FR2884013A1 true FR2884013A1 (fr) 2006-10-06

Family

ID=36972811

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0602733A Withdrawn FR2884013A1 (fr) 2005-03-29 2006-03-29 Systeme et procede d'amelioration d'images volumetriques

Country Status (3)

Country Link
US (1) US7512284B2 (fr)
JP (1) JP5038642B2 (fr)
FR (1) FR2884013A1 (fr)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100484479C (zh) * 2005-08-26 2009-05-06 深圳迈瑞生物医疗电子股份有限公司 超声图像增强与斑点抑制方法
US7929798B2 (en) * 2005-12-07 2011-04-19 Micron Technology, Inc. Method and apparatus providing noise reduction while preserving edges for imagers
US7925074B2 (en) * 2006-10-16 2011-04-12 Teradyne, Inc. Adaptive background propagation method and device therefor
FR2909207B1 (fr) * 2006-11-24 2009-01-30 Gen Electric Procede de visualisation tridimensionnelle d'images de tomosynthese en mammographie.
US8044972B2 (en) * 2006-12-21 2011-10-25 Sectra Mamea Ab Synchronized viewing of tomosynthesis and/or mammograms
US8051386B2 (en) * 2006-12-21 2011-11-01 Sectra Ab CAD-based navigation of views of medical image data stacks or volumes
US7992100B2 (en) * 2006-12-21 2011-08-02 Sectra Ab Dynamic slabbing to render views of medical image data
US8233683B2 (en) * 2007-08-24 2012-07-31 Siemens Aktiengesellschaft Methods for non-linear image blending, adjustment and display
US8086011B2 (en) * 2007-10-31 2011-12-27 Siemens Medical Solutions Usa, Inc. Reconstructing a tomographic image
US8553959B2 (en) * 2008-03-21 2013-10-08 General Electric Company Method and apparatus for correcting multi-modality imaging data
WO2010134512A1 (fr) * 2009-05-20 2010-11-25 株式会社 日立メディコ Dispositif de diagnostic d'images médicales et procédé associé de détermination d'une zone étudiée
US8170318B2 (en) 2009-06-05 2012-05-01 Siemens Medical Solutions Usa, Inc. Filter bank for ultrasound image enhancement
US8786873B2 (en) * 2009-07-20 2014-07-22 General Electric Company Application server for use with a modular imaging system
US8594194B2 (en) * 2009-10-15 2013-11-26 Sony Corporation Compression method using adaptive field data selection
US8633997B2 (en) * 2009-10-15 2014-01-21 Sony Corporation Block-based variational image processing method
US8243882B2 (en) 2010-05-07 2012-08-14 General Electric Company System and method for indicating association between autonomous detector and imaging subsystem
TWI419078B (zh) * 2011-03-25 2013-12-11 Univ Chung Hua 即時立體影像產生裝置與方法
US9824468B2 (en) * 2015-09-29 2017-11-21 General Electric Company Dictionary learning based image reconstruction
US9928403B2 (en) * 2016-02-09 2018-03-27 Molecular Devices, Llc System and method for image analysis of multi-dimensional data
CN109961487A (zh) * 2017-12-14 2019-07-02 通用电气公司 放疗定位图像识别方法、计算机程序及计算机存储介质
CN110752004A (zh) * 2019-10-25 2020-02-04 苏州大学 一种基于体素模型的呼吸特性表征的方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832134A (en) * 1996-11-27 1998-11-03 General Electric Company Data visualization enhancement through removal of dominating structures
US6208763B1 (en) * 1998-04-14 2001-03-27 General Electric Company Method and apparatus for enhancing discrete pixel images
US6173083B1 (en) * 1998-04-14 2001-01-09 General Electric Company Method and apparatus for analyzing image structures
JP4732592B2 (ja) * 1999-04-15 2011-07-27 ゼネラル・エレクトリック・カンパニイ 最適化ctプロトコル
US6556720B1 (en) * 1999-05-24 2003-04-29 Ge Medical Systems Global Technology Company Llc Method and apparatus for enhancing and correcting digital images
US6754376B1 (en) * 2000-11-22 2004-06-22 General Electric Company Method for automatic segmentation of medical images
US6963670B2 (en) * 2001-11-21 2005-11-08 Ge Medical Systems Global Technology Company, Llc CT dose reduction filter with a computationally efficient implementation
US6592523B2 (en) * 2001-11-21 2003-07-15 Ge Medical Systems Global Technology Company, Llc Computationally efficient noise reduction filter for enhancement of ultrasound images
US7599579B2 (en) * 2002-07-11 2009-10-06 Ge Medical Systems Global Technology Company, Llc Interpolated image filtering method and apparatus
US6937776B2 (en) * 2003-01-31 2005-08-30 University Of Chicago Method, system, and computer program product for computer-aided detection of nodules with three dimensional shape enhancement filters

Also Published As

Publication number Publication date
JP2006271971A (ja) 2006-10-12
US7512284B2 (en) 2009-03-31
US20060228036A1 (en) 2006-10-12
JP5038642B2 (ja) 2012-10-03

Similar Documents

Publication Publication Date Title
FR2884013A1 (fr) Systeme et procede d'amelioration d'images volumetriques
JP7134303B2 (ja) 顕微鏡スライド画像のための焦点重み付き機械学習分類器誤り予測
EP0945830B1 (fr) Procédé de traitement d'images incluant des étapes de segmentation d'une image multidimensionnelle et appareil d'imagerie médicale utilisant ce procédé
Smal et al. Quantitative comparison of spot detection methods in fluorescence microscopy
EP0927405B1 (fr) Dispositif electronique de traitement d'images pour la detection de variations dimensionnelles
Landini et al. Automatic thresholding from the gradients of region boundaries
FR2862788A1 (fr) Procede et systeme d'analyse de changements temporels d'image
EP2401719B1 (fr) Méthodes de segmentation d'images et de détection de structures particulières
WO2005091219A1 (fr) Methode, produit de programme informatique et appareil pour ameliorer une image tomographique informatisee
Gargesha et al. Denoising and 4D visualization of OCT images
EP1220155A2 (fr) Methode de traitement d'images
US11854281B2 (en) System, method, and computer-accessible medium for processing brain images and extracting neuronal structures
Boorboor et al. Visualization of neuronal structures in wide-field microscopy brain images
Chung et al. Missing cone artifact removal in ODT using unsupervised deep learning in the projection domain
WO2022183078A1 (fr) Apprentissage profond assisté par refocalisation computationnelle
BE1028836B1 (fr) Méthodes et systèmes pour la segmentation d'images biomédicales basée sur une combinaison d'informations sur les images artérielles et portales
Lepcha et al. An efficient medical image super resolution based on piecewise linear regression strategy using domain transform filtering
Geng et al. Cervical cytopathology image refocusing via multi-scale attention features and domain normalization
Liu et al. Progressive residual learning with memory upgrade for ultrasound image blind super-resolution
Yang et al. Semi-and self-supervised multi-view fusion of 3d microscopy images using generative adversarial networks
Darıcı et al. A comparative study on denoising from facial images using convolutional autoencoder
WO2020178526A1 (fr) Dispositif et procédé d'évaluation qualitative des greffons hépatiques
de Almeida Simões Image Quality Improvement of Medical Images Using Deep Learning for Computer-Aided Diagnosis
Almola Find edge map for medical images based on texture characteristics
Ho Three Dimensional Segmentation and Detection of Fluorescence Microscopy Images

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20141128