FR2862788A1 - Procede et systeme d'analyse de changements temporels d'image - Google Patents

Procede et systeme d'analyse de changements temporels d'image Download PDF

Info

Publication number
FR2862788A1
FR2862788A1 FR0412533A FR0412533A FR2862788A1 FR 2862788 A1 FR2862788 A1 FR 2862788A1 FR 0412533 A FR0412533 A FR 0412533A FR 0412533 A FR0412533 A FR 0412533A FR 2862788 A1 FR2862788 A1 FR 2862788A1
Authority
FR
France
Prior art keywords
images
image
image data
cad
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0412533A
Other languages
English (en)
Other versions
FR2862788B1 (fr
Inventor
John Michael Sabol
Maggie Mei Kei Fung
Vianney Pierre Battle
Gopal B Avinash
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Global Technology Co LLC
Original Assignee
GE Medical Systems Global Technology Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Global Technology Co LLC filed Critical GE Medical Systems Global Technology Co LLC
Publication of FR2862788A1 publication Critical patent/FR2862788A1/fr
Application granted granted Critical
Publication of FR2862788B1 publication Critical patent/FR2862788B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/548Remote control of the apparatus or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/412Dynamic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Technique pour l'analyse d'ensembles de données d'images acquis à différents moments. Des algorithmes assistés par ordinateurs (50, 52) sont exécutés pour identifier et classifier des détails intéressants, et pour comparer les détails qui ont évolué dans le temps, comme représenté par les données d'images. Les algorithmes peuvent être conçus spécialement pour analyser des images à changements temporels. De tels algorithmes peuvent également servir à lancer d'une manière efficace seulement si des détails intéressants particuliers sont éventuellement présents dans les données d'images.

Description

Dans de nombreux contextes, en particulier en imagerie médicale, des
images du même sujet ou d'une même anatomie sont créées à différents moments. Certaines de ces images peuvent montrer des anatomies ou des anomalies telles que des développements tissulaires, des lésions ou autres états qui évoluent dans le
temps. La détection de changements sur des images médicales d'un patient acquises à deux moments différents devrait être très utile pour améliorer le diagnostic et le traitement des maladies et pour surveiller la réaction à ce traitement. Cependant, plus généralement, un tel changement peut être utile, aussi bien dans le contexte médical qu'en dehors, pour suivre une évolution et un développement ou pour fournir une indication d'un éventuel changement significatif au fil du temps. Certaines applications de "soustractions temporelles" ont été proposées. Dans certaines de ces applications, une dissemblance entre des images à calculer à l'aide d'une solution simple de soustraction pixel par pixel sur des images enregistrées. Cependant, la simple soustraction donne des images faiblement contrastées. De plus, ces solutions ne sont pas suffisamment fiables si deux images initiales sont acquises à l'aide de techniques ou de modalités différentes. De plus, ces solutions ne comportent aucune indication de niveau de confiance de l'ordre de grandeur de la dissemblance mesurée.
Sur une image à changement temporel, les valeurs de pixels obtenues peuvent être affichées sous la forme de niveaux de gris sur une image monochrome, ou proportionnellement à la différence ou à la dissemblance de valeurs de pixels entre deux images entrées acquises à des moments différents. Les images entrées peuvent nécessiter une mise en concordance et peuvent être traitées pour compenser plusieurs facteurs tels que la différence de positionnement du sujet pendant deux séances d'acquisition d'images, des différences de paramètres d'acquisition, des différences de résolution binaire des images et des différences lors d'un éventuel préou post-traitement qui peut avoir été appliqué aux images. D'éventuelles erreurs de coïncidence des deux images peuvent avoir pour conséquence de très grandes valeurs de dissemblance sur l'image du fait qu'il est présumé que des changements beaucoup plus grands sont survenus sur les images ou entre les images du fait du défaut d'alignement. Par exemple, si la coïncidence obtenue n'est pas parfaite, l'image de l'analyse temporelle du sujet résultant de deux images identiques ne sera pas une image de valeur zéro comme on pourrait s'y attendre compte tenu de l'identité des images. Ainsi, pour des images identiques, le processus doit aboutir à l'absence de tout contraste sur l'image à dissemblance. Ces éléments différents de zéro de l'image à dissemblance représentent des artefacts qui pourraient être pris par erreur pour un changement temporel chez le sujet. De tels artefacts et le manque de détails anatomiques normaux rendent problématique l'interprétation radiographique d'images à soustraction temporelle pour un radiologue ou autre utilisateur, surtout si on tient compte du fait que ces utilisateurs ne sont pas familiarisés avec l'aspect de telles images. D'une façon générale, une image à dissemblance ne résume que des différences entre deux images comparées. Ainsi, à la différence d'images classiques qui reproduisent de manière intuitive des aspects d'un sujet, les images à similitudes n'illustrent globalement que des changements tels que des régions sombres ou claires, des lignes, etc. chez le sujet. Evidemment, les images peuvent être superposées ou autrement associées aux images d'origine, encore que les progrès réalisés dans ce domaine n'aient pas encore atteint un niveau satisfaisant à cet égard.
L'avènement et le succès de l'imagerie numérique ont permis un accès électronique rapide à diverses informations, en particulier des informations sur les patients dans le domaine médical, et à la possibilité de traiter et d'analyser une image d'une manière rapide et très élaborée. Par exemple, l'intégration de l'acquisition numérique couplée à un référentiel de données dans un hôpital ou un autre réseau permet un calcul et un affichage rapide d'images à changements temporels. De plus, ces technologies ont permis l'utilisation pratique de techniques de détection et de diagnostic assisté par ordinateurs (DAO) et de radiologie. Globalement, ces techniques servent à identifier et à classifier divers détails intéressants reproduits ou détectables parmi les données d'image. De tels outils de "visionique" ont été mis au point pour améliorer la sensibilité, la spécificité et l'efficacité des radiologues pour l'interprétation d'images.
Cependant, quasiment rien n'a encore été fait concrètement pour améliorer l'utilité des images à changements temporels, c'est-à-dire d'images comparées les unes aux autres et analysées pour détecter l'évolution de détails ou d'autres changements dans les images. On a actuellement besoin d'améliorer encore les techniques existantes et de créer des techniques nouvelles pour réaliser des analyses complexes d'images prises à différents moments afin de fournir une indication utile de changements survenant chez un sujet examiné par ces images.
La présente invention propose une technique nouvelle d'analyse d'images créées à différents moments, conçue pour répondre à ces besoins. La technique peut servir pour des images obtenues par n'importe quelle approche ou système s'imagerie approprié, dont les systèmes d'imagerie complexes utilisés en médecine, pour examiner des pièces et des colis, mais aussi des systèmes photographiques classiques. La présente technique propose d'accéder à des données d'images représentatives d'un sujet, créées à différents moments, les moments étant séparés par n'importe quelle durée utile, depuis des fractions de seconde jusqu'à des mois, voire des années. La technique facilite également fortement le déroulement des opérations et rend plus efficace le processus de comparaison et d'analyse. En particulier, les techniques de DAO peuvent être appliquées à la fois pour le contrôle de données d'images d'origine à analyser, ainsi que pour entreprendre ce contrôle s'il est utile.
L'invention sera mieux comprise à l'étude de la description détaillée d'un mode de réalisation pris à titre d'exemple non limitatif et illustré par les dessins annexés, sur lesquels: la Fig. 1 est une représentation schématique d'un exemple de système d'imagerie servant à créer des données d'images à différents moments pour leur analyse selon les présentes techniques; la Fig. 2 est une représentation schématique d'un système de traitement d'images pour mettre en oeuvre les procédés d'analyse temporelle selon les présentes techniques; la Fig. 3 est un organigramme illustrant des exemples d'étapes et d'organes servant à la mise en oeuvre du traitement par analyse temporelle selon la présente technique; la Fig. 4 est un organigramme semblable à celui de la Fig. 3, illustrant un autre procédé possible pour l'analyse temporelle d'images; la Fig. 5 est un autre organigramme illustrant un autre procédé possible pour l'analyse temporelle d'images; la Fig. 6 est un autre organigramme illustrant des exemples d'étapes lors du traitement d'images acquises à différents instants à l'aide d'un conciliateur; la Fig. 7 est un autre organigramme illustrant un autre procédé possible pour l'analyse temporelle d'images employant un conciliateur; la Fig. 8 est un organigramme illustrant des exemples d'étapes d'un programme typique de DAO pour effectuer l'analyse de données d'images ou d'images à changements temporels selon la présente technique; et la Fig. 9 est un organigramme illustrant un autre procédé possible pour analyser de manière interactive des images créées à différents moments, selon des aspects de la présente technique.
Considérant maintenant les dessins et, pour commencer, la Fig. 1, un système d'imagerie 10 est représenté de façon globale comme comprenant un imageur 12 pour créer des données d'images d'un sujet 14. Bien qu'un personnage soit généralement représenté comme étant le sujet 14, il doit être entendu que des images de n'importe quel sujet approprié pourraient être réalisées. Dans le présent contexte, par exemple, le sujet peut être humain ou animal, animé ou non animé, par exemple des objets manufacturés, des sujets apparaissant naturellement, etc. Assurément, le système d'imagerie 10 peut être tout type de système approprié produisant des données d'images numérisées reposant sur des moyens physiques d'imagerie. Dans le contexte de l'imagerie médicale, comme ailleurs, de tels systèmes d'imagerie peuvent comporter des systèmes d'IRM, des systèmes de TEP, des systèmes de TDM, des systèmes de tomosynthèse, des systèmes de radiographie, des systèmes à ultrasons, parmi de nombreux autres moyens d'imagerie. Les systèmes peuvent également comporter des systèmes d'imagerie photographique classiques, qui produisent des données d'images numérisées à partir d'un rayonnement reçu à n'importe quelle largeur de bande ou fréquence adéquate.
Sur la vue schématique de la Fig. 1, le système d'imagerie comprend un imageur 12 couplé aux circuits de commande 16 d'imageur et à des circuits 18 d'acquisition de données d'images. Selon les moyens d'imagerie et les moyens physiques du système, l'imageur émettra ordinairement un certain type de rayonnement, comme dans le cas des systèmes de radiographie, de TDM, de tomosynthèse et autres. D'autres systèmes d'imagerie active, tels que des systèmes d'IRM, agissent par excitation sur des sujets, par exemple en produisant des impulsions à fréquences radioélectriques en présence de champs magnétiques commandés. Cependant, dans tous ces cas, le fonctionnement de l'imageur est régulé par les circuits de commande 16 d'imageur. Ces circuits de commande peuvent se présenter sous n'importe quelle forme appropriée et comportent normalement des circuits pour activer l'imageur, recevoir un rayonnement ou d'autres signaux, créer les éventuels signaux d'excitation ou le rayonnement nécessaires pour l'imagerie, etc. Donc, les circuits d'acquisition 18 d'images reçoivent et commencent à traiter les données reçues par l'imageur. Ce traitement initial peut comporter la conversion de signaux analogiques en signaux numériques, le filtrage des signaux analogiques ou numériques, un changement d'échelle ou des réglages de dynamique, etc. Les circuits de commande 16 d'imageur et les circuits d'acquisition 18 de données d'images sont globalement régulés par un certain type de circuits de commande 20 de système. Là encore, selon la nature du système d'imagerie et des moyens physiques impliqués, les circuits de commande de système peuvent lancer des séquences d'imagerie en échangeant des signaux appropriés avec les circuits de commande 16 d'imageur. Les circuits de commande 20 d'imageur peuvent également recevoir, des circuits d'acquisition 18 de données d'images, les données d'images brutes ou pré- traitées. Les circuits de commande 20 du système peuvent, surtout dans les systèmes les plus complexes, être couplés à un poste de travail 22 d'opérateur où un opérateur sélectionne, configure et lance des séquences d'examen ou d'imagerie. Les données d'images, qu'elles soient brutes, partiellement traitées ou entièrement traitées, sont normalement stockées dans des supports de stockage d'un certain type, comme représenté par le repère 24. Dans le présent contexte, ces supports de stockage peuvent faire partie des circuits de commande 20 du système, du poste de travail 22 d'opérateur ou de n'importe quel autre organe du système global. Dans un contexte de diagnostic médical, par exemple, ces supports de stockage peuvent comporter une mémoire locale et distante, aussi bien magnétique qu'optique, et peuvent comporter des systèmes d'archivage et de communication d'images (PACS) conçus pour stocker et servir, à la demande, des données d'images.
Sur l'illustration de la Fig. 1, le poste de travail 22 d'opérateur est représenté couplé aux circuits de traitement 26 de données d'images. Là encore, de tels circuits de traitement peuvent en réalité être répartis dans tout le système, et peuvent mettre en oeuvre un matériel, un microprogramme et un logiciel conçus pour traiter les données d'images afin de produire des images reconstruites à examiner. Selon les présentes techniques décrites ci-après, les circuits de traitement d'images 26 exécutent un ou plusieurs programmes de diagnostic assisté par ordinateur (DAO) sur les données d'images afin d'analyser les données par rapport à d'autres données d'images recueillies à un autre moment. Les circuits de traitement 26 de données d'images peuvent être locaux par rapport au système d'imagerie, comme illustré de façon globale sur la Fig. 1, ou peuvent être totalement à distance du système, et simplement accéder aux données d'images, notamment à partir des supports 24 de stockage pour post-traitement. Enfin, la Fig. 1 représente divers postes de télécommande/traitement/observation 28 qui peuvent être couplés au système d'imagerie par des liaisons appropriées en réseau 30. De tels postes peuvent servir à exécuter encore une observation, une analyse et un traitement des données d'images, comme décrit ici.
Le système d'imagerie 10, et assurément d'autres systèmes d'imagerie ayant les mêmes modalités ou des modalités différentes, sert à créer des images d'un sujet à divers moments. Selon la présente technique, il est possible d'accéder à ces images, de les analyser et de les comparer pour déterminer si certains détails particuliers sont susceptibles d'être présents sur l'image et donc chez le sujet. De plus, une analyse de changements temporels selon les présentes techniques permet l'identification de tendances dans l'évolution de détails particuliers intéressants. Dans le contexte des diagnostics médicaux, par exemple, cette analyse de changements temporels peut servir à détecter l'apparition, le développement ou la réduction de certains détails anatomiques, états pathologiques, corps et objets apparaissant naturellement ou étrangers, etc. La Fig. 2 représente schématiquement un système d'analyse de changements temporels désigné globalement par le repère 32. Le système comprend un système d'acquisition 10 qui peut être de n'importe quel type approprié ou avoir n'importe quelle modalité appropriée comme décrit plus haut en référence à la Fig. 1. Le système comprend en outre un ou plusieurs référentiels 34 conçus pour recevoir et stocker des données d'images. Le référentiel peut comporter n'importe quel type de mémoire approprié, normalement des supports magnétiques, des supports optiques, etc. De plus, le référentiel peut, concrètement, être constitué par un seul ou par de nombreux dispositifs de stockage différents liés entre eux, dont des dispositifs reliés les uns aux autres par l'intermédiaire d'un réseau. Le système d'acquisition 10 produit des images ou des suites d'images à différents moments, par exemple un ensemble 36 d'images illustré sur la Fig. 2. Le référentiel sert à stocker ces données d'images, ainsi que des ensembles de données d'images produits antérieurement, comme indiqué par le repère 38 de la Fig. 2. Comme évoqué plus en détail ci-après, ces divers ensembles d'images à séparation dans le temps sont accessibles et peuvent être analysés pour identifier des différences ou des changements entre eux.
Le système 32 comprend en outre des circuits de traitement 40 de données d'images. D'une façon générale, les circuits de traitement 40 de données d'images comprendront divers matériels, microprogrammes et logiciels conçus pour exécuter les fonctions décrites ici. Les circuits de traitement peuvent être conçus autour d'un ordinateur polyvalent ou d'un ordinateur pour application spécifique. De plus, dans la pratique, les circuits de traitement de données d'images peuvent faire partie du système d'acquisition 10 ou peuvent être entièrement séparés du système d'acquisition. Assurément, les circuits de traitement 40 de données d'images peuvent fonctionner presque en temps réel au fur et à mesure de l'acquisition d'images par le système d'acquisition 10 ou peuvent exécuter des opérations uniquement en post- traitement, en accédant à des ensembles d'images 36 et 38 à partir du référentiel 34.
Les circuits 40 font appel à un ou plusieurs algorithmes de détection assistée par ordinateur (DAO) ou de diagnostic assisté par ordinateur, désignés globalement par le repère 42 sur la Fig. 2. Comme le comprendront les spécialistes de la technique, et comme décrit plus en détail ci-après, l'algorithme de DAO 42 analysera des données d'images pour reconnaître des structures, des bords, des régions et d'autres relations significatives entre les données d'images pixélisées pour segmenter et classifier des détails potentiellement intéressants dans les données d'images. Comme indiqué sur la Fig. 2, dans certains cas, l'algorithme de DAO peut être de nature beaucoup plus générale, et il sera désigné ici globalement par "XAO". De tels algorithmes peuvent exécuter des opérations autres que ou s'ajoutant à la détection et au diagnostic de détails intéressants. Par exemple, de tels algorithmes peuvent servir à lancer l'acquisition, à lancer un certain traitement, à lancer ou exécuter un ordonnancement, des actions recommandées, des chaînes de traitement, etc. Au sens de la présente description, l'acronyme "DAO" doit être entendu comme couvrant toutes opérations supplémentaires de ce type.
Le système 32 comprendra ordinairement un poste de travail 22 d'opérateur pouvant être le même poste de travail d'opérateur que celui décrit plus haut à propos du système d'imagerie 10, ou un poste de travail différent. Le poste de travail lui même peut comporter les circuits de traitement 40 de données d'images et peut être entièrement distant du système d'acquisition 10. Un type de système de sortie 44 est normalement présent, notamment pour créer des sorties papier d'images, des rapports, etc. Le poste de travail 22 d'opérateur ou le système de sortie 44 comprendra également des écrans pour regarder des images reconstruites et à changements temporels comme évoqué plus loin, celles-ci pouvant être présentées sous la forme d'images à haute définition très contrastées permettant à des utilisateurs et des observateurs d'analyser, lire, annoter et autrement utiliser les images reconstruites. Le système 32 met en oeuvre un ou plusieurs types de traitement pour analyser les changements temporels entre les images prises à différents moments. Les figures 3, 4, 5, 6 et 7 illustrent des exemples de modules et de processus envisagés pour le système 32. D'une façon générale, certains modules essentiels peuvent être inclus dans les systèmes et dans le déroulement des opérations. Par exemple, la Fig. 3 illustre un programme d'analyse 46 de changements temporels selon les présentes techniques. Comme représenté sur la Fig. 3, le programme commence par une acquisition d'image indiquée au bloc 48. Les données d'images acquises sont associées à des images de sujets similaires, normalement le même sujet et la même vue, prises antérieurement et accessibles à partir du référentiel 34. Finalement, le système applique un ou plusieurs algorithmes de DAO comme indiqué par les repères 50 et 52 pour produire et afficher un rapport, comme indiqué au bloc 54. Les images acquises à différents moments sont traitées par une série de modules qui coopèrent avec les algorithmes de DAO 50 et 52 comme évoqué plus loin. D'une façon générale, ces modules comprennent un module de pré-traitement 56, un module de segmentation 58, un module de mise en coïncidence 60 et un module de comparaison 62.
L'acquisition d'une image au bloc 48 de la Fig. 3 permet l'analyse des changements temporels. En général, un système d'imagerie est réalisé de la manière décrite ci-dessus et les données d'images sont stockées dans un référentiel 34 pour en être extraites. Bien que soient ici évoquées deux images spécifiques prises à deux moments différents et comparées par le système, il ne faut pas oublier que la technique peut être étendue à n'importe quel nombre d'images et à n'importe quel nombre de moments différents où les images sont acquises. Les données d'images analysées par le système peuvent être les données d'images d'origine non traitées provenant du système d'acquisition ou peuvent être des versions partiellement ou entièrement traitées des données d'images d'origine. De plus, les données d'images peuvent avoir pour origine une modalité ou un système d'imagerie identique ou différent. De même, les données d'images peuvent comporter des données numérisées créées par analyse et numérisation d'un support classique, par exemple des images sur support papier et des films.
Le module de pré-traitement 56 peut prendre en charge plusieurs fonctions, selon la nature des données d'images. Par exemple, le module 56 peut "normaliser" deux images pour tenir compte de différences de techniques d'acquisition ou de différences de procédés de pré- et post-traitement. A titre d'exemple, sur des images radiographiques, si la première image a une exposition inférieure de moitié à celle de la deuxième image, les niveaux de gris de la première image peuvent être multipliés par un facteur 2 avant toute autre comparaison avec la deuxième image. L'ajustement sur les images sert à réduire sur l'ensemble de l'image les différences d'intensité dues à l'affichage de l'image ou à des facteurs techniques tels que des différences de doses. Le module de pré-traitement 56 peut également effectuer des opérations telles que des changements d'échelle, des réglages de dimensions et d'orientation, des réglages de dynamique, etc. Le module de segmentation 58 identifie et définit les limites des détails intéressants dans les données d'images aux deux moments. Il existe actuellement dans la technique de nombreux types de segmentation, et ces processus consistent ordinairement à identifier des gradients, des intensités et autres caractéristiques des données pixélisées pour extraire des associations utiles des données, par exemple Io pour identifier des bords, des zones, des régions, etc. pouvant constituer des détails reconnaissables sur l'image finale. Par conséquent, le module 58 constitue un mécanisme automatisé ou manuel pour isoler des régions intéressantes dans les données d'images. Dans de nombreux cas concrets, toute l'image peut être intéressante, des détails spécifiques ou des sous- ensembles de données étant identifiés comme représentant potentiellement des objets particulièrement intéressants.
Le module de mise en coïncidence 60 permet d'aligner des régions ou objets intéressants similaires sur les images prises à différents moments. Si les régions intéressantes destinées à subir une analyse de changement temporel sont petites, des transformations de coïncidence de corps rigides, dont le déplacement, la rotation, l'agrandissement et le découpage peuvent suffire pour faire coïncider deux images prises à deux moments différents. Cependant, si les régions intéressantes sont grandes, dont la presque totalité de l'image, des transformations élastiques, avec des déformations, peuvent être appliquées.
Comme le comprendront les spécialistes de la technique, une manière de mettre en oeuvre la coïncidence à déformation consiste à utiliser la solution pyramidale, à plusieurs échelles, à plusieurs régions. Dans ces approches, une fonction économique différente mettant en évidence des changements peut être optimisée à chaque échelle. Ces fonctions économiques peuvent, d'une manière nullement limitative, être des méthodes de corrélation comme la corrélation mathématique et la mesure de changement de signe, ou des méthodes statistiques telles que les mesures d'entropie et les informations mutuelles. Les images sont rééchantillonnées à une échelle donnée, puis divisées en de multiples régions. Des vecteurs de décalage séparés sont calculés pour différentes régions. Les facteurs de décalage sont interpolés pour produire une transformation de décalage lisse, qui est appliquée afin de déformer l'une des images. Des fonctions de pondération sur des vecteurs de décalage peuvent être appliquées pendant les interpolations, et ces fonctions de pondération peuvent être déterminées d'après les caractéristiques de l'image, par exemple des détails anatomiques, ou d'après les caractéristiques de la mappe de fonctions économiques. Les images sont rééchantillonnées et le processus de coïncidence à déformation est répété à l'échelle immédiatement plus grande jusqu'à ce que l'échelle finale prédéterminée soit atteinte, ou que soit atteint un point où la mappe des fonctions économiques a atteint un certain seuil prédéterminé. Dans d'autres situations, il est possible d'utiliser une coïncidence rigide et des transformations élastiques.
Suite à la mise en coïncidence par le module de mise en coïncidence 58, les images prises à différents moments seront comparables. Les modules de pré-traitement, de segmentation et de coïncidence servent également à rendre comparables les images dans la mesure où ils réduisent les différences apparentes mais sans conséquences entre les images qui pourraient avoir tendance à indiquer des changements temporels plus grands qu'ils ne se sont réellement produits chez le sujet. Le module de comparaison 62 analyse donc les dissemblances entre les images. Une mesure de dissemblance entre les images mises en coïncidence peut être effectuée suivant l'une de plusieurs manières. Par exemple, il est possible d'employer de simples soustractions dans lesquelles des différences sont analysées pixel par pixel et une valeur absolue d'une différence est enregistrée. Cependant, des procédés plus élaborés comprennent un procédé à division dans lequel la différence entre les images, pixel par pixel, peut être représentée par l'équation: Id = (Ii * I2)/(I2 * I2 + où Il et I2 représentent des données d'images pour des images prises respectivement à un premier et un second instants, et 1 représente un facteur de pondération. La valeur Id représente la valeur, pixel par pixel, de la différence, de la comparaison de l'image à changement temporel.
Suite à la comparaison des images, le module d'affichage et de communication 54 présente un affichage et des moyens de quantification pour que l'utilisateur visualise ou quantifie les résultats de la comparaison temporelle. Les résultats de comparaisons temporelles peuvent être affichés simultanément sur un dispositif d'affichage tel qu'un écran, séparément de l'une au l'autre des images temporelles. Selon une autre possibilité, l'une et/ou l'autre des images temporelles peuvent être superposées l'une à l'autre et à l'image à changement temporelle par l'intermédiaire d'un opérateur logique, sur la base d'un critère donné. Pour une comparaison quantitative, des tables de correspondance des couleurs pour les images superposées peuvent être utilisées de manière à mettre en évidence des différences ou des changements survenus au fil du temps. La combinaison résultante peut être présentée sur une image écran à superposition monochrome ou polychrome.
Dans le programme d'analyse de changements temporels illustré sur la Fig. 3, le déroulement des opérations permet d'analyser l'image à changements temporels, et l'une et/ou les deux images prises à des instants différents à l'aide d'algorithmes de DAO. L'image à changements temporels estprésentée à l'utilisateur avec l'ajout éventuel de l'image immédiate ou d'images antérieures, comme évoqué plus haut. En outre, la présente technique combine le traitement par comparaison temporelle avec des outils pour analyse assistée par ordinateur aussi bien des images d'origine que des images à changements temporels. Cet aspect de la présente technique facilite grandement l'automatisation, l'amélioration et la simplification du processus de détection, en particulier de l'image à changements temporels. On va maintenant présenter en détail une technique typique de DAO utilisée pour les blocs 50 et 52 de la Fig. 3. Cependant, dans le programme de la Fig. 3, les détails sont segmentés, classifiés et présentés par l'algorithme de DAO 50 d'après l'image d'origine. L'algorithme de DAO 52, qui peut être différent de l'algorithme de DAO 50, en particulier en ce qui concerne ses procédés de segmentation et de classification, fonctionne d'après les données de comparaison temporelle, c'est-à-dire l'image à changements temporels. Là encore, l'une et/ou les deux analyses peuvent être présentées par le module d'affichage et de communication 54. On s'attend à ce que des algorithmes de DAO perfectionnés, ou plus généralement des algorithmes de XAO soient mis au point pour pousser l'analyse des données d'images à changements temporels. Ainsi, des augmentations et des réductions ou des apparitions ou des disparitions de détails intéressants à des endroits donnés peuvent être constatées et classifiées pour être présentées à l'utilisateur à l'occasion d'un diagnostic, d'un traitement et autres dans le contexte médical, et dans d'autres contextes pour l'analyse de la qualité ou de structures internes de sujets concernés.
La Fig. 4 illustre un autre programme possible de dépistage de changements temporels qui facilite et accroît l'efficacité informatique de l'ensemble du processus décrit plus haut. En particulier, dans de nombreux processus mis en oeuvre, un examen efficace d'images est essentiel, surtout dans des contextes médicaux, des contextes de manipulation de colis, des contextes de gestion de la qualité de pièces, etc. Produire des images supplémentaires destinées à être examinées par une personne, par exemple les images à changements temporels évoquées ici, peut avoir tendance à faire baisser la productivité, surtout en cas d'absence de changements temporels, ou si des changements temporels insignifiants se sont produits. Le programme de la Fig. 4 est conçu pour de tels problèmes de déroulement des opérations. La solution de la Fig. 4 comporte le lancement d'une comparaison temporelle uniquement sur des images dans lesquelles sont détectées des constatations présentant un intérêt potentiel. Ainsi, le programme de la Fig. 4, désigné globalement par le repère 64, comprend l'exécution d'un processus 66 de Io programme particulier de DAO avant la réalisation de l'analyse temporelle. Il est actuellement envisagé que le programme de DAO 66 puisse être différent de l'un ou l'autre des programmes de DAO 50 et 52 présentés plus haut, et il sert à lancer le processus d'analyse de changements temporels. Ainsi, le premier algorithme de DAO 66 servant à analyser les images immédiates peut avoir une plus grande sensibilité et une moindre spécificité que les algorithmes qui seraient normalement appliqués à de telles données d'images. S'il est constaté que les données représentent potentiellement des détails particulièrement intéressants, comme des anatomies, des états pathologiques, des lésions particuliers, etc. dans le contexte médical, ou des inclusions, des objets intéressants, des défauts et autres dans d'autres contextes, les étapes de comparaison temporelle décrites plus haut sont lancées. Si de tels détails ne sont pas identifiés par l'algorithme de DAO 66, un module d'affichage et de communication 54 peut présenter les informations résultant de l'analyse ou directement les images d'origine. Cependant, si de tels détails sont constatés, des images historiques sont extraites du référentiel 34, et les étapes de pré-traitement, segmentation, coïncidence et comparaison, suivies par l'algorithme de DAO 52, sont exécutées comme précédemment. Par conséquent, le calcul de l'image à changements temporels, et son analyse, sont évités sauf dans les cas où des détails potentiellement intéressants ont été identifiés par l'algorithme de DAO 66. La sensibilité plus grande et la moindre spécificité de l'algorithme 66, s'il est utilisé, auront tendance à accroître les fausses constatations positives qui peuvent être éliminées par l'application du processus de comparaison temporelle et par l'application éventuelle du second algorithme de DAO 52. Il faut souligner que les constatations faites par les deux algorithmes de DAO 66 et 52 peuvent être entrées dans un module de conciliation, décrit plus loin, afin de résumer et de simplifier les données présentées et communiquées.
La présente technique permet également l'analyse quantitative de changements temporels entre images. La Fig. 5 représente un programme 68 d'analyse quantitative de changements temporels qui permet de mesurer et de quantifier des changements spécifiques entre les images. Sur l'organigramme de la Fig. 5, les images acquises peuvent être directement affichées par le module d'affichage et de communication 54 et sont soumises à un algorithme de DAO 66 pour une identification initiale d'éventuels détails intéressants. Si de tels détails sont identifiés, des images antérieures sont extraites du référentiel 34 et sont soumises aux modules de pré-traitement, segmentation, coïncidence et comparaison présentés plus haut. A partir de la comparaison, un module d'analyse quantitative 70 effectue des mesures de caractéristiques de l'image à changements temporels. Ces informations peuvent elles aussi être présentées dans le module d'affichage et de communication 54. Le module d'analyse quantitative 70 permet une mesure réelle de changements spécifiques, par exemple par comptage ou cumul d'un certain nombre de pixels ou de voxels dans lesquels sont présentes de grandes différences entre les images. Il faut souligner que, dans toute la présente description, bien qu'il soit fait référence à une comparaison de pixels et de deux images ou davantage, les présentes techniques peuvent toutes être appliquées à des images et des ensembles de données d'images à trois dimensions, notamment pour détecter des changements en trois dimensions, ce qui rend le procédé applicable à des situations où l'orientation ou la présentation particulière d'un objet dans une série d'images a changé au fil du temps par suite du mouvement ou de la position réelle du sujet dans le système d'imagerie. A l'aide du module d'analyse quantitative 70, des détails tels que des lésions suspectes peuvent donc être automatiquement détectées sur une image immédiate, une image antérieure (ou de multiples images antérieures), et cette région peut être identifiée, une comparaison temporelle étant calculée et analysée pour mettre en évidence des changements temporels. Ainsi, le développement ou la contraction d'un nodule, l'apparition d'un pneumothorax, par exemple, peut faire l'objet d'une mesure quantitative. Là encore, les informations quantitatives peuvent être communiquées conjointement avec l'image ou les images à changements temporels, les images de DAO, les images d'origine, etc. Il faut également souligner que le module d'analyse quantitative pourrait être utilisé conjointement avec l'un quelconque des flux précités de données de comparaison temporelle décrits.
Comme indiqué plus haut, la présente technique peut être utilisée avec un programme de conciliation dans lequel un lecteur humain ou non identifie des discordances entre des analyses. Ces discordances peuvent comporter ordinairement des similitudes et des différences, comme lors de la reconnaissance ou de la classification de détails intéressants sur des images prises à des moments différents. La Fig. 6 illustre un programme de conciliation 72 de changements temporels mettant en oeuvre une telle conciliation. Dans le programme 72, des images immédiates et antérieures sont extraites et un algorithme de DAO 74 est exécuté sur les unes et les autres. L'algorithme de DAO 74 segmente et classe des détails intéressants dans les données d'images, et ses résultats sont fournis à un module de conciliation 76. Le module de conciliation 76 déterminera ensuite s'il existe des différences significatives entre les résultats de l'analyse par DAO. Comme indiqué au bloc de décision 78, si les résultats de l'analyse des images prises à différentes moments sont cohérents, les données d'images, les images reconstruites ou les résultats des analyses peuvent être affichés par le module d'affichage et de communication 54. En revanche, s'il existe des différences ou des discordances entre les analyses, un module de comparaison temporel 80 est lancé et le prétraitement, la segmentation, la mise en coïncidence, la comparaison et l'analyse décrits plus haut sont exécutés. En outre, le module de comparaison temporel 80 peut exécuté des algorithmes de DAO spécifiques, par exemple des algorithmes conçus pour fonctionner sur des images à changements temporels, ainsi que des algorithmes d'analyse quantitative pour quantifier des changements représentés dans le temps, etc. Les résultats de cette analyse sont ensuite présentés par le module d'affichage et de communication 54.
La Fig. 7 illustre un autre programme de conciliation 82 de changements temporels. Dans le programme 82, des données d'images instantanées et antérieures sont extraites et analysées par l'intermédiaire des algorithmes de DAO 74, comme décrit plus haut à propos de la Fig. 6. Cependant, un module d'affichage et de communication initial 84 présente les deux images (ou de multiples images prises à de multiples moments) à un observateur humain. L'observateur humain peut alors analyser les images pour identifier des détails potentiellement intéressants en vue d'une analyse plus poussée. La saisie faite par l'observateur humain, et les résultats d'analyse des deux ensembles d'images par l'algorithme de DAO 74, sont soumis à un conciliateur 86. Comme dans le cas du conciliateur 76 décrit plus haut, le conciliateur 86 identifie des discordances, à savoir des similitudes et des différences, entre la segmentation ou la classification effectuée par l'algorithme de DAO et par l'observateur humain. En l'absence de telles discordances, comme déterminé par le bloc de décision 88, un module d'affichage et de communication final 92 produit un signal de sortie destiné à être réutilisé et stocké. En revanche, si de telles discordances sont déterminées entre l'une ou l'autre des entrées du conciliateur 86, le module de comparaison temporel 90 est mis en marche et un prétraitement, une segmentation, une mise en coïncidence, une comparaison suivis si nécessaire d'une analyse de DAO et d'une analyse quantitative sont lancés.
Dans les divers processus et déroulements d'opérations décrits plus haut, divers types d'algorithmes de DAO seront mis en oeuvre. Comme le comprendront les spécialistes de la technique, ce traitement par DAO peut prendre de nombreuses formes, selon le type d'analyse, le type d'image et le type de détail concernés. La Fig. 8 illustre à titre d'exemple un programme de DAO 94 qui peut être adapté à de telles applications. Par exemple, dans le contexte médical, un praticien peut obtenir des informations concernant une maladie spécifique à l'aide de données temporelles, de la manière décrite ici. Un algorithme de DAO à fonctions d'analyse temporelle pour analyser des changements d'états est donc proposé. Selon un autre exemple, dans des systèmes de TDM, des détails intéressants visibles sur des images peuvent être déterminés par analyse de masse de mammographie temporelle. Cette identification de masse peut être effectuée pour la détection seule, notamment pour identifier la présence ou l'absence d'éventuelles lésions suspectes, ou peut prendre la forme d'un diagnostic, c'est-à-dire d'une classification de lésions détectées comme étant bénignes ou malignes.
Lors de l'exécution du programme de DAO 94 illustré sur la Fig. 8, l'accès aux données d'entrée 96 peut se faire soit directement depuis une source telle qu'un système d'acquisition de données de TDM, soit depuis divers ensembles de données d'images diagnostiques stockées par exemple dans un référentiel de données présenté plus haut.
Un module de segmentation 98 définit alors des régions intéressantes pour calculer si des détails sont reconnaissables dans les données d'images. La région intéressante peut être définie de plusieurs manières. Par exemple, tout l'ensemble de données peut être identifié comme région intéressante. Selon une autre possibilité, une partie des données, par exemple une région de masse potentielle dans une région spécifique, peut être prise en considération. La segmentation de la région intéressante peut être effectuée manuellement ou automatiquement. La segmentation manuelle comporte l'affichage des données et la délimitation, par l'utilisateur, d'une région à l'aide d'un dispositif de saisie, par exemple une souris ou autre interface appropriée.
Un algorithme de segmentation automatisée peut utiliser des connaissances antérieures, comme la forme, les dimensions et d'autres caractéristiques d'images de détails similaires typiques pour délimiter automatiquement la zone intéressante. Un procédé semi-automatisé peut employer une combinaison de segmentation manuelle et automatisée.
Un module d'extraction 100 de détails, qui peut être un module optionnel dans le programme, comporte l'exécution de calculs sur les données sources. Par exemple, les données à base d'images dans la région intéressante peuvent être analysées pour déterminer des statistiques telles que la forme, les dimensions, la densité, la courbure, etc. Parmi les données obtenues par acquisition et sur un patient, comme on en utilise dans le contexte médical, les données elles-mêmes peuvent servir de détails extraits.
Après la segmentation des détails et après qu'une éventuelle extraction de détails a été effectuée si cela est souhaitable, un module de classification 102 sert à classer les régions intéressantes suivant n'importe quel type de classification approprié. Par exemple, dans le contexte médical, des masses peuvent être classées d'après leur type, suivant une probabilité qu'elles soient bénignes ou malignes, etc. De tels classifieurs peuvent comporter toutes sortes d'algorithmes comme des classifieurs bayésiens, des réseaux neuronaux, des méthodes à base de règles, des méthodes à logique floue, etc. Il faut souligner que le programme de DAO est exécuté une seule fois en intégrant des détails de toutes les données et peut être exécuté en parallèle. Le fonctionnement en parallèle d'algorithmes de DAO permet d'améliorer les performances des opérations de DAO. Par exemple, des opérations individuelles sur les ensembles de données peuvent être influencées par des résultats de modules individuels de l'algorithme de DAO ou en combinant les résultats d'opérations de DAO, par l'intermédiaire d'opérateurs logiques tels que des opérations ET, OU NON, ou des combinaisons de celles-ci. De plus, différents algorithmes et opérations de DAO peuvent être exécutés pour détecter en série ou en parallèle de multiples détails, des articles, des états pathologiques, et autres, comme décrit plus en détail ci-après en référence à la Fig. 9. A la suite de la classification dans le module 102, un certain type de visualisation est généralement préférable, comme indiqué au bloc 104 de la Fig. 8. Là encore, la visualisation peut être effectuée à l'aide d'un écran classique ou spécial, de sorties papier, d'un film ou de n'importe quelle autre manière.
Il faut souligner que le programme de DAO peut utiliser des informations spécifiques concernant les images ou des informations générales relatives à des connaissances sur des détails intéressants particuliers attendus sur les images pour les étapes d'extraction et de classification de détails, ainsi que pour la segmentation.
Comme illustré sur la Fig. 8, les paramètres d'acquisition 106 concernent globalement la manière dont des détails intéressants seront présentés et pourront être identifiés à partir des images. Ces paramètres d'acquisition peuvent normalement comporter le type de système générant les protocoles d'images et les réglages utilisés pour générer les données d'images, etc. En outre, divers types de connaissances antérieures seront utiles au cours du processus de DAO, comme indiqué au bloc 108. Ces connaissances antérieures peuvent normalement comporter des analyses statistiques de détails ou d'objets similaires pouvant être identifiés sur les images à analyser. De nombreux types de caractéristiques peuvent être identifiés par analyse des données d'images, et les connaissances antérieures de caractéristiques similaires présentées par des détails confirmés du même type sont extrêmement utiles dans les modules d'extraction et de classification de détails, encore que ces informations puissent également être utilisées lors de la segmentation. Enfin, d'autres facteurs peuvent être pris en compte dans le processus, en particulier pour la classification, comme indiqué au bloc 110 de la Fig. 8. Ces facteurs peuvent comprendre des facteurs démographiques, des facteurs de risques et autres qui sont susceptibles de faciliter la classification finale d'éventuels détails reconnus dans les données d'images.
Dans un processus préféré, il est prévu un certain type d'apprentissage de l'algorithme de DAO, notamment par l'intégration de connaissances antérieures de détails intéressants connus et confirmés. Des phases d'apprentissage de ce type peuvent comporter le calcul de plusieurs détails potentiels d'après des échantillons connus, par exemple des masses bénignes et malignes dans le contexte médical. Un algorithme de sélection de détails est alors employé pour trier les détails potentiels et ne sélectionner que les détails utiles pour confirmer ou rejeter certaines segmentations, extractions de détails et classifications potentielles. De préférence, seuls des détails ou des caractéristiques utiles sont conservés pour réduire la redondance et améliorer l'efficacité informatique. Normalement, ces décisions reposent sur la classification de résultats avec différentes combinaisons de détails potentiels. L'algorithme de sélection de détails employé sert également à réduire la dimensionnalité d'un point de vue pratique, en améliorant donc encore l'efficacité informatique. Il est ainsi obtenu un ensemble de détails pouvant procéder à une distinction optimale entre des détails intéressants, comme des masses bénignes et malignes dans le contexte médical. Cet ensemble optimal de détails est extrait dans des régions intéressantes dans le programme de DAO. La sélection optimale de détails peut être effectuée à l'aide de nombreuses techniques, comme les techniques bien connues de mesures de distances, dont les mesures de diversions, les mesures de distances de Bhattacharya, les mesures de distances de Mahalanobis, etc. Les algorithmes de DAO employés dans la présente technique peuvent être différents les uns des autres et bien entendu de multiples algorithmes de DAO différents peuvent être utilisés. Par exemple, comme décrit plus haut, des algorithmes peuvent être utilisés pour l'analyse en parallèle de données d'images ou peuvent être utilisés en série, notamment pour lancer une analyse temporelle uniquement si des détails particuliers intéressants peuvent être présents ou visibles dans les données d'images. Des algorithmes de DAO en parallèle peuvent également être employés pour les mêmes détails ou des détails différents, ou avec différents niveaux de sensibilité et de spécificité, des conciliateurs étant employés comme évoqué plus haut, si nécessaire. De plus, comme indiqué plus haut, on s'attend à ce que des algorithmes de DAO d'analyse temporelle continuent à être mis au point pour travailler spécifiquement sur des images à changements temporels. Ils comprendront des algorithmes pour l'analyse quantitative de changements dans le temps.
Comme indiqué également plus haut, certains algorithmes de DAO peuvent être exécutés ou mis en oeuvre en parallèle comme indiqué globalement sur la Fig. 9. Le programme de DAO d'analyse temporelle interactive, désigné globalement par le repère 112 sur la Fig. 9, permet des changements temporels entre des images à analyser par fonctionnement interactif ou à entrelacements de modules de DAO du type évoqué plus haut. Par exemple, l'accès aux ensembles 96 de données d'images se fait depuis différents moments, et la segmentation est réalisée sur chacun par un module de segmentation 98 de deux algorithmes de DAO en parallèle. Globalement, les algorithmes de DAO peuvent être de même nature, ou peuvent être différents les uns des autres, par exemple par leur sensibilité ou leur spécificité, ou peuvent être aptes à identifier différents détails intéressants. Lors de l'étape 114, les images segmentées, ou des parties segmentées des images sont mises en coïncidence par un module de mise en coïncidence spécialement conçu. Le fonctionnement du module de mise en coïncidence 114 peut être globalement semblable à celui du module de mise en coïncidence 60 évoqué plus haut, ou peut être conçu spécialement pour différents types d'images ou de segmentation si les segmentations effectuées par les algorithmes de DAO du programme sont différentes. Les résultats de la mise en coïncidence sont fournis à un module de comparaison 116 qui détermine si les résultats de la segmentation sont convergents ou divergents. Le résultat de la mise en coïncidence peut également être transmis à des modules 100 d'extraction de détails. De là, les données entre les modules de chaque algorithme de DAO peuvent être échangées ou utilisées de façon complémentaire pour améliorer l'extraction, la classification et l'affichage final des détails. Certains résultats des algorithmes de DAO sont ainsi mélangés avant l'identification de détails. Le processus qui en résulte Io permet l'identification de différences temporelles entre des images en tenant compte des similitudes et des différences entre les détails, pour parvenir à une analyse synergique des données temporelles représentées par les différents ensembles de données d'images.
LISTE DES REPERES 10 système d'imagerie 12 imageur 14. sujet 16 circuits de commande d'imageur 18 circuits d'acquisition de données d'images circuits de commande du système 22 poste de travail d'opérateur 24 supports de stockage 26 circuits de traitement de données d'images 28 postes de télécommande/traitement/visualisation liaisons en réseau 32 système d'analyse de changements temporels 34 référentiel 36 ensemble d'images 38 ensembles antérieurs d'images circuits de traitement de données d'images 42 module(s) de DAO 44 système de sortie 46 programme d'analyse de changements temporels 48 module d'acquisition module 1 de DAO 52 module 2 de DAO 54 module d'affichage et de communication 56 module de pré-traitement 58 module de segmentation module de mise en coïncidence 62 module de comparaison 64 programme de dépistage de changements temporels 66 module d'algorithme de DAO 68 programme d'analyse quantitative de changements temporels module d'analyse quantitative 72 programme de conciliation de changements temporels 74 module de DAO 76 conciliateur 78 module de lancement de comparaison temporelle module de comparaison temporelle 82 conciliation de changements temporels 84 module d'affichage/communication initial 86 conciliateur 88 module de lancement de comparaison temporelle module de comparaison temporelle 92 module d'affichage/communication final 94 programme de DAO 96 données d'entrée 98 module de segmentation module d'extraction de détails 102 module de classification 104 module de visualisation 106 paramètres d'acquisition 108 connaissances antérieures facteurs divers 112 programme de CAO d'analyse temporelle interactive 114 mise en coïncidence 116 comparaison

Claims (10)

REVENDICATIONS.
1. Procédé d'analyse de données d'images, comprenant les étapes consistant à: générer une image (56, 58, 60, 62) à changements temporels à partir d'une première et d'une deuxième images (36, 38) prises à des moments différents en segmentant (58) la première et la deuxième images et en faisant coïncider (60) au moins une partie des images segmentées l'une avec l'autre; et analyser l'image de changements temporels à l'aide d'au moins un algorithme de DAO (50, 52).
2. Procédé selon la revendication 1, dans lequel l'analyse de l'image de changements temporels à l'aide de l'algorithme de DAO comprend le diagnostic d'un état physique d'un patient.
3. Procédé selon la revendication 1, dans lequel l'algorithme de DAO (36, 38) identifie au moins un détail intéressant sur l'image à changements temporels.
4. Procédé selon la revendication 1, dans lequel comprenant l'exécution d'une analyse quantitative (70) sur l'image à changements temporels.
5. Procédé selon la revendication 4, dans lequel l'analyse quantitative (70) comporte l'étape consistant à déterminer un changement de dimensions d'un détail intéressant entre la première et la deuxième images, d'après l'image à changements temporels.
6. Procédé selon la revendication 1, dans lequel comprenant la présentation d'un rapport (54) à un utilisateur ainsi qu'au moins l'une des première image (36) deuxième image (38) et image à changements temporels.
7. Procédé selon la revendication 1, dans lequel la première et la deuxième images (36, 38) sont générées par différentes modalités d'imagerie.
8. Procédé selon la revendication 1, dans lequel comprenant l'étape consistant à analyser au moins la première image à l'aide d'un deuxième algorithme de DAO (52).
9. Système d'analyse de données d'images, dans lequel comprenant: un moyen pour produire une image à changements temporels à partir d'une première et d'une deuxième images prises à des instants différents, en segmentant la première et la deuxième images et en faisant coïncider au moins une partie des images segmentées l'une avec l'autre; et un moyen pour analyser l'image à changements temporels à l'aide d'au moins un algorithme de DAO.
10. Système d'analyse d'images, dans lequel comprenant: un moyen pour analyser une première image prise à un premier moment à l'aide d'un algorithme de DAO, et pour analyser une deuxième image prise à un deuxième moment à l'aide d'un algorithme de DAO; un moyen pour comparer les résultats des analyses de la première et de la deuxième images; et un moyen pour analyser de manière interactive la première et la deuxième 1 o image d'après la comparaison.
FR0412533A 2003-11-26 2004-11-25 Procede et systeme d'analyse de changements temporels d'image Expired - Fee Related FR2862788B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/723,861 US7492931B2 (en) 2003-11-26 2003-11-26 Image temporal change detection and display method and apparatus

Publications (2)

Publication Number Publication Date
FR2862788A1 true FR2862788A1 (fr) 2005-05-27
FR2862788B1 FR2862788B1 (fr) 2007-04-06

Family

ID=34552756

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0412533A Expired - Fee Related FR2862788B1 (fr) 2003-11-26 2004-11-25 Procede et systeme d'analyse de changements temporels d'image

Country Status (4)

Country Link
US (1) US7492931B2 (fr)
JP (1) JP4669268B2 (fr)
DE (1) DE102004057026A1 (fr)
FR (1) FR2862788B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3119917A1 (fr) * 2011-05-27 2022-08-19 Lvmh Recherche Procédé d'évaluation de l'efficacité cosmétique de soin ou de maquillage d'une composition cosmétique sur au moins une personne en ayant besoin

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447341B2 (en) * 2003-11-26 2008-11-04 Ge Medical Systems Global Technology Company, Llc Methods and systems for computer aided targeting
US20050254720A1 (en) * 2004-05-17 2005-11-17 Kar-Han Tan Enhanced surgical visualizations with multi-flash imaging
JP2005334298A (ja) * 2004-05-27 2005-12-08 Fuji Photo Film Co Ltd 異常陰影検出方法および装置並びにプログラム
WO2005120353A1 (fr) * 2004-06-14 2005-12-22 Canon Kabushiki Kaisha Dispositif et procede de traitement d'images
JP4949264B2 (ja) * 2004-11-19 2012-06-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療画像データ内の腫瘍境界を自動的に検出及び区分するシステム及び方法
US8849068B2 (en) * 2005-04-08 2014-09-30 Canon Kabushiki Kaisha Image management system, image management method, and program
US20090174554A1 (en) * 2005-05-11 2009-07-09 Eric Bergeron Method and system for screening luggage items, cargo containers or persons
US7991242B2 (en) * 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
DE102005036998B4 (de) * 2005-08-05 2014-11-20 Siemens Aktiengesellschaft Vorrichtung zur automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten
US7769216B2 (en) * 2005-12-29 2010-08-03 Hologic, Inc. Facilitating comparison of medical images
GB2434541B (en) * 2006-01-30 2009-06-17 Mailling Wright Products Ltd Method of preparing a medical restraint
FR2897182A1 (fr) * 2006-02-09 2007-08-10 Gen Electric Procede de traitement d'images de projection en tomosynthese pour une detection de signes radiologiques
DE102006008509A1 (de) * 2006-02-23 2007-08-02 Siemens Ag Verfahren und Vorrichtung zur verbesserten automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
EP2029011B1 (fr) * 2006-06-02 2015-08-19 Koninklijke Philips N.V. Système d'imagerie multimodal et poste de travail doté d'un support pour le test structuré d'hypothèses
US20070280556A1 (en) * 2006-06-02 2007-12-06 General Electric Company System and method for geometry driven registration
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US20080063301A1 (en) * 2006-09-12 2008-03-13 Luca Bogoni Joint Segmentation and Registration
US7747076B2 (en) * 2006-12-21 2010-06-29 Fujifilm Corporation Mass segmentation using mirror image of region of interest
DE602007002048D1 (de) * 2007-02-09 2009-10-01 Agfa Gevaert Visuelle Hervorhebung von Intervalländerungen mittels einer Zeitsubtraktionstechnik
DE602007002693D1 (de) * 2007-02-09 2009-11-19 Agfa Gevaert Visuelle Hervorhebung von Intervalländerungen mittels einer Zeitsubtraktionstechnik
EP1956552B1 (fr) * 2007-02-09 2011-06-08 Agfa-Gevaert Amélioration visuelle de changements d'intervalle utilisant une technique de soustraction temporelle
JP4640845B2 (ja) * 2007-03-05 2011-03-02 富士フイルム株式会社 画像処理装置およびそのプログラム
JP2008259622A (ja) * 2007-04-11 2008-10-30 Fujifilm Corp レポート作成支援装置およびそのプログラム
DE102007028226B4 (de) * 2007-06-20 2015-11-19 Siemens Aktiengesellschaft Auswertungsverfahren für eine zeitliche Sequenz von Röntgenbildern und hiermit korrespondierende Gegenstände
US7630533B2 (en) 2007-09-20 2009-12-08 Hologic, Inc. Breast tomosynthesis with display of highlighted suspected calcifications
JP5264136B2 (ja) * 2007-09-27 2013-08-14 キヤノン株式会社 医用診断支援装置及びその制御方法、ならびにコンピュータプログラム及び記憶媒体
US9076203B2 (en) * 2007-11-26 2015-07-07 The Invention Science Fund I, Llc Image guided surgery with dynamic image reconstruction
DE102008040803A1 (de) * 2008-07-28 2010-02-04 Carl Zeiss Surgical Gmbh Verfahren zur quantitativen Darstellung des Blutflusses
DE102008040804B4 (de) * 2008-07-28 2021-07-29 Carl Zeiss Meditec Ag Verfahren, Operationsmikroskop und Analysesystem zur quantitativen Darstellung des Blutflusses
DE102008040807B4 (de) * 2008-07-28 2017-09-21 Carl Zeiss Meditec Ag Verfahren zur Korrektur von den Blutfluss darstellenden Bilddaten, Medizinisches Gerät und Analysesystem
DE102008040802B4 (de) * 2008-07-28 2014-09-18 Carl Zeiss Meditec Ag Verfahren zur quantitativen Darstellung des Blutflusses sowie Operationsmikroskop und Analysesystem
JP2010029481A (ja) * 2008-07-29 2010-02-12 Univ Of Tsukuba 腫瘍の経過観察レポート自動作成診断支援システム
JP5390805B2 (ja) * 2008-08-07 2014-01-15 キヤノン株式会社 出力装置およびその方法、プログラム、記録媒体
DE102008045275A1 (de) * 2008-09-01 2009-12-10 Siemens Aktiengesellschaft Verfahren zur Registrierung von Bilddaten
US8142368B2 (en) * 2008-10-02 2012-03-27 Artann Laboratories Inc. Method of characterization and differentiation of tissue
US8223916B2 (en) * 2009-03-31 2012-07-17 Hologic, Inc. Computer-aided detection of anatomical abnormalities in x-ray tomosynthesis images
US8786873B2 (en) * 2009-07-20 2014-07-22 General Electric Company Application server for use with a modular imaging system
JP5696305B2 (ja) * 2009-08-05 2015-04-08 株式会社テレシステムズ 放射線撮像装置及び放射線による撮像方法
JP5478328B2 (ja) * 2009-09-30 2014-04-23 富士フイルム株式会社 診断支援システム、診断支援プログラムおよび診断支援方法
US8694075B2 (en) * 2009-12-21 2014-04-08 General Electric Company Intra-operative registration for navigated surgical procedures
US8243882B2 (en) 2010-05-07 2012-08-14 General Electric Company System and method for indicating association between autonomous detector and imaging subsystem
US8744148B2 (en) * 2010-08-24 2014-06-03 Varian Medical Systems International Ag Method and apparatus regarding iterative processes as pertain to medical imaging information
JP6025849B2 (ja) 2011-09-07 2016-11-16 ラピスカン システムズ、インコーポレイテッド マニフェストデータをイメージング/検知処理に統合するx線検査システム
DE102012201169A1 (de) * 2012-01-27 2013-08-01 Siemens Aktiengesellschaft Automatische Registrierung von Bildpaaren von medizinischen Bilddatensätzen
US8914097B2 (en) * 2012-01-30 2014-12-16 The Johns Hopkins University Automated pneumothorax detection
GB201203883D0 (en) * 2012-03-05 2012-04-18 King S College London Method and system to assist 2D-3D image registration
JP6050016B2 (ja) * 2012-03-30 2016-12-21 フクダ電子株式会社 心電図データ出力装置
DE102012205711B4 (de) * 2012-04-05 2023-08-31 Siemens Healthcare Gmbh Verfahren zum Betreiben eines bildgebenden Diagnosegerätes sowie medizinisches bildgebendes System
JP6036009B2 (ja) * 2012-08-28 2016-11-30 大日本印刷株式会社 医用画像処理装置、およびプログラム
WO2014070923A1 (fr) * 2012-10-31 2014-05-08 Volcano Corporation Démarrage basé sur les dépendances dans un système médical à multi-modalité
US9418427B2 (en) * 2013-03-15 2016-08-16 Mim Software Inc. Population-guided deformable registration
US9855698B2 (en) * 2013-08-07 2018-01-02 Massachusetts Institute Of Technology Automatic process control of additive manufacturing device
EP2886059A1 (fr) * 2013-09-25 2015-06-24 CureFab Technologies GmbH Correction d'impulsions 4d avec enregistrement déformable
EP3078330A4 (fr) * 2013-12-05 2017-10-18 Olympus Corporation Dispositif d'observation ultrasonore, procédé de fonctionnement de dispositif d'observation ultrasonore, et programme de fonctionnement de dispositif d'observation ultrasonore
EP3139824B1 (fr) * 2014-05-06 2023-05-03 Koninklijke Philips N.V. Dispositifs, systèmes et procédés d'évaluation de vaisseau sanguin
US9092691B1 (en) 2014-07-18 2015-07-28 Median Technologies System for computing quantitative biomarkers of texture features in tomographic images
KR102294194B1 (ko) * 2014-08-05 2021-08-26 삼성전자주식회사 관심영역의 시각화 장치 및 방법
JP6080268B2 (ja) * 2014-09-29 2017-02-15 富士フイルム株式会社 医用画像保存処理装置および方法並びにプログラム
US20160113546A1 (en) * 2014-10-23 2016-04-28 Khalifa University of Science, Technology & Research Methods and systems for processing mri images to detect cancer
US9984283B2 (en) * 2015-02-14 2018-05-29 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for automated detection of abnormalities in medical images
US10751943B2 (en) * 2015-08-24 2020-08-25 Siemens Healthcare Gmbh Personalized creation from medical imaging
WO2017104700A1 (fr) * 2015-12-17 2017-06-22 国立大学法人東京大学 Dispositif et procédé de traitement d'image
US10302807B2 (en) 2016-02-22 2019-05-28 Rapiscan Systems, Inc. Systems and methods for detecting threats and contraband in cargo
CN110997063B (zh) 2017-05-30 2022-04-29 反射医疗公司 用于计算放射注量的方法的放射治疗系统
JP2020525093A (ja) 2017-06-22 2020-08-27 リフレクション メディカル, インコーポレイテッド 生物学的適合放射線療法のためのシステムおよび方法
US10617888B2 (en) 2017-09-22 2020-04-14 Reflexion Medical, Inc. Systems and methods for shuttle mode radiation delivery
EP3729121B1 (fr) * 2017-12-18 2023-05-24 Koninklijke Philips N.V. Imagerie par résonance magnétique à compensation de mouvement
EP3752063A4 (fr) 2018-02-13 2021-11-17 RefleXion Medical, Inc. Procédés de planification de traitement de station de faisceau et de distribution de rayonnement
WO2022017666A1 (fr) * 2020-07-21 2022-01-27 F.Hoffmann-La Roche Ag Procédé de génération d'une métrique pour représenter quantitativement un effet d'un traitement

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010007593A1 (en) * 1999-12-27 2001-07-12 Akira Oosawa Method and unit for displaying images
US6421454B1 (en) * 1999-05-27 2002-07-16 Litton Systems, Inc. Optical correlator assisted detection of calcifications for breast biopsy

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04200452A (ja) * 1990-11-29 1992-07-21 Shimadzu Corp 画像表示装置
US5359513A (en) * 1992-11-25 1994-10-25 Arch Development Corporation Method and system for detection of interval change in temporally sequential chest images
EP0616290B1 (fr) * 1993-03-01 2003-02-05 Kabushiki Kaisha Toshiba Système de traitement d'informations médicales pour assistance diagnostique
US5361763A (en) * 1993-03-02 1994-11-08 Wisconsin Alumni Research Foundation Method for segmenting features in an image
US6075879A (en) * 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
JPH07299053A (ja) * 1994-04-29 1995-11-14 Arch Dev Corp コンピュータ診断支援方法
JP4702971B2 (ja) * 1999-11-10 2011-06-15 株式会社東芝 コンピュータ支援診断システム
US6836558B2 (en) * 2000-03-28 2004-12-28 Arch Development Corporation Method, system and computer readable medium for identifying chest radiographs using image mapping and template matching techniques
US6909792B1 (en) * 2000-06-23 2005-06-21 Litton Systems, Inc. Historical comparison of breast tissue by image processing
JP2002219123A (ja) * 2001-01-26 2002-08-06 Mitsubishi Space Software Kk 投影変換装置及び方法並びに経時差分画像作成装置及び方法
US7054473B1 (en) * 2001-11-21 2006-05-30 R2 Technology, Inc. Method and apparatus for an improved computer aided diagnosis system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421454B1 (en) * 1999-05-27 2002-07-16 Litton Systems, Inc. Optical correlator assisted detection of calcifications for breast biopsy
US20010007593A1 (en) * 1999-12-27 2001-07-12 Akira Oosawa Method and unit for displaying images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PENNEC X ET AL: "Non-rigid MR/US registration for tracking brain deformations", MEDICAL IMAGING AND AUGMENTED REALITY, 2001. PROCEEDINGS. INTERNATIONAL WORKSHOP ON 10-12 JUNE 2001, PISCATAWAY, NJ, USA,IEEE, 10 June 2001 (2001-06-10), pages 79 - 86, XP010547509, ISBN: 0-7695-1113-9 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3119917A1 (fr) * 2011-05-27 2022-08-19 Lvmh Recherche Procédé d'évaluation de l'efficacité cosmétique de soin ou de maquillage d'une composition cosmétique sur au moins une personne en ayant besoin

Also Published As

Publication number Publication date
DE102004057026A1 (de) 2005-06-23
JP2005177470A (ja) 2005-07-07
US20050113961A1 (en) 2005-05-26
FR2862788B1 (fr) 2007-04-06
JP4669268B2 (ja) 2011-04-13
US7492931B2 (en) 2009-02-17

Similar Documents

Publication Publication Date Title
FR2862788A1 (fr) Procede et systeme d'analyse de changements temporels d'image
Fernandes et al. Predicting heart rate variations of deepfake videos using neural ode
Playout et al. A novel weakly supervised multitask architecture for retinal lesions segmentation on fundus images
Dias et al. Retinal image quality assessment using generic image quality indicators
Shaziya et al. Automatic lung segmentation on thoracic CT scans using U-net convolutional network
EP0766205B1 (fr) Procédé et dispositif de traitement d'image, pour la détection automatique de régions d'un type prédéterminé de cancer dans une image d'intensité
EP2401719B1 (fr) Méthodes de segmentation d'images et de détection de structures particulières
FR2884013A1 (fr) Systeme et procede d'amelioration d'images volumetriques
EP2929508A1 (fr) Appareil de génération d'images et procédé de génération d'images
FR2842931A1 (fr) Amelioration d'un procede pour afficher des variations temporelles dans des images superposees dans l'espace.
Janik et al. Interpretability of a deep learning model in the application of cardiac MRI segmentation with an ACDC challenge dataset
Udrea et al. Generative adversarial neural networks for pigmented and non-pigmented skin lesions detection in clinical images
EP3479349B1 (fr) Détection de changement dans des images médicales
FR2856169A1 (fr) Analyse de variations temporelles utilisant des images de decomposition a deux ou multiples niveaux d'energie
Hu et al. Automated segmentation of geographic atrophy using deep convolutional neural networks
Jagan Mohan et al. Deep learning for diabetic retinopathy detection: Challenges and opportunities
Rosado et al. 12 From Dermoscopy to Mobile Teledermatology
KR101923962B1 (ko) 의료 영상의 열람을 지원하는 방법 및 이를 이용한 장치
Khalid et al. FGR-Net: interpretable fundus image gradeability classification based on deep reconstruction learning
Atlas et al. Deep learning enabled hemorrhage detection in retina with DPFE and splat segmentation in fundus images
Yakut et al. A hybrid fusion method combining spatial image filtering with parallel channel network for retinal vessel segmentation
Patibandla et al. CT Image Precise Denoising Model with Edge Based Segmentation with Labeled Pixel Extraction Using CNN Based Feature Extraction for Oral Cancer Detection
Playout Système d'Apprentissage Multitâche Dédié à la Segmentation des Lésions Sombres et Claires de la Rétine dans les Images de Fond d'Oeil
EP4249850A1 (fr) Organe de commande pour un système d'imagerie, système et procédé correspondant
US11288800B1 (en) Attribution methodologies for neural networks designed for computer-aided diagnostic processes

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20140731