FR2862787A1 - Procede interactif et interface utilisateur pour detecter un contour d'un objet - Google Patents
Procede interactif et interface utilisateur pour detecter un contour d'un objet Download PDFInfo
- Publication number
- FR2862787A1 FR2862787A1 FR0412312A FR0412312A FR2862787A1 FR 2862787 A1 FR2862787 A1 FR 2862787A1 FR 0412312 A FR0412312 A FR 0412312A FR 0412312 A FR0412312 A FR 0412312A FR 2862787 A1 FR2862787 A1 FR 2862787A1
- Authority
- FR
- France
- Prior art keywords
- contour
- sub
- image
- point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1075—Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
La présente invention concerne un procédé et un appareil pour détecter un contour d'un objet dans une image (150). Une interface utilisateur est utilisée pour sélectionner des premier et second points (240 et 244) à l'intérieur de l'objet (152). Un processeur détecte des premier et second sous-contours (242 et 246) basés sur les premier et second points (240 et 244), respectivement ; et les premier et second sous-contours (242 et 246) sont basés sur des bords détectés. Les bords détectés sont représentatifs de non uniformités dans l'image (150). Le processeur définit des sous-contours autour de chacun des points, et les sous-contours sont combinés en un contour.
Description
2862787 2
Ainsi, un système et un procédé sont souhaités pour obtenir un contour d'un objet dans une image qui visent les problèmes notés ci-dessus et d'autres expérimentés auparavant.
Dans un mode de réalisation, un appareil pour détecter un contour d'un objet dans une image comprend une interface utilisateur pour sélectionner des premier et second points dans un objet qui est dans une image. Un processeur détecte des premier et second sous-contours en se basant sur les premier et second points, respectivement; et les premier et second sous-contours sont basés sur des bords détectés. Le processeur combine les premier et second sous-contours en un contour.
Dans un mode de réalisation, un procédé interactif d'utilisateur pour détecter le contour d'un objet dans une image comprend de sélectionner un premier point à l'intérieur d'un objet en utilisant une interface utilisateur. Un premier sous-contour est identifié en se basant sur le premier point. Un second point est sélectionné à l'intérieur de l'objet en utilisant l'interface utilisateur, et un second sous-contour est identifié en se basant sur le second point. Un contour est défini en se basant sur les premier et second sous-contours.
Dans un mode de réalisation, des paramètres d'un objet dans une image peuvent être calculés et/ou mesurés. Une image comprenant un objet ayant des données de pixels ou de Voxels est acquise. Des points sont sélectionnés dans l'objet en utilisant une interface utilisateur. Quand les points sont sélectionnés, des bords sont recherchés dans l'image autour des points. Les bords sont représentatifs de non uniformités dans les données de pixels ou de Voxels et définissent des sous-contours autour de chacun des points. Les sous-contours sont combinés en un contour quand chacun des sous-contours est défini. Des paramètres comme la surface, le volume, la circonférence, l'axe long, l'axe court, la distance la plus longue peuvent être calculés à l'intérieur du contour.
La figure 1 illustre un diagramme schématique d'un système à ultrasons formé selon un mode de réalisation de la présente invention.
La figure 2 illustre un système à ultrasons formé selon un mode de réalisation de la présente invention.
2862787 3 La figure 3 illustre des points sélectionnés et des plages extérieures associées utilisées pour détecter un contour d'un objet dans une image selon un mode de réalisation de la présente invention.
La figure 4 illustre les dispositifs d'interface et d'affichage de la figure 2 selon un mode de réalisation de la présente invention.
La figure 5 illustre un procédé pour détecter le contour d'un objet dans l'image en traçant une ligne à l'intérieur de l'objet selon un mode de réalisation de la présente invention.
La figure 6 illustre un organigramme d'un procédé pour utiliser de manière interactive l'interface utilisateur et/ou des dispositifs d'interface pour définir le contour d'un objet selon un mode de réalisation de la présente invention.
La figure 7 illustre des premier et second points ayant des sous-contours correspondants définis à l'intérieur de l'objet selon un mode de réalisation de la présente invention.
La figure 8 illustre des premier et second points ayant des sous-contours correspondants et un contour combiné selon un mode de réalisation de la présente invention.
La figure 9 illustre des premier et second points ayant des sous- contours ne se coupant pas et un contour combiné selon un mode de réalisation de la présente invention.
La figure 10 illustre des sous-contours formant un cercle ou une boucle fermé autour d'une partie intérieure et un contour combiné selon un mode de réalisation de la présente invention.
La figure 11 illustre un procédé pour corriger un contour selon un mode de réalisation de la présente invention.
La figure 12 illustre une série d'images par ultrasons affichant un procédé de définition d'un contour d'un organe selon un mode de réalisation de la présente invention.
La figure 13 illustre deux images par ultrasons affichant une correction d'un contour selon un mode de réalisation de la présente invention.
La figure 1 illustre un diagramme schématique d'un système à ultrasons 100 formé selon un mode de réalisation de la présente invention. Le 2862787 4 système à ultrasons 100 comprend un émetteur 102 qui commande des éléments 104 dans un transducteur 106 pour émettre des signaux ultrasons en impulsion dans un corps. Une grande variété de géométries peut être utilisée. Les signaux ultrasons sont rétrodiffusés par des structures dans le corps, comme les cellules sanguines ou le tissu musculaire, pour produire des échos qui retournent aux éléments 104. Les échos sont reçus par un récepteur 108. les échos reçus sont passés à travers un formeur de faisceau 110, qui réalise la formation d'un faisceau et sort un signal RF. Le signal RF passe ensuite à travers un processeur RF 112. En variante, le processeur RF peut comprendre un démodulateur complexe (non montré) qui démodule le signal RF pour former des paires de données IQ représentatives des signaux d'écho. Les données de signaux RF et IQ peuvent ensuite être routées directement vers la mémoire tampon RF/IQ 114 pour un stockage temporaire. Une entrée d'utilisateur 120 peut être utilisée pour entrer des données de patient, des paramètres de scannage, un changement de mode de scannage, et autres.
Le système à ultrasons 100 comprend aussi un processeur de signal 116 pour traiter l'information d'ultrasons acquise (c'est à dire, les données de signal RF ou les paires de données IQ) et préparer des images d'information d'ultrasons pour afficher sur le système d'affichage 118. Le processeur de signal 116 est adapté pour réaliser une ou plusieurs opérations de traitement selon une pluralité de modalités d'ultrasons sélectionnables sur l'information d'ultrasons acquise. L'information d'ultrasons acquise peut être traitée en temps réel pendant une session de scannage quand les signaux d'écho sont reçus. De plus ou en variante, l'information d'ultrasons peut être stockée temporairement dans la mémoire tampon RF/IQ 114 pendant une session de scannage et traitée en moins que le temps réel en fonctionnement en ligne ou non.
Le système à ultrasons 100 peut de manière continue acquérir une information d'ultrasons à une vitesse qui dépasse 50 images par seconde approximativement la vitesse de perception de lbeil humain. L'information d'ultrasons acquise est affichée sur le système d'affichage 118 à une vitesse d'image plus lente. Une mémoire tampon d'image 122 est incluse pour stocker des images traitées d'information d'ultrasons acquise qui ne sont pas planifiées pour être affichés immédiatement. De préférence, la mémoire tampon d'image 122 est de capacité suffisante pour stocker au moins plusieurs secondes de 2862787 5 d'images d'information d'ultrasons. Les images d'information d'ultrasons sont stockées de manière à faciliter leur récupération selon leur ordre ou le moment d'acquisition. La mémoire tampon d'image 122 peut comprendre tout moyen de stockage de données connu.
La figure 2 illustre un système à ultrasons formé selon un mode de réalisation de la présente invention. Le système comprend un transducteur 10 relié à un émetteur 12 et un récepteur 14. Le transducteur 10 transmet des impulsions ultrasoniques et reçoit des échos de structures à l'intérieur d'une image ou d'un volume scanné par ultrason 16. La mémoire 20 stocke des données d'ultrason provenant du récepteur 14 dérivées de l'image ou volume scanné par ultrason 16. L'image ou le volume 16 peut être obtenu par diverses techniques (par exemple le scannage conventionnel en mode B, le scannage 3D, l'imagerie en temps réel 3D ou 4D, le scannage volumique, le scannage 2D avec un réseau d'éléments ayant des capteurs de positionnement, le scannage main libre utilisant une technique de corrélation de Voxels, les transducteurs à réseaux de matrice ou 2D et autres).
Le transducteur 10 est déplacé, par exemple le long d'un trajet linéaire ou courbe, en scannant une région d'intérêt (ROI). En chaque position linéaire ou courbe, le transducteur 10 obtient des données de volume 3D ou des plans de scannage 2D 18. Les données de volume ou les plans de scannage 18 sont stockés dans la mémoire 20, et ensuite passés dans un convertisseur de scannage 2D/3D 42. Dans certains modes de réalisation, le transducteur 10 peut obtenir des lignes au lieu des plus de scannage 18, et la mémoire 20 peut stocker des lignes obtenues par le transducteur 10 plutôt que les plans de scannage 18. Le convertisseur de scannage 2D/3D 42 crée une tranche de données à partir des données de volume ou d'un ou plusieurs plans de scannage 2D 18. La tranche de données est stockée dans une mémoire de tranche 44 et on peut y accéder par un processeur de détection de contour 46. Le processeur de détection de contour 46 réalise une détection de contour sur la tranche de données en fonction de l'entrée d'un plusieurs dispositifs d'interface 52. La sortie du processeur de détection de contour 46 est passée dans le processeur vidéo 50 et l'affichage 67.
La position de chaque échantillon de signal d'écho (pixel pour une image scannée ou Voxel pour un volume scanné) est définie en termes de précision géométrique (c'est à dire la distance d'un pixelNoxel au prochain) et de réponse ultrasonique (et des valeurs dérivées de la réponse ultrasonique). Des réponses ultrasoniques convenables comprennent des valeurs d'échelle de gris, des valeurs de flux de couleur, et des informations d'angiographie ou de Doppler.
La figure 3 illustre une image 150 comprenant des données ultrasoniques de diagnostic. Il faut comprendre que bien que le procédé et l'appareil ci-dessous soient présenté par rapport aux ultrasons, d'autres données de diagnostic peuvent être utilisées, comme, mais sans se limiter à, les rayons X, la résonance magnétique et la tomodensitométrie. L'image 150 comprend un objet 152. A titre d'exemple seulement, l'objet 152 peut être un organe, comme un foie ou un rein, une tumeur, un kyste, un vaisseau sanguin, et autres. L'image 150 peut comprendre tout type de données de diagnostic, et peut être basée sur une série de données 2D, 3D, ou 4D, par exemple.
Pour créer un contour, ou une silhouette de l'objet 152, l'utilisateur peut sélectionner un premier point 154 et un second point 156 à l'intérieur de l'objet 152 avec le dispositif d'interface 52. Le processeur de détection de contour 46 utilise un ou plusieurs algorithmes de recherche pouvant travailler en temps réel qui sont connus dans l'art. Le processeur de détection de contour 46 peut utiliser l'algorithme de recherche pour définir une plage extérieure 158 autour de chacun des premier et second points 154 et 156. Les plages extérieures 158 définissent des sous-ensembles d'image 162 et 164 autour des premier et second points 154 et 156, respectivement, qui sont des parties de l'image 150 dans lesquelles processeur de détection de contour 46 recherchera un bord. La plage extérieure 158 peut être une distance prédéfinie, ou une limite pré-réglée, depuis les premier et second points 154 et 156 associés. De plus, la plage extérieure 158 peut définir un volume autour des premier et second points 154 et 156, si l'image comprend des données en 3D ou en 4D. Sur la figure 3, les plages extérieures 158 des premier et second points 154 et 156 se recouvrent, créant une surface commune 160 des données d'image.
En variante, le processeur de détection de contour 46 peut ne pas définir de plage extérieure 158, et chercher plutôt l'image 150 la plus proche de chacun des premier et second points 154 et 156 jusqu'à ce qu'un bord soit détecté. Une fois qu'un bord est détecté, le processeur de détection de contour 2862787 7 46 peut limiter sa recherche pour rester à proximité du bord détecté, jusqu'à ce qu'un bord complet entoure les premier et second points 154 et 156.
La figure 4 illustre le dispositif d'interface 52 et l'affichage 67 de la figure 2. Le dispositif d'interface 52 peut comprendre un ou plusieurs éléments parmi un clavier 170, une souris 172, une boule de commande 174, et un bloc à effleurement 176. L'affichage 67 peut aussi comprendre un écran tactile 178. On se réfère collectivement au clavier. 170, à la souris 172, à la boule de commande 174, au bloc à effleurement 176 et à l'écran tactile 178 comme les dispositifs d'interface 180. L'utilisateur peut utiliser un ou plusieurs des dispositifs d'interfaces 180 pour sélectionner de façon interactive des points, des surfaces et/ou des lignes sur l'affichage 67.
La figure 5 illustre un procédé de détection d'un contour de l'objet 152 dans l'image 150 en traçant une ligne à l'intérieur de l'objet 152. Un point 190 a été défini en utilisant l'un des dispositifs d'interface 180. L'utilisateur fait glisser ensuite le pointeur du dispositif d'interface 180 sur un trajet approximatif 194 autour du bord, et à l'intérieur, de l'objet 152. Le processeur de détection de contour 46 peut définir une plage extérieure 192 par rapport au point 190, et ensuit définir les plages extérieures suivantes autour des points automatiquement définis à des intervalles prédéfinis le long du trajet approximatif 194, comme les points 196-200. En variante, le processeur de détection de contour 46 peut définir une surface de recherche ayant une limite intérieure 202 et une limite extérieure 204 entourant le trajet approximatif 194, qui sont en parties illustrées pour plus de clarté sur la figure 5. La zone de recherche 206 peut être définie comme une seule zone de recherche ayant une distance prédéfinie sur chacun des côtés intérieur et extérieur par rapport au trajet approximatif 194.
La figure 6 illustre un organigramme d'un procédé pour utiliser de manière interactive le dispositif d'interface 52 et/ou les dispositifs d'interface 180 pour définir le contour d'un objet, comme l'objet 152. Le procédé sera présenté par rapport aux figures 1 à 5 et 7 à 9. Lors de l'étape 210, le système à ultrasons 100 acquiert une image 150 comprenant un objet 152. Comme présenté auparavant, l'image 150 peut comprendre des données 2D, 3D ou 4D. Lors de l'étape 212, l'utilisateur sélectionne le premier point dans l'objet 152, comme un premier point 154 ou le point 190.
2862787 8 Lors de l'étape 214, le processeur de détection de contour 46 définit la plage extérieure 158 (par rapport au premier point 154) et recherche les bords dans le sous-ensemble d'image 162. Par exemple, le processeur de détection de contour 46 peut rechercher dans le sousensemble d'image 162 (figure 3) en commençant avec les données d'image les plus proches du premier point 154 de telle manière que le bord le plus proche est détecté. Un bord est détecté quand un changement existe dans le tissu. Un changement peut être une différence des densités de tissu, comme entre un tissu tumoral et le tissu d'un organe normal, et des types de tissu différents, comme entre le muscle et le sang, ou le muscle et l'os. De nombreuses variations existent dans le tissu, et donc le processeur de détection de contour 46 peut détecter ou non le bord de l'objet 152.
Retournons à la figure 5, l'utilisateur peut sélectionner le point 190 et faire glisser le pointeur du dispositif d'interface 180 le long du trajet approximatif 194. Le processeur de détection de contour 46 peut identifier N points à des intervalles de temps définis, comme un nombre prédéfini de fois par seconde, ou échantillonner N points en fonction de la vitesse de l'algorithme de détection de contour. Le processeur de détection de contour 46 peut rechercher dans la surface de recherche 206 un bord autour d'un point N une fois que tous les points ont été identifiés, ou pendant le temps entre l'identification de chacun des N points.
Lors de l'étape 216, le processeur de détection de contour 46 définit un sous-contour sur la base des bords détectés, et lors de l'étape 218, l'affichage 118 affiche le sous-contour sur l'image 150. Retournons à la figure 7, la figure 7 illustre un premier point 240 ayant un premier sous-contour 242. Le premier sous-contour 242 suit les courbes des bords détectés, et est donc de forme et de taille irrégulières. Si une image 3D a été traitée, le sous-contour défini sur l'image 3D comprendra un volume de forme irrégulière.
Lors de l'étape 220, l'utilisateur sélectionne un second point 244 (figure 7) à l'intérieur de l'objet 152 avec les dispositifs d'interface 180. Lors de l'étape 222, le processeur de détection de contour 46 définit une plage extérieure par rapport au second point 244 et recherche des bords à l'intérieur de la plage extérieure. Il faut donc comprendre que la plage extérieure définie pour le second point 244 et les N points suivants peut comprendre des données 2862787 9 à l'intérieur du premier sous-contour 242 ou du sous-contour d'un ou plusieurs points très proches.
Lors de l'étape 224, le processeur de détection de contour 46 définit un second sous-contour 246 en se basant sur les bords détectés à l'intérieur de la plage extérieure définie autour du second point 244. Les premier et second sous-contours 242 et 246 peut se couper ou se recouvrir.
Lors de l'étape 226, le processeur de détection de contour 46 combine les premier et second sous-contours 242 et 246 en un contour. Si un contour a déjà été identifié autour de deux points ou plus, le contour est remis à jour.
Comme présenté ci-dessus, si des images 3D sont acquises, les premier et second sous-contours peuvent chacun comprendre un volume de forme irrégulière. Les premier et second sous-contours volumiques sont combinés en un seul volume de forme irrégulière. Le contour représente un bord extérieur entourant le volume de forme irrégulière unique.
La figure 8 illustre les premier et second points 240 et 244, et les premier et second sous-contours 242 et 246 de la figure 7 avant l'étape de combinaison 226. Sont aussi illustrés les premier et second points 240 et 244 avec un contour 264 comme défini dans l'étape 226. Le contour 264 suit l'union des bords extérieurs des premier et second sous-contours 242 et 246 et forme ainsi le contour unique 264 autour des premier et second points 240 et 244.
La figure 9 illustre des premier et second points 250 et 252 ayant des premier et second sous-contours 254 et 256, respectivement, avant l'étape de combinaison 226. Les premier et second sous-contours 254 et 256 ne se coupent pas et représentent deux régions différentes d'une image en 2D. Le processeur de détection de contour 46 joint les premier et second souscontours 254 et 256 en définissant des tangentes ou des lignes entres les premier et second sous-contours 254 et 256. Les première et seconde tangentes 266 et 268 peuvent être définies sur un point haut et un point bas du premier sous-contour 254, respectivement, et s'étendre jusqu'à un point haut et un point bas sur le second sous-contour 256. Ainsi, un seul contour 276 est défini dans l'étape de combinaison 226.
Lors de l'étape 228, l'utilisateur peut choisir de sélectionner un autre point. Si c'est le cas, l'organigramme retourne à l'étape 220. Si l'utilisateur ne souhaite pas sélectionner un autre point, l'organigramme passe à l'étape 230 et le procédé est achevé.
Une fois que le contour a été défini, l'utilisateur peut utiliser l'ensemble de mesure du système de diagnostic pour calculer la surface, le volume, la circonférence, l'axe d'objet (comme un axe long et/ou un axe court), et la distance plus longue. Par exemple, si l'image acquise lors de l'étape 210 est une image 2D comprenant des données de pixels, la surface à l'intérieur du contour peut être calculée. Si l'image acquise lors de l'étape 212 est une image 3D comprenant des données de Voxels, le volume à l'intérieur du contour peut être calculé.
La figure 10 illustre des points 290-304, qui ont été sélectionnés par l'utilisateur avec les dispositifs d'interface 180. Le processeur de détection de contour 46 a identifié des sous-contours 310-324, correspondant aux points 290-304, respectivement. Les sous-contours 310324 forment un cercle ou une boucle fermé autour d'une partie intérieure 332. Dans cet exemple, le processeur de détection de contour 46 calcule un seul contour 330 (étape 226 sur la figure 6) qui comprend la partie intérieure 332.
La figure 11 illustre des premier, second, et troisième points 340, 342, et 344 ayant des sous-contours 346, 348, et 350, respectivement. Les souscontours 348 et 350 s'étendent au-delà de l'objet 152. Le processeur de détection de contour 46 a joint les sous-contours 346-350 pour former le contour 352.
L'utilisateur peut corriger le contour 352 en sélectionnant la surface souhaitée à l'intérieur du contour 352 avec l'un des dispositifs d'interface 180.
Par exemple, l'utilisateur peut sélectionner une option, comme un bouton sur la souris 172, double-cliquer dans la zone, toucher l'écran tactile à l'endroit souhaité, ou autres.
Le processeur de détection de contour 46 détermine quels sous-contours comprennent le point sélectionné. Par exemple, l'utilisateur peut utiliser le dispositif d'interface 52 pour sélectionner le point 354. Le point 354 est situé à l'intérieur du contour 348 correspondant au second point 342. Le processeur de détection de contour 46 efface le second point 342 et recalcule le contour 352, comme par le procédé de la ligne ou de la tangente présenté en référence à la figure 9. Si un point sélectionné est inclu dans plus qu'un sous- 2862787 11 contour, comme un point 358 qui est inclus dans les sous- contours 348 et 350, le processeur de détection de contour 46 efface les second et troisième points 342 et 344 et recalcule le contour 352. La sélection et l'effacement des points peuvent être faits soit pendant le procédé de la figure 6, comme illustré sur la figure 11, ou après que tout le contour a été calculé, comme illustré sur la figure 10.
La figure 12 illustre une série d'images ultrasoniques affichant le procédé de définition du contour d'un organe. L'image 22 illustre un curseur 270 déplacé vers un emplacement à l'intérieur d'un organe 272 en utilisant un des dispositifs d'interface 180. A titre d'exemple seulement, l'utilisateur peut utiliser la souris 172 et sélectionner un point de départ à l'emplacement du curseur 270.
Dans l'image 24, l'utilisateur a déplacé le curseur 270 en un second emplacement à l'intérieur de l'organe 272. L'utilisateur peut aussi sélectionner un second point, comme présenté auparavant, ou faire glisser le curseur 270 près du bord extérieur de l'organe 272. Un contour 274 est affiché sur l'affichage 118. Le procédé est répété pour des images 26 à 36, et le contour 274 est remis à jour quand le curseur 270 est glissé vers de nouveaux emplacements ou des points supplémentaires sont choisis.
La figure 13 illustre deux images ultrasoniques affichant une correction d'un contour. L'image 38 illustre un contour 280 défini autour d'un organe 282. L'image 40 illustre un contour remis à jour 284 après qu'une opération d'effacement a été réalisée par le curseur 286 comme présenté auparavant en référence à la figure 11.
2862787 12 Liste des repère Figure 1 102 Emetteur 108 Récepteur Formeur de faisceau 112 Processeur RF 118 Système d'affichage 116 Processeur de signal Entrée utilisateur Figure 2 12 Emetteur Transducer Transducteur Scanned... Image ou volume scanné 14 Récepteur Mémoire de données utilisateur 42 Convertisseur de scannage 2D/3D 44 Mémoire de tranche 46 Processeur de détection de contour processeur vidéo 52 Dispositif d'interface 67 Affichage Figure 6 210 Acquérir l'image 212 Sélectionner le premier point 214 Définir une plage extérieure et rechercher les bords 216 Définir un sous-contour en se basant sur les bords 218 Afficher le sous-contour 220 Sélectionner le prochain point 222 Définir une plage extérieure et rechercher des bords 224 Définir un sous-contour en se basant sur les bords 226 Combiner les sous-contours en un contour Ou Remettre à jour le contour 2862787 13 228 Sélectionner un autre point ? 230 Terminé Figure 8 et 9 Prior.. Avant l'étape 226 With... Avec le contour de l'étape 226 Transducteur 12 Emetteur 14 Récepteur 16 Volume 18 Plans de scannage Mémoire 22 Image 24 Image 26 Image 27 Image 28 Image 29 Image Image 31 Image 32 Image 33 Image 34 Image Image 36 Image 38 Image Image 42 Convertisseur de scannage 44 Mémoire de tranche 46 Processeur de détection de contour processeur vidéo 52 Dispositif d'interface 67 Affichage Système à ultrasons 102 Emetteur 104 Eléments 106 _ transducteur 108 Récepteur Formeur de faisceau 112 Processeur RF 114 Mémoire tampon RF/IQ 116 Processeur de signal 118 Système d'affichage Entrée utilisateur 122 Mémoire tampon d'image Image 152 Objet 154 Premier point 156 Second point 158 Marge extérieure Surface commune 162 Sous-ensemble d'image _ Sous-ensemble d'image _ Clavier 172 Souris 174 Boule de commande 176 Bloc à effleurement 178 Ecran tactile Dispositif d'interface Point 192 Plage extérieure 194 Chemin d'approximation 196 Point 197 Point 198 Point 199 Point 2862787 15 Point 202 Limite intérieure 204 Limite extérieure 206 Surface de recherche _ Etape 212 Etape 214 Etape 216 Etape 218 Etape 220 Etape 222 Etape 224 Etape 226 Etape 228 Etape 230 Etape 240 Premier point 242 Premier sous-contour 244 Second point 246 Second sous-contour 250 Premier point 252 Second point 254 Premier sous-contour 256 Second sous-contour 264 Contour 266 Première tangente 268 Seconde tangente 270 Curseur _ Organe 274 Contour 276 Contour unique 280 Contour 282 Organe 284 Contour remis à jour 2862787 16 286 Curseur 290 Point 291 Point 292 Point 293 Point 294 Point 295 Point 296 Point 297 Point 298 Point 299 Point 300 Point 301 Point 302 Point 303 Point 304 Point 310 Sous-contour 311 Sous-contour 312 Sous-contour 313 Sous-contour 314 Sous-contour 315 Sous-contour 316 Sous-contour 317 Sous-contour 318 Sous-contour 319 Sous-contour 320 Sous-contour 321 Sous-contour 322 Sous-contour 323 Sous-contour 324 Sous-contour 330 Contour unique 332 Partie intérieure 17 2862787 340 Premier point 342 Second point 344 Troisième point 346 Sous-contour 348 Sous-contour 349 Sous-contour 350 Sous-contour 352 Contour 354 Point 358 Point
Claims (10)
1. Appareil pour détecter un contour d'un objet dans une image (150), comprenant: une interface utilisateur pour sélectionner des premier et second points (240 et 244) à l'intérieur d'un objet (152), ledit objet étant dans une image (150) ; et un processeur pour détecter des premier et second sous- contours (242 et 246) en se basant sur desdits premier et second points (240 et 244), respectivement, lesdits premier et second sous-contours (242 et 246) étant basés sur des bords détectés, ledit processeur combinant lesdits premier et second sous-contours (242 et 246) en un contour (264).
2. Appareil selon la revendication 1, ladite interface utilisateur comprenant en outre au moins une souris (172) ayant au moins un bouton sélectionnable, un clavier (170), une boule de commande (174), un écran tactile (178), et un bloc à effleurement (176).
3. Appareil selon la revendication 1, ledit processeur comprenant en outre une limite pré-réglée, ladite limite pré-réglée définissant des sous-ensemble d'image par rapport auxdits premier et second points (240 et 244), ledit processeur recherchant dans lesdits sous-ensembles d'images lesdits bords détectés.
4. Appareil selon la revendication 1, comprenant en outre un transducteur ultrasonique (106) pour transmettre et recevoir l'information ultrasonique, ledit processeur créant ledit contour en temps réel.
5. Appareil selon la revendication 1, ladite image (150) étant basée sur des données de diagnostics parmi des données ultrasoniques, des données de rayons X, des données tomodensitométrie et de résonance magnétique.
6. Appareil selon la revendication 1, comprenant en outre un affichage (67) pour afficher au moins l'un dudit premier sous-contour (242), dudit second sous-contour (246), et dudit contour (264).
7. Appareil selon la revendication 1, ladite interface utilisateur comprenant en outre une entrée pour désélectionner un point à l'intérieur dudit contour (264), ledit processeur défroissant un contour remis à jour excluant ledit point.
2862787 19
8. Appareil selon la revendication 1, comprenant en outre un affichage (67) pour afficher ledit premier sous-contour (242) après que ledit processeur a détecté ledit premier sous-contour (242), ledit affichage effaçant ledit sous-contour (242) et affichant ledit contour (264) après que ledit processeur a combiné lesdits premier et second sous-contours (242 et 246).
9. Procédé interactif pour détecter un contour d'un objet (152) dans une image, comprenant: sélectionner un premier point (240) à l'intérieur d'un objet (152) en utilisant une interface utilisateur, ledit objet (152) étant affiché dans une image (150) ; identifier un premier sous-contour (242) basé sur ledit premier point (240) ; sélectionner un second point (244) à l'intérieur dudit objet (152) en utilisant ladite interface utilisateur; identifier un second sous-contour (244) basé sur ledit second point (244) ; et définir un contour (264) basé sur lesdits premier et second sous-contours (242 et 246).
10. Procédé selon la revendication 9, comprenant en outre une image de diagnostic (150) comprenant ledit objet (152), ladite image de diagnostic (150) étant des données parmi des données ultrasoniques, des données de rayons X, des données tomodensitométrie et de résonance magnétique et comprenant en outre des données de tissu, lesdits premier et second souscontours (242 et 246) étant basés sur des non uniformités dans lesdites données de tissu.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/722,171 US7376252B2 (en) | 2003-11-25 | 2003-11-25 | User interactive method and user interface for detecting a contour of an object |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2862787A1 true FR2862787A1 (fr) | 2005-05-27 |
FR2862787B1 FR2862787B1 (fr) | 2006-10-13 |
Family
ID=34552743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0412312A Expired - Fee Related FR2862787B1 (fr) | 2003-11-25 | 2004-11-19 | Procede interactif et interface utilisateur pour detecter un contour d'un objet |
Country Status (4)
Country | Link |
---|---|
US (1) | US7376252B2 (fr) |
JP (1) | JP4847003B2 (fr) |
DE (1) | DE102004056784A1 (fr) |
FR (1) | FR2862787B1 (fr) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1437685A3 (fr) * | 2003-01-13 | 2004-07-21 | Philips Intellectual Property & Standards GmbH | Procédé pour la segmentation de structures tridimensionelles |
US7706586B2 (en) * | 2005-06-22 | 2010-04-27 | General Electric Company | Real-time structure suppression in ultrasonically scanned volumes |
EP1892671A3 (fr) * | 2006-08-23 | 2009-07-29 | Medison Co., Ltd. | Système et procédé de détermination du volume d'un objet par traitement d'image |
EP1914681B1 (fr) * | 2006-10-19 | 2010-09-15 | BrainLAB AG | Interpolation basée sur un niveau de gris léger pour un jeu de données isotrope |
US20090123047A1 (en) * | 2007-03-21 | 2009-05-14 | Yfantis Spyros A | Method and system for characterizing prostate images |
JP5355074B2 (ja) * | 2008-12-26 | 2013-11-27 | キヤノン株式会社 | 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム |
JP5926937B2 (ja) * | 2011-11-30 | 2016-05-25 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
US9275467B2 (en) | 2012-03-29 | 2016-03-01 | Analog Devices, Inc. | Incremental contour-extraction scheme for binary image segments |
JP6150532B2 (ja) * | 2013-01-22 | 2017-06-21 | オリンパス株式会社 | 計測装置およびプログラム |
KR102156297B1 (ko) * | 2014-04-17 | 2020-09-15 | 삼성메디슨 주식회사 | 의료 영상 장치 및 그 동작방법 |
EP3170144B1 (fr) * | 2014-07-15 | 2020-11-18 | Koninklijke Philips N.V. | Dispositif, système et procédé permettant de segmenter une image d'un sujet |
CN104461009B (zh) * | 2014-12-22 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 物体的测量方法和智能设备 |
US10395382B2 (en) * | 2016-12-30 | 2019-08-27 | Biosense Webster (Israel) Ltd. | Visualization of distances on an electroanatomical map |
US10762636B2 (en) | 2017-06-29 | 2020-09-01 | HealthMyne, Inc. | Systems and methods for volumetric segmentation of structures in planar medical images |
US11043296B2 (en) | 2018-11-05 | 2021-06-22 | HealthMyne, Inc. | Systems and methods for semi-automatic tumor segmentation |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03269691A (ja) * | 1990-03-09 | 1991-12-02 | Hewlett Packard Co <Hp> | 光学式文字認識システム |
US5148494A (en) * | 1989-04-28 | 1992-09-15 | Societe Nationale Elf Aquitaine | Process for automatic plotting and assistance interpretation of seismic cross-sections in particular using image analysis techniques |
US5170440A (en) * | 1991-01-30 | 1992-12-08 | Nec Research Institute, Inc. | Perceptual grouping by multiple hypothesis probabilistic data association |
US5566246A (en) * | 1991-03-28 | 1996-10-15 | Texas Instruments Incorporated | System and method for ranking and extracting salient contours for target recognition |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3269691B2 (ja) | 1993-02-05 | 2002-03-25 | 川崎製鉄株式会社 | コッセル回折像自動解析装置 |
JP2768627B2 (ja) * | 1994-03-11 | 1998-06-25 | アロカ株式会社 | 超音波画像処理装置 |
JPH07302342A (ja) * | 1994-05-09 | 1995-11-14 | Fujitsu Ltd | 輪郭抽出方法及び装置 |
US6106466A (en) * | 1997-04-24 | 2000-08-22 | University Of Washington | Automated delineation of heart contours from images using reconstruction-based modeling |
JP3355298B2 (ja) * | 1998-02-05 | 2002-12-09 | 松下電器産業株式会社 | 超音波診断装置 |
US6346124B1 (en) | 1998-08-25 | 2002-02-12 | University Of Florida | Autonomous boundary detection system for echocardiographic images |
EP1034742A1 (fr) * | 1999-03-09 | 2000-09-13 | Kreztechnik Aktiengesellschaft | Procédé pour examiner des objects avec des ultrasons |
JP2001175875A (ja) | 1999-12-16 | 2001-06-29 | Ge Medical Systems Global Technology Co Llc | 境界線検出装置、画像処理装置および非境界線検出装置 |
US6537221B2 (en) * | 2000-12-07 | 2003-03-25 | Koninklijke Philips Electronics, N.V. | Strain rate analysis in ultrasonic diagnostic images |
JP4614548B2 (ja) * | 2001-01-31 | 2011-01-19 | パナソニック株式会社 | 超音波診断装置 |
US6628743B1 (en) | 2002-11-26 | 2003-09-30 | Ge Medical Systems Global Technology Company, Llc | Method and apparatus for acquiring and analyzing cardiac data from a patient |
JP2004181240A (ja) * | 2002-12-03 | 2004-07-02 | Koninkl Philips Electronics Nv | 超音波撮像により撮像される対象物の境界を生成するシステム及び方法 |
-
2003
- 2003-11-25 US US10/722,171 patent/US7376252B2/en active Active
-
2004
- 2004-11-19 FR FR0412312A patent/FR2862787B1/fr not_active Expired - Fee Related
- 2004-11-24 DE DE200410056784 patent/DE102004056784A1/de not_active Withdrawn
- 2004-11-25 JP JP2004340293A patent/JP4847003B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5148494A (en) * | 1989-04-28 | 1992-09-15 | Societe Nationale Elf Aquitaine | Process for automatic plotting and assistance interpretation of seismic cross-sections in particular using image analysis techniques |
JPH03269691A (ja) * | 1990-03-09 | 1991-12-02 | Hewlett Packard Co <Hp> | 光学式文字認識システム |
US5170440A (en) * | 1991-01-30 | 1992-12-08 | Nec Research Institute, Inc. | Perceptual grouping by multiple hypothesis probabilistic data association |
US5566246A (en) * | 1991-03-28 | 1996-10-15 | Texas Instruments Incorporated | System and method for ranking and extracting salient contours for target recognition |
Non-Patent Citations (2)
Title |
---|
JUVIN D ET AL: "ANIMA (ANALYSES OF IMAGES) A QUASI REAL TIME SYSTEM", COMPUTER SOCIETY CONFERENCE ON PATTERN RECOGNITION AND IMAGE PROCESSING. LAS VEGAS, JUNE 14- 17 1982, NEW YORK, I.E.E.E, US, vol. PROC. 1982, 1982, pages 358 - 361, XP002305219 * |
PATENT ABSTRACTS OF JAPAN vol. 1998, no. 07 31 March 1998 (1998-03-31) * |
Also Published As
Publication number | Publication date |
---|---|
DE102004056784A1 (de) | 2005-06-23 |
JP2005152647A (ja) | 2005-06-16 |
US7376252B2 (en) | 2008-05-20 |
FR2862787B1 (fr) | 2006-10-13 |
US20050111710A1 (en) | 2005-05-26 |
JP4847003B2 (ja) | 2011-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105263420B (zh) | 3d超声成像系统 | |
KR101369791B1 (ko) | 진단 의료 영상을 위한 상호참조 측정 | |
FR2862787A1 (fr) | Procede interactif et interface utilisateur pour detecter un contour d'un objet | |
US7041059B2 (en) | 3D ultrasound-based instrument for non-invasive measurement of amniotic fluid volume | |
EP2417912B1 (fr) | Dispositif de diagnostic ultrasonore et procédé pour construire une image de distribution de l'état dynamique d'un écoulement sanguin | |
JP5265850B2 (ja) | 関心領域を指示するためのユーザ対話式の方法 | |
US7678052B2 (en) | Method and apparatus for detecting anatomic structures | |
CN103169500B (zh) | 超声波诊断装置、医用图像诊断装置以及医用图像处理方法 | |
KR102539901B1 (ko) | 2차원 초음파 이미지를 음영화하는 방법 및 시스템 | |
FR2870710A1 (fr) | Procede et dispositif pour mesurer des structures anatomiques | |
US20170124701A1 (en) | System and method for measuring artery thickness using ultrasound imaging | |
US20120154400A1 (en) | Method of reducing noise in a volume-rendered image | |
WO2017024474A1 (fr) | Système et procédé d'imagerie ultrasonore d'élasticité | |
FR2916134A1 (fr) | Procede et dispositif de mesure de debit volumique | |
FR3078250A1 (fr) | Placement d'une région à laquelle on s'intéresse pour une imagerie quantitative à ultrasons | |
FR2986701A1 (fr) | Caracterisation d'onde de cisaillement sur l'axe avec un ultrason | |
JP6648587B2 (ja) | 超音波診断装置 | |
CN109803588A (zh) | 流体路径的增强分辨率超声成像 | |
US20130150718A1 (en) | Ultrasound imaging system and method for imaging an endometrium | |
US20160225180A1 (en) | Measurement tools with plane projection in rendered ultrasound volume imaging | |
US20050049494A1 (en) | Method and apparatus for presenting multiple enhanced images | |
CN118285839A (zh) | 超声造影成像方法和超声成像装置 | |
JP2009513221A (ja) | 3次元画像から2次元心エコービューを生成して表示するためのシステム及び方法 | |
JPH09509603A (ja) | ドップラー角の自動測定方法及びこれを実施するための装置 | |
KR101196211B1 (ko) | 초음파 진단장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20150731 |