FR2975205A1 - Procede et systeme pour imagerie par ultrasons avec images en plan de coupe - Google Patents

Procede et systeme pour imagerie par ultrasons avec images en plan de coupe Download PDF

Info

Publication number
FR2975205A1
FR2975205A1 FR1254250A FR1254250A FR2975205A1 FR 2975205 A1 FR2975205 A1 FR 2975205A1 FR 1254250 A FR1254250 A FR 1254250A FR 1254250 A FR1254250 A FR 1254250A FR 2975205 A1 FR2975205 A1 FR 2975205A1
Authority
FR
France
Prior art keywords
image
processor
contour
data
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1254250A
Other languages
English (en)
Inventor
Christian Fritz Perrey
Armin Schoisswohl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of FR2975205A1 publication Critical patent/FR2975205A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • A61B8/585Automatic set-up of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4488Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52063Sector scan display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Gynecology & Obstetrics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Un système d'imagerie par ultrasons (100) inclut une sonde (105) adaptée pour scanner un volume d'intérêt, un dispositif d'affichage (118), et un processeur (116) en communication électronique avec la sonde (105) et le dispositif d'affichage (118). Le processeur (116) est configuré pour identifier un premier contour dans une première image en plan de coupe et un second contour dans une seconde image en plan de coupe. Le processeur (116) est configuré pour configurer automatiquement des paramètres d'acquisition en fonction de l'un au moins des premier et second contours. Le processeur (116) est configuré pour mettre en œuvre les paramètres d'acquisition pour acquérir des données, générer une image à partir des données, et afficher l'image sur le dispositif d'affichage (118).

Description

B 12-2745FR 1 Procédé et système pour imagerie par ultrasons avec images en plan de coupe
La présente invention concerne généralement un procédé et un système pour utiliser des images en plan de coupe de manière à configurer automatiquement des paramètres d'acquisition pour une future acquisition de données. Dans l'imagerie médicale, une région d'intérêt (RDI) est habituellement utilisée pour désigner une région, qui peut être monodimensionnelle, bidimensionnelle ou tridimensionnelle, à partir de laquelle des données sont acquises. Les données sont ensuite, à leur tour, utilisées pour générer une image ou plus. Il est très important de sélectionner une RDI de taille et d'emplacement appropriés afin d'acquérir des images qui sont cliniquement aussi pertinentes que possible. La RDI doit être suffisamment grande et au bon emplacement pour couvrir la structure complète examinée. Néanmoins, la RDI ne doit pas être plus grande que nécessaire afin de maximiser la résolution. Pour des modalités d'imagerie permettant d'afficher une image en direct, comme les ultrasons, avoir une RDI plus petite aide à assurer que la vitesse de trame maximale pouvant être obtenue de l'image en direct est réalisée. Une RDI qui est plus grande que nécessaire donnera une vitesse de trame réduite. De plus, avoir une RDI trop grande peut aussi donner une résolution spatiale plus faible, ce qui peut donner des images qui ne peuvent être utilisées cliniquement. En utilisant encore les ultrasons conventionnels comme exemple, on souhaite habituellement centrer l'objet imagé dans un champ de vision (CDV) de la sonde. Selon des techniques conventionnelles, l'utilisateur acquiert une image en deux dimensions et détermine ensuite la RDI en fonction de cette image en deux dimensions. Néanmoins, comme l'image en deux dimensions n'inclut pas habituellement d'information en relief, il est impossible pour l'utilisateur de savoir si la RDI est placée de manière appropriée. De plus, il est difficile pour l'utilisateur de déterminer si l'objet est centré dans le champ de vision de la sonde puisque l'utilisateur a seulement une image en deux dimensions pour référence. Pour cela et d'autres raisons, il y a un besoin pour un procédé et un système d'imagerie médicale améliorés. La présente invention vise à remédier aux défauts, désavantages et problèmes susmentionnés.
Dans un mode de réalisation, un procédé d'imagerie par ultrasons inclut d'accéder à une première image en plan de coupe d'un premier plan. Le procédé inclut d'identifier une première région incluant une structure dans la première image en plan de coupe. Le procédé inclut d'accéder à une seconde image en plan de coupe d'un second plan, où le second plan coupe le premier plan. Le procédé inclut d'identifier une seconde région incluant la structure dans la seconde image en plan de coupe. Le procédé inclut de configurer automatiquement les paramètres d'acquisition en fonction d'au moins l'une de la première région et la seconde région. Le procédé inclut de mettre en oeuvre les paramètres d'acquisition pour acquérir des données de la structure. Le procédé inclut de générer une image à partir des données et d'afficher l'image. Dans un autre mode de réalisation, un procédé d'imagerie médicale inclut d'accéder à une première image en plan de coupe d'un premier plan et d'accéder à une seconde image en plan de coupe d'un second plan, où le second plan coupe le premier plan. Le procédé inclut d'identifier un premier contour d'une structure dans la première image en plan de coupe et d'identifier un second contour de la structure dans la seconde image en plan de coupe. Le procédé inclut de calculer automatiquement des données de taille et des données de position pour la structure en fonction du premier contour et du second contour. Le procédé inclut de positionner automatiquement une région d'intérêt (RDI) en trois dimensions autour de la structure en utilisant les données de taille et les données de position. Le procédé inclut d'acquérir des données volumétriques de la région d'intérêt (RDI) en trois dimensions, de générer une image à partir des données volumétriques et d'afficher l'image. Dans un autre mode de réalisation, un système d'imagerie par ultrasons inclut une sonde adaptée pour scanner un volume d'intérêt, un dispositif d'affichage et un processeur en communication électronique avec la sonde et le dispositif d'affichage. Le processeur est configuré pour commander la sonde pour acquérir une première image en plan de coupe d'un premier plan et une seconde image en plan de coupe d'un second plan. Le processeur est configuré pour mettre en oeuvre un algorithme de segmentation sur la première image en plan de coupe pour identifier un premier contour d'une structure. Le processeur est configuré pour mettre en oeuvre un algorithme de segmentation sur la seconde image en plan de coupe pour identifier un second contour de la structure. Le processeur est configuré pour configurer automatiquement des paramètres d'acquisition en fonction d'au moins l'un du premier contour et du second contour. Le processeur est configuré pour mettre en oeuvre les paramètres d'acquisition pour acquérir des données de la structure. Le processeur est configuré pour générer une image à partir des données et afficher l'image sur le dispositif d'affichage. L'invention sera mieux comprise à l'étude détaillée de quelques modes de réalisation pris à titre d'exemples non limitatifs et illustrés par les dessins annexés sur lesquels : - la figure 1 est un diagramme schématique d'un système d'imagerie par ultrasons selon un mode de réalisation ; - la figure 2 est un organigramme illustrant un procédé selon un mode de réalisation ; - la figure 3 est une représentation schématique d'un premier plan et d'un second plan coupant une structure selon un mode de réalisation ; - la figure 4 est une représentation schématique d'une première image en plan de coupe et d'une seconde image en plan de coupe selon un mode de réalisation ; - la figure 5 est un organigramme illustrant un procédé selon un mode de réalisation ; et - la figure 6 est une représentation schématique d'un premier plan, un second plan et une région d'intérêt en trois dimensions montrés par rapport à une structure selon un mode de réalisation. La figure 1 est un diagramme schématique d'un système d'imagerie par ultrasons 100 selon un mode de réalisation. Le système d'imagerie par ultrasons 100 inclut un émetteur 102 qui émet un signal vers un formeur de faisceau d'émission 103 qui à son tour pilote des éléments transducteurs 104 dans un réseau de transducteurs 106 pour émettre des signaux ultrasonores pulsés dans une structure, comme un patient (non montré). Une sonde 105 inclut le réseau de transducteurs 106, les éléments transducteurs 104 et un module électronique de sonde/SAP 107. Le module électronique de sonde/SAP 107 peut être utilisé pour commander la commutation des éléments transducteurs 104. Le module électronique de sonde/SAP 107 peut aussi être utilisée pour grouper les éléments transducteurs 104 dans une ou plus sous-ouvertures. Une variété de géométries de réseau de transducteurs peuvent être utilisés. Les signaux ultrasonores pulsés sont rétrodiffusés par des structures dans le corps, comme des cellules sanguines ou des tissus musculaires, pour produire des échos qui retournent vers les éléments transducteurs 104. Les échos sont convertis en signaux électriques, ou en données ultrasonores, par les éléments transducteurs 104 et les signaux électriques sont reçus par un récepteur 108. Pour les besoins de cette description, le terme "données ultrasonores" peut inclure des données qui ont été acquises et/ou traitées par un système à ultrasons. Les signaux électriques représentant les échos reçus sont passés à travers un formeur de faisceau de réception 110 duquel il sort des données ultrasonores. Une interface utilisateur 115 peut être utilisée pour commander le fonctionnement du système d'imagerie par ultrasons 100, y compris, commander l'entrée des données de patient, pour changer par exemple un paramètre de scannage ou d'affichage.
Le système d'imagerie par ultrasons 100 inclut aussi un processeur 116 pour traiter les données ultrasonores et générer des trames ou images pour affichage sur un dispositif d'affichage 118. Le processeur 116 peut être adapté pour réaliser une ou plusieurs opérations de traitement selon une pluralité de modalités d'ultrasons sélectionnables sur les données ultrasonores. D'autres modes de réalisation peuvent utiliser de multiples processeurs pour réaliser diverses tâches de traitement. Le processeur 116 peut aussi être adapté pour commander l'acquisition de données ultrasonores avec la sonde 105. Les données ultrasonores peuvent être traitées en temps réel pendant une session de scannage quand les signaux d'écho sont reçus. Pour les besoins de cette description, le terme « en temps réel » est défini comme un processus réalisé sans ralentissement ou retard intentionnel. Un mode de réalisation peut mettre à jour l'image ultrasonore affichée à une vitesse de plus de 20 fois par seconde. Les images peuvent être affichées comme faisant partie d'une image en direct. Pour les besoins de cette description, le terme « image en direct » est défini comme une image dynamique qui se met à jour quand des trames supplémentaires de données ultrasonores sont acquises. Par exemple, des données ultrasonores peuvent être acquises même quand des images sont générées en fonction de données acquises auparavant alors qu'une image en direct est affichée. Ensuite, selon un mode de réalisation, quand des données ultrasonores supplémentaires sont acquises, des trames ou images supplémentaires générées à partir des données ultrasonores acquises le plus récemment sont affichées séquentiellement. De plus ou en variante, les données ultrasonores peuvent être stockées temporairement dans une mémoire-tampon (non montrée) pendant une session de scannage et traitées moins vite qu'en temps réel dans une opération en direct ou hors ligne. Certains modes de réalisation de l'invention peuvent inclure de multiples processeurs (non montrés) pour réaliser les tâches de traitement. Par exemple, un premier processeur peut être utilisé pour démoduler et décimer le signal ultrason alors qu'un second processeur peut être utilisé pour traiter encore les données avant d'afficher une image. En se référant encore à la figure 1, le système d'imagerie par ultrasons 100 peut acquérir continûment des données ultrasonores à une vitesse de trame de, par exemple, 20 Hz à 150 Hz. Néanmoins, d'autres modes de réalisation peuvent acquérir des données ultrasonores à une vitesse différente. Une mémoire 120 est incluse pour stocker des trames traitées de données ultrasonores acquises qui ne sont pas planifiées pour être affichées immédiatement. Dans un exemple de mode de réalisation, la mémoire 120 est de capacité suffisante pour stocker au moins plusieurs secondes de trames de données ultrasonores. Les trames des données ultrasonores sont stockées de manière à faciliter la récupération de celles-ci selon leur ordre ou moment d'acquisition. Comme décrit ci-dessus, les données ultrasonores peuvent être récupérées pendant la génération et l'affichage d'une image en direct. La mémoire 120 peut comprendre tout moyen de stockage de données connu. En option, des modes de réalisation de la présente invention peuvent être mis en oeuvre en utilisant des agents de contraste. L'imagerie par contraste génère des images améliorées de structures anatomiques et de flux sanguin dans un corps en utilisant des agents de contraste ultrasonores incluant des microbulles. Après acquisition des données ultrasonores en utilisant un agent de contraste, l'analyse d'image inclut de séparer des composantes harmonique et linéaire, d'améliorer la composante harmonique et de générer une image par ultrasons en utilisant la composante harmonique renforcée. La séparation des composantes harmoniques des signaux reçus est réalisée en utilisant des filtres convenables. L'utilisation d'agents de contraste pour l'imagerie par ultrasons est bien connue par l'homme de l'art et ne sera donc pas décrite plus en détail.
Dans divers modes de réalisation de la présente invention, des données ultrasonores peuvent être traitées par des modules liés à des modes autres ou différents (par exemple, mode B, Doppler en couleur, Doppler en puissance, mode Tm, Doppler spectral, mode Tm anatomique, déformations, sollicitations, et autres) pour former des séries de données en 2D ou 3D de trames d'image et autres. Par exemple, un ou plusieurs modules peuvent générer des trames d'image en mode B, Doppler couleur, Doppler en puissance, mode Tm, mode Tm anatomique, déformations, sollicitations, Doppler spectral, et des combinaisons de celles-ci. Les trames d'image sont stockées et l'information de temps indiquant un moment auquel la trame d'image a été acquise en mémoire peut être enregistrée avec chaque trame d'image. Les modules peuvent inclure, par exemple, un module de conversion de scannage pour réaliser des opérations de conversion de scannage pour convertir les trames d'image de coordonnées polaires en coordonnées cartésiennes. Un module de processeur vidéo peut être fourni qui lit les trames d'image à partir d'une mémoire et affiche les trames d'image en temps réel quand une procédure est réalisée sur un patient. Un module de processeur vidéo peut stocker les trames d'image dans une mémoire d'image à partir de laquelle les images sont lues et affichées. Le système d'imagerie par ultrasons 100 peut être configuré comme un système à console, un système à base de cartes, ou un système portable, comme un système de type ordinateur. La figure 2 est un organigramme illustrant un procédé 200 selon un mode de réalisation. Les blocs individuels représentent des étapes qui peuvent être réalisées selon le procédé 200. L'effet technique du procédé 200 est l'affichage d'une image générée à partir de données acquises en fonction de la mise en oeuvre de paramètres d'acquisition configurés automatiquement. Les étapes du procédé 200 vont être décrites dans l'exemple illustré où les étapes sont réalisées avec le système d'imagerie par ultrasons 100 (montré sur la figure 1). La figure 3 est une représentation schématique d'un premier plan 302 et d'un second plan 304 coupant une structure 308 selon un mode de réalisation. Selon un mode de réalisation, des données acquises du premier plan 302 peuvent être affichées comme une image en plan de coupe et des données acquises du second plan 304 peuvent être affichées comme une seconde image en plan de coupe. Des première et seconde images en plan de coupe vont être décrites en détails ci-dessous. La figure 4 est une représentation schématique d'une première image en plan de coupe 402 et d'une seconde image en plan de coupe 404. Dans l'exemple illustré, la première image en plan de coupe 402 représente une image du premier plan 302 (montré sur la figure 3) et la seconde image en plan de coupe 404 représente une image du second plan 304 (montré sur la figure 3). Un numéro de référence commun est utilisé pour identifier la structure 308 dans les deux figures 3 et 4 selon un mode de réalisation.
En se référant maintenant aux figures 1, 2, et 4, lors de l'étape 202, le processeur 116 accède à une première image en plan de coupe, comme la première image en plan de coupe 402. Lors de l'étape 204, le processeur 116 accède à une seconde image en plan de coupe, comme la seconde image en plan de coupe 404. Comme décrit précédemment, la première image en plan de coupe 402 peut être une image du premier plan 302 (montré sur la figure 3) et la seconde image en plan de coupe 404 peut être une image du second plan 304 (montré sur la figure 3). Selon un mode de réalisation, le processeur 116 peut d'abord commander l'acquisition de données pour générer la première image en plan de coupe 402 et la seconde image en plan de coupe 404 avant l'étape 202 du procédé 200. Selon d'autres modes de réalisation, le processeur 116 peut récupérer les première et seconde images en plan de coupe (402, 404) à partir d'un dispositif de stockage comme une mémoire 120 ou d'un dispositif de stockage situé à distance, comme un système d'archivage d'images et de communications (non montré) pendant l'étape 202. Lors de l'étape 206 du procédé 200, Le processeur 116 identifie un premier contour 406 de la structure 308 dans la première image en plan de coupe 402. Lors de l'étape 208, le processeur 116 identifie un second contour 410 de la structure 308 dans la seconde image en plan de coupe 404. Le processeur 116 peut utiliser un algorithme de reconnaissance d'objet afin d'identifier le premier contour 406 et le second contour 410. Par exemple, dans l'exemple illustré où le processeur 116 essaye d'identifier un objet globalement sphérique, le processeur 116 peut mettre en oeuvre un algorithme de reconnaissance d'objet adapté pour identifier un contour globalement circulaire, puisque toutes les sections transversales d'une sphère sont circulaires. D'autres modes de réalisation peuvent être adaptés pour identifier des structures avec des formes autres que sphériques. Lors de l'étape 210, le processeur 116 configure automatiquement des paramètres d'acquisition en fonction du premier contour 406 et/ou du second contour 410. Pour les besoins de cette description, le terme « paramètres d'acquisition » est défini comme incluant des réglages qui commandent une région depuis laquelle des données sont acquises. Dans l'exemple illustré, les paramètres d'acquisition sont les réglages qui contrôlent les données ultrasonores qui seront acquises par la sonde 105. Les paramètres d'acquisition contrôlent les faisceaux ultrasons, qui à leur tour contrôlent les parties de l'anatomie d'un patient qui sont imagées. Par exemple, les paramètres d'acquisition contrôlent la position du plan qui est acquis lors de l'acquisition des données ultrasonores en deux dimensions et les paramètres d'acquisition contrôlent la position et la taille du volume qui est acquis lors de l'acquisition des données ultrasonores volumétriques. Des exemples non limitatifs des paramètres d'acquisition incluent : La profondeur de faisceau, les angles de direction de faisceau, la largeur de faisceau, et l'espacement de faisceau. Par exemple, selon un mode de réalisation, il peut être souhaitable d'acquérir deux images en plan de coupe supplémentaires, où chacune des images en plan de coupe supplémentaires sont centrées à l'intérieur de la structure 308. Le processeur 116 peut, par exemple, déterminer un premier centre de masse 412 de la structure 308 en fonction du premier contour 406 et un second centre de masse 414 de la structure 308 en fonction du second contour 410. Selon un mode de réalisation où le premier contour 308 et le second contour 410 sont tous les deux globalement circulaires, calculer le centre de masse peut inclure d'identifier le centre de chaque contour globalement circulaire. Le processeur 116 peut ensuite configurer des paramètres d'acquisition pour permettre l'acquisition de données en deux dimensions supplémentaires pour des plans qui passent par le premier centre de masse 412 et le second centre de masse 414 respectivement afin de centrer la structure dans un champ de vision de la sonde.
Ensuite, lors de l'étape 212, le processeur 116 met en oeuvre les paramètres d'acquisition de l'étape 210 et acquiert des données. Par exemple, dans l'exemple illustré, le processeur 116 peut mettre en oeuvre les paramètres d'acquisition pour acquérir des données en deux dimensions pour un troisième plan qui passe par le premier centre de masse 412. Le troisième plan peut être parallèle au second plan 404 selon un mode de réalisation. Le processeur 116 peut aussi mettre en oeuvre les paramètres d'acquisition pour acquérir des quatrièmes données en deux dimensions pour un quatrième plan passant par le second centre de masse 414. Le quatrième plan peut être parallèle au premier plan 402 selon un mode de réalisation.
Lors de l'étape 214, Le processeur 116 génère une ou plusieurs images à partir des données. Par exemple, le processeur 116 peut générer une troisième image en fonction des données pour le troisième plan et le processeur 116 peut générer une quatrième image en fonction des données pour le quatrième plan. Ensuite, lors de l'étape 216, le processeur 116 affiche les images sur le dispositif d'affichage. Selon un autre mode de réalisation, les étapes 212, 214, et 216 peuvent être répétées de multiples fois afin de générer et afficher de multiples trames d'une image dynamique ou en direct.
Selon un autre mode de réalisation les étapes 202, 204, 206, 208, 210, 212, 214, et 216 peuvent être répétées de multiples fois. Cela peut être particulièrement utile lors de l'acquisition en direct ou dynamique d'images ultrasonores. Selon un tel mode de réalisation, Le processeur 116 peut identifier un contour dans chacune des images en plan de coupe à chaque itération avant de configurer automatiquement les paramètres d'acquisition et de permettre l'acquisition de données supplémentaires en fonction des contours. Cette technique assure que les images en direct de l'utilisateur ne sont pas corrompues du fait d'un mouvement relatif qui aurait lieu une fois que le scannage a démarré. Le procédé 200 montre un mode de réalisation où un contour est identifié dans chacune des deux images en plan de coupe. Néanmoins, selon d'autres modes de réalisation, la structure peut être identifiée par des techniques autres que l'identification d'un contour. Par exemple, un utilisateur peut identifier une région incluant une structure dans une ou plusieurs images en plan de coupe selon d'autres modes de réalisation. Par exemple, l'utilisateur peut placer une région d'intérêt (RDI) autour de la structure dans une ou plusieurs images en plan de coupe. La RDI est utilisée pour identifier une région particulière dans une image en deux dimensions. Selon un mode de réalisation, la RDI peut inclure un rectangle qui peut être réglé en position ainsi qu'en longueur et en largeur par l'utilisateur. En positionnant la RDI sur une partie de l'image, comme une structure particulière, l'utilisateur peut identifier facilement une structure dans une image. La figure 5 est un organigramme illustrant un procédé 500 selon un mode de réalisation. Les blocs individuels représentent des étapes qui peuvent être réalisées selon le procédé 500. L'effet technique du procédé 500 est l'affichage d'une image générée à partir de données volumétriques acquises en se basant sur la mise en oeuvre de paramètres d'acquisition configurés automatiquement. Les étapes du procédé 500 vont être décrites dans l'exemple illustré où les étapes sont réalisées avec le système d'imagerie par ultrasons 100 (montré sur la figure 1). Néanmoins, on appréciera que le procédé 500 peut être réalisé par imagerie par ultrasons avec des configurations différentes de celle montrée sur la figure 1. La figure 6 est une représentation schématique d'un premier plan 602, un second plan 604 et une région d'intérêt (RDI) 606 en trois dimensions montrés par rapport à la structure 308 selon un mode de réalisation. Un numéro de référence commun est utilisé pour identifier la structure 308 sur les figures 3, 4 et 6. En se référant aux figures 1, 5, et 6, lors de l'étape 502, le processeur 116 accède à une première image en plan de coupe. Lors de l'étape 504, le processeur 116 accède à une seconde image en plan de coupe. La première image en plan de coupe peut être une image du premier plan 602 et la seconde image en plan de coupe peut être une image du second plan 604. Le processeur 116 peut d'abord commander l'acquisition de données afin de générer la première image en plan de coupe et la seconde image en plan de coupe avant l'étape 502 du procédé 500. Selon d'autres modes de réalisation, le processeur 116 peut récupérer les première et seconde images en plan de coupe à partir d'un dispositif de stockage comme une mémoire 120 ou d'un dispositif de stockage situé à distance, comme un système de communications et d'archivage d'images (non montré). Lors de l'étape 506, le processeur 116 identifie un premier contour sur la première image en plan de coupe. Lors de l'étape 508, le processeur 116 identifie un second contour sur la seconde image en plan de coupe. Le processeur 116 peut utiliser un algorithme de reconnaissance d'objet afin d'identifier le premier contour et le second contour de la structure 308 d'une manière similaire à celle décrite auparavant relativement aux étapes 206 et 208 du procédé 200 (montré sur la figure 2). Par exemple, en se référant à la figure 4, Le processeur 116 peut identifier le premier contour 406 dans la première image en plan de coupe 402 et le second contour 410 dans la seconde image en plan de coupe 404. En se référant aux figures 1, 4, et 5, lors de l'étape 510, le processeur 116 calcule des données de taille et des données de position pour la structure 308. Dans l'exemple illustré, la structure 308 est supposée être de forme globalement sphérique. Le processeur 116 peut utiliser le premier contour 406 et le second contour 410 pour calculer à la fois des données de taille et des données de position pour la structure. Le processeur peut d'abord calculer un premier centre de masse 412 du premier contour 406 et un second centre de masse 414 pour le second contour 410. Le processeur 116 peut ensuite calculer les données de position en fonction du premier centre de masse 412 et du second centre de masse 414. Par exemple, en supposant que la structure 308 est globalement sphérique, le processeur 116 peut utiliser l'information concernant le premier centre de masse 412, le second centre de masse 414, et les emplacements relatifs du premier plan 602 et du second plan 604 afin de calculer des données de position pour la structure 308, comme l'emplacement en trois dimensions du centre de la structure 308. Ensuite, en utilisant les diamètres du premier contour 406 et du second contour 410, le processeur peut calculer des données de taille pour la structure 308, comme le diamètre de la structure 308. Encore, en supposant que la structure 308 est globalement sphérique, le processeur 116 peut calculer une taille globale de la structure 308 puisque le positionnement relatif du premier plan 602 et du second plan 604 sont connus. En se référant aux figures 1, 5, et 6, lors de l'étape 512, Le processeur 116 positionne une région d'intérêt 3D (RDI), comme la RDI 3D 606, autour de la structure 308 en utilisant les données de taille et les données de position calculées pendant l'étape 510. La figure 6 inclut une représentation schématique d'une RDI 3D positionnée autour de la structure 308 dans l'exemple illustré. Comme décrit précédemment, le processeur 116 a calculé à la fois des données de position et des données de taille pour la structure 308 montrée sur la figure 6. Le processeur 116 peut utiliser les données de position et les données de taille pour placer automatiquement une RDI 3D autour de la structure 308. Par exemple, il peut être bénéfique pour un utilisateur de voir la structure 308 dans une résolution spatiale ou temporelle plus grande afin de discerner des détails supplémentaires. Le placement de la RDI 3D 606 détermine le volume à partir duquel des données volumétriques sont acquises par le système d'imagerie par ultrasons 100. Il est souhaitable d'avoir la RDI 3D la plus petite possible qui montre encore toute la structure souhaitée pour des besoins de diagnostic. Une petite RDI 3D permet une résolution spatiale et/ou une résolution temporelle augmentées pour toute image générée en fonction des données volumétriques venant de l'intérieur de la RDI 3D. Le mode de réalisation sur la figure 6 montre la RDI 3D 606 comme globalement en forme de boîte. Selon un mode de réalisation, il peut être souhaitable d'avoir des dimensions de la RDI 3D 606 qui dépassent les dimensions de la structure de 10% ou moins. En d'autres termes, il peut être bénéfique pour la longueur, la largeur, et la hauteur, de la RDI 3D 606 de dépasse la longueur la largeur, et la hauteur de la structure 308 de moins de 10%. D'autres modes de réalisation peuvent avoir la RDI 3D qui dépasse les dimensions de la structure d'une plus grande quantité, mais il peut ne pas être possible d'acquérir et d'afficher des images avec une vitesse de trames aussi élevée. On appréciera que des modes de réalisation supplémentaires peuvent utiliser une RDI 3D avec une forme autre que celle d'une boîte. Il peut y avoir des avantages en termes de vitesse de trames et de résolution spatiale à utiliser une RDI 3D qui se conforme plus étroitement à la forme de la structure 308 qu'une RDI 3D en forme de boîte comme la RDI 3D 606. Par exemple, pour certaines applications, il peut être avantageux d'utiliser une RDI 3D avec une forme globalement sphérique.
I1 est généralement souhaitable de centrer le champ de vision autour de la structure 308 pour une imagerie optimale. C'est à dire qu'il est habituellement meilleur d'avoir la structure dans le milieu du champ de vision de la sonde. Le processeur 116 peut utiliser les contours identifiés dans les deux images en plan de coupe pour déterminer si la structure est complètement dans le champ de vision de la sonde. Si une partie de la structure est hors du champ de vision, le contour est une forme ouverte au lieu d'une forme fermée. Selon un mode de réalisation, Le processeur 116 peut communiquer un avertissement à l'utilisateur, comme un signal audible, une lumière d'avertissement, un texte affiché, et autres, si l'un ou l'autre des contours indique que la structure 308 est hors du champ de vision. De plus, Le processeur 116 peut communiquer des instructions à l'utilisateur pour repositionner la sonde 105 afin d'inclure toute la structure 308 dans le champ de vision.
En se référant à nouveau à la figure 5, lors de l'étape 514, le processeur 116 acquiert des données volumétriques de la RDI 3D 606 (montrée sur la figure 6) qui a été positionnée automatiquement par le processeur 116 pendant l'étape 512. Afin d'acquérir des données volumétriques de la RDI 3D, le processeur 116 configure des paramètres d'acquisition afin de faciliter l'acquisition de données volumétriques de la RDI 3D 606. Comme décrit ci-dessus, les paramètres d'acquisition peuvent inclure une profondeur de faisceau, des angles de direction de faisceau, une largeur de faisceau, et un espacement de faisceau. Pour des modalités autres que l'ultrason, les paramètres d'acquisition commandent encore la partie spécifique de l'anatomie du patient pour laquelle des données sont collectées. Ensuite, lors de l'étape 516, le processeur 116 génère une image à partir des données volumétriques. Par exemple, l'image peut inclure une image en deux dimensions montrant une tranche à travers la structure, ou le processeur 116 peut générer un autre type d'image comme une image rendue en volume. Lors de l'étape 518, le processeur 116 affiche l'image sur le dispositif d'affichage 118. Selon des modes de réalisation, les étapes 514, 516, et 518 peuvent être répétées de multiples fois pour faciliter la génération et l'affichage d'une image en direct à partir de données volumétriques. Selon d'autres modes de réalisation, des étapes 502 et 504 peuvent être remplacées par des étapes où des images en plan de coupe en direct sont acquises et affichées en temps réel. Le processeur 116 (montré sur la figure 1) utilise alors une ou plusieurs trames d'image des images en plan de coupe en direct afin d'identifier les contours de la structure.
Liste des parties Figure 1 100 système d'imagerie par ultrasons 102 émetteur 103 formeur d'onde d'émission 104 éléments transducteurs 105 sonde 106 réseau transducteur 107 module électronique de sonde/SAP 108 récepteur 110 formeur d'onde de réception 115 interface utilisateur 116 processeur 118 dispositif d'affichage 120 mémoire Figure 2 200 Procédé 202 accéder à la première image en plan de coupe 204 accéder à la seconde image en plan de coupe 206 identifier un premier contour de structure dans une première image en plan de coupe 208 identifier un second contour de structure dans une seconde image en plan de coupe 210 configurer automatiquement des paramètres d'acquisition en fonction d'au moins un du premier contour et du second contour 212 mettre en oeuvre des paramètres d'acquisition pour acquérir des données 214 générer une image à partir des données 216 afficher l'image Figure 3 302 premier plan 304 second plan 308 structure Figure 4 308 structure 402 première image en plan de coupe 404 seconde image en plan de coupe 406 premier contour 410 second contour 412 premier centre de masse 414 second centre de masse Figure 5 500 Procédé 502 accéder à la première image en plan de coupe 504 accéder à la seconde image en plan de coupe 506 identifier un premier contour sur la première image en plan de coupe 508 identifier un second contour sur la seconde image en plan de coupe 510 calculer des données de taille et des données de position pour la structure 512 positionner une région d'intérêt en 3D autour de la structure 514 acquérir des données volumétriques pour la région d'intérêt en 3D 516 générer une image à partir de données volumétriques 18 afficher l'image Figure 6 308 structure 602 premier plan 604 second plan 606 région d'intérêt en 3D

Claims (10)

  1. REVENDICATIONS1. Système d'imagerie par ultrasons (100) comprenant : une sonde (105) adaptée pour scanner un volume d'intérêt ; un dispositif d'affichage (118) ; et un processeur (116) en communication électronique avec la sonde (105) et le dispositif d'affichage (118), dans lequel le processeur (116) est configuré pour : commander la sonde (105) pour acquérir une première image en plan de coupe (402) d'un premier plan (602) ; commander la sonde (105) pour acquérir une seconde image en plan de coupe (404) d'un second plan (604) ; mettre en oeuvre un algorithme de segmentation sur la première image en plan de coupe (402) pour identifier un premier contour (406) d'une structure ; mettre en oeuvre un algorithme de segmentation sur la seconde image en plan de coupe (404) pour identifier un second contour (410) d'une structure ; configurer automatiquement des paramètres d'acquisition en fonction de l'un au moins des premier (406) et second (410) contours; mettre en oeuvre les paramètres d'acquisition pour acquérir des données de la structure ; générer une image à partir des données ; et afficher l'image sur le dispositif d'affichage (118).
  2. 2. Système d'imagerie par ultrasons (100) selon la revendication 1, dans lequel le processeur (116) est en outre configuré pour calculer un premier centre de masse (412) de la structure en fonction du premier contour (406).
  3. 3. Système d'imagerie par ultrasons (100) selon la revendication 2, dans lequel le processeur (116) est en outre configuré pour calculer un second centre de masse de la structure en fonction du second contour (410).
  4. 4. Système d'imagerie par ultrasons (100) selon la revendication 1, dans lequel le processeur (116) est configuré pour commander automatiquement la sonde (105) afin de mettre en oeuvre les paramètres d'acquisition.
  5. 5. Système d'imagerie par ultrasons (100) selon la revendication 1, dans lequel le processeur (116) est configuré pour mettre en oeuvre les paramètres d'acquisition afin d'acquérir des données en deux dimensions.
  6. 6. Système d'imagerie par ultrasons (100) selon la revendication 1, dans lequel le processeur (116) est configuré pour configurer automatiquement les paramètres d'acquisition en fonction à la fois du premier contour (406) et du second contour (410).
  7. 7. Système d'imagerie par ultrasons (100) comprenant : une sonde (105) adaptée pour scanner un volume d'intérêt ; un dispositif d'affichage (118) ; et un processeur (116) en communication électronique avec la sonde (105) et le dispositif d'affichage (118), dans lequel le processeur (116) est configuré pour : commander la sonde (105) pour acquérir une première image en plan de coupe (402) d'un premier plan ; commander la sonde (105) pour acquérir une seconde image en plan de coupe (404) d'un second plan ; identifier un premier contour (406) d'une structure dans la première image en plan de coupe (402) ; identifier un second contour (410) de la structure dans la seconde image en plan de coupe (404) ; calculer des données de taille et des données de position pour la structure en fonction du premier contour (406) et du second contour (410) ; positionner une région d'intérêt en trois dimensions autour de la structure en utilisant les données de taille et les données de position ; commander la sonde (105) pour acquérir des données volumétriques de la région d'intérêt (RDI) en trois dimensions ; générer une image à partir des données volumétriques ; et afficher l'image sur le dispositif d'affichage (118).
  8. 8. Système d'imagerie par ultrasons (100) selon la revendication 7, dans lequel le processeur (116) est configuré pour mettre en oeuvre un algorithme pour identifier automatiquement le premier contour (406).
  9. 9. Système d'imagerie par ultrasons (100) selon la revendication 7, dans lequel le processeur (116) est en outre configuré pour fournir un avertissement si les données de taille ou les données de position indiquent que la structure est à l'extérieur d'un champ de vision (CDV) de la sonde (105).
  10. 10. Système d'imagerie par ultrasons (100) selon la revendication 9, dans lequel le processeur (116) est en outre configuré pour fournir une indication pour le réglage en position de la sonde (105) afin de capturer toute la structure dans un nouveau champ de vision (CDV).
FR1254250A 2011-05-10 2012-05-10 Procede et systeme pour imagerie par ultrasons avec images en plan de coupe Withdrawn FR2975205A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US13/104,486 US8798342B2 (en) 2011-05-10 2011-05-10 Method and system for ultrasound imaging with cross-plane images

Publications (1)

Publication Number Publication Date
FR2975205A1 true FR2975205A1 (fr) 2012-11-16

Family

ID=47070670

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1254250A Withdrawn FR2975205A1 (fr) 2011-05-10 2012-05-10 Procede et systeme pour imagerie par ultrasons avec images en plan de coupe

Country Status (4)

Country Link
US (1) US8798342B2 (fr)
CN (1) CN102805648B (fr)
DE (1) DE102012103990A1 (fr)
FR (1) FR2975205A1 (fr)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8798342B2 (en) * 2011-05-10 2014-08-05 General Electric Company Method and system for ultrasound imaging with cross-plane images
US10667790B2 (en) 2012-03-26 2020-06-02 Teratech Corporation Tablet ultrasound system
US9877699B2 (en) 2012-03-26 2018-01-30 Teratech Corporation Tablet ultrasound system
JP5894506B2 (ja) * 2012-06-08 2016-03-30 株式会社Pfu 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
US20140180111A1 (en) * 2012-12-21 2014-06-26 IneedMD, Inc. Remote controlled telemedical ultrasonic diagnostic device
KR101665124B1 (ko) * 2014-08-25 2016-10-12 삼성메디슨 주식회사 초음파 영상장치 및 그 제어방법
WO2016131185A1 (fr) 2015-02-16 2016-08-25 深圳迈瑞生物医疗电子股份有限公司 Procédé de traitement d'affichage de données d'imagerie 3d, et procédé et système d'imagerie ultrasonore 3d
WO2017042304A1 (fr) * 2015-09-10 2017-03-16 Koninklijke Philips N.V. Système à ultrasons avec grande profondeur et visualisation détaillée
US9947097B2 (en) 2016-01-19 2018-04-17 General Electric Company Method and system for enhanced fetal visualization by detecting and displaying a fetal head position with cross-plane ultrasound images
US9999405B2 (en) * 2016-02-16 2018-06-19 General Electric Company Method and system for enhanced visualization of a curved structure by automatically displaying a rendered view of a curved image slice
CN107689072A (zh) * 2016-06-12 2018-02-13 中慧医学成像有限公司 一种三维图像成像方法和系统
CN108305670A (zh) * 2017-01-13 2018-07-20 深圳开立生物医疗科技股份有限公司 筛查导航切面的方法和系统
US10299764B2 (en) * 2017-05-10 2019-05-28 General Electric Company Method and system for enhanced visualization of moving structures with cross-plane ultrasound images
EP3627442A4 (fr) * 2017-05-31 2020-05-20 Shanghai United Imaging Healthcare Co., Ltd. Procédé et système de traitement d'image
CN109567860B (zh) * 2018-10-19 2022-03-04 深圳迈瑞生物医疗电子股份有限公司 超声成像方法、设备和存储介质
WO2021061957A1 (fr) * 2019-09-27 2021-04-01 Butterfly Network, Inc. Procédés et appareils permettant de fournir une rétroaction pour positionner un dispositif à ultrasons
CN112132211A (zh) * 2020-09-20 2020-12-25 郑州精铖能源技术有限公司 一种高效梯级能源管理方法及系统

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5538003A (en) * 1995-05-18 1996-07-23 Hewlett-Packard Company Quick method and apparatus for identifying a region of interest in an ultrasound display
US5967987A (en) * 1997-12-18 1999-10-19 Acuson Corporation Ultrasonic system and method for measurement of fluid flow
US6312385B1 (en) * 2000-05-01 2001-11-06 Ge Medical Systems Global Technology Company, Llc Method and apparatus for automatic detection and sizing of cystic objects
US7940966B2 (en) * 2000-11-24 2011-05-10 U-Systems, Inc. Full-field breast image data processing and archiving
JP4614548B2 (ja) * 2001-01-31 2011-01-19 パナソニック株式会社 超音波診断装置
US7819806B2 (en) * 2002-06-07 2010-10-26 Verathon Inc. System and method to identify and measure organ wall boundaries
US7450746B2 (en) * 2002-06-07 2008-11-11 Verathon Inc. System and method for cardiac imaging
US8221322B2 (en) * 2002-06-07 2012-07-17 Verathon Inc. Systems and methods to improve clarity in ultrasound images
JP3905470B2 (ja) * 2002-12-26 2007-04-18 アロカ株式会社 超音波診断装置
US7558402B2 (en) * 2003-03-07 2009-07-07 Siemens Medical Solutions Usa, Inc. System and method for tracking a global shape of an object in motion
US20050033123A1 (en) * 2003-07-25 2005-02-10 Siemens Medical Solutions Usa, Inc. Region of interest methods and systems for ultrasound imaging
EP1673013B1 (fr) * 2003-09-29 2010-10-20 Koninklijke Philips Electronics N.V. Quantification ultrasonore du volume cardiaque
US7090640B2 (en) * 2003-11-12 2006-08-15 Q-Vision System and method for automatic determination of a region of interest within an image
KR100686289B1 (ko) * 2004-04-01 2007-02-23 주식회사 메디슨 대상체 영상의 윤곽내 볼륨 데이터를 이용하는 3차원초음파 영상 형성 장치 및 방법
US20060004291A1 (en) * 2004-06-22 2006-01-05 Andreas Heimdal Methods and apparatus for visualization of quantitative data on a model
US20050281444A1 (en) * 2004-06-22 2005-12-22 Vidar Lundberg Methods and apparatus for defining a protocol for ultrasound imaging
US7454048B2 (en) * 2004-08-27 2008-11-18 General Electric Company Methods and systems for motion correction in an ultrasound volumetric data set
US7428334B2 (en) * 2004-08-27 2008-09-23 General Electric Company Methods and systems for 3D segmentation of ultrasound images
US7853304B2 (en) * 2005-05-13 2010-12-14 Tomtec Imaging Systems Gmbh Method and device for reconstructing two-dimensional sectional images
WO2007016165A1 (fr) * 2005-07-29 2007-02-08 Cook Incorporated Dispositif elliptique implantable
US8929621B2 (en) * 2005-12-20 2015-01-06 Elekta, Ltd. Methods and systems for segmentation and surface matching
JP4945273B2 (ja) * 2006-04-24 2012-06-06 株式会社東芝 超音波診断装置、及び超音波診断装置の制御プログラム
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
JP2010521272A (ja) * 2007-03-16 2010-06-24 エスティーアイ・メディカル・システムズ・エルエルシー 標準化された撮像データを実現するために撮像デバイスに自動品質フィードバックを与える方法
JP5319157B2 (ja) * 2007-09-04 2013-10-16 株式会社東芝 超音波診断装置、超音波画像処理装置、及び超音波画像処理プログラム
JP5637653B2 (ja) * 2008-08-18 2014-12-10 株式会社東芝 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
IT1391829B1 (it) * 2008-11-21 2012-01-27 C N R Consiglio Naz Delle Ricerche Apparato basato sugli ultrasuoni per misurare parametri indicatori di avanzamento di un parto
US8956296B2 (en) * 2008-11-24 2015-02-17 Fujifilm Sonosite, Inc. Systems and methods for active optimized spatio-temporal sampling
CN101744639A (zh) * 2008-12-19 2010-06-23 Ge医疗系统环球技术有限公司 超声成像方法及设备
WO2010116965A1 (fr) * 2009-04-06 2010-10-14 株式会社 日立メディコ Dispositif de diagnostic d'imagerie médicale, procédé de définition de région d'intérêt, dispositif de traitement d'image médicale et programme de définition de région d'intérêt
JP5735914B2 (ja) * 2009-07-30 2015-06-17 株式会社日立メディコ 超音波診断装置とその関心領域設定方法
US20110255762A1 (en) * 2010-04-15 2011-10-20 Harald Deischinger Method and system for determining a region of interest in ultrasound data
US20120232392A1 (en) * 2011-03-10 2012-09-13 Fujifilm Corporation Ultrasound diagnostic apparatus
US8798342B2 (en) * 2011-05-10 2014-08-05 General Electric Company Method and system for ultrasound imaging with cross-plane images
WO2013063465A1 (fr) * 2011-10-28 2013-05-02 Ultrasound Medical Devices, Inc. Procédé pour obtenir une mesure de vitesse tridimensionnelle d'un tissu

Also Published As

Publication number Publication date
US20120288172A1 (en) 2012-11-15
US8798342B2 (en) 2014-08-05
CN102805648B (zh) 2015-10-21
CN102805648A (zh) 2012-12-05
DE102012103990A1 (de) 2012-11-15

Similar Documents

Publication Publication Date Title
FR2975205A1 (fr) Procede et systeme pour imagerie par ultrasons avec images en plan de coupe
FR2984000A1 (fr) Systeme et procede d'imagerie ultrasonore
JP5265849B2 (ja) 超音波画像を3d切り出しするための方法及びシステム
JP6030825B2 (ja) 電磁気ノイズ除去のための超音波法
US8795178B2 (en) Ultrasound imaging system and method for identifying data from a shadow region
CN108805946B (zh) 用于为二维超声图像绘阴影的方法和系统
FR2993768A1 (fr) Systeme et procede d'imagerie echographique
EP3530192A2 (fr) Dispositif et procédé de tomographie opto-acoustique hybride et d'échographie
FR2986145A1 (fr) Procede et systeme pour surveiller une matrice de transducteurs dans un systeme d'echographie
JP2006051360A (ja) 超音波撮像域を拡張するための方法及び装置
FR3031448A1 (fr)
FR2709392A1 (fr) Système de formation d'images par ultrasons en trois dimensions.
FR2994525A1 (fr) Systeme et procede d'imagerie echographique
FR2916134A1 (fr) Procede et dispositif de mesure de debit volumique
US8343054B1 (en) Methods and apparatus for ultrasound imaging
EP3198301B1 (fr) Procédé et dispositif d'imagerie acoustique
FR2862517A1 (fr) Systemes pour doter un dispositif portatif de ressources etendues
US8348848B1 (en) Methods and apparatus for ultrasound imaging
EP2181324A2 (fr) Procede de mesure de proprietes viscoelastiques de tissus biologiques mettant en oeuvre un transducteur ultrasonore
FR3058885A1 (fr) Procede et systeme de detection et de visualisation ameliorees d'une aiguille chirurgicale dans des donnees ultrasonores, en realisant une imagerie d'elasticite par ondes de cisaillement
FR2862787A1 (fr) Procede interactif et interface utilisateur pour detecter un contour d'un objet
US20130018264A1 (en) Method and system for ultrasound imaging
EP3022578B1 (fr) Procédé et dispositif de cartographie de milieux fibreux
US11232611B2 (en) System and methods for reducing anomalies in ultrasound images
US10685439B2 (en) Imaging system and method providing scalable resolution in multi-dimensional image data

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20150130