FR2984000A1 - Systeme et procede d'imagerie ultrasonore - Google Patents
Systeme et procede d'imagerie ultrasonore Download PDFInfo
- Publication number
- FR2984000A1 FR2984000A1 FR1261646A FR1261646A FR2984000A1 FR 2984000 A1 FR2984000 A1 FR 2984000A1 FR 1261646 A FR1261646 A FR 1261646A FR 1261646 A FR1261646 A FR 1261646A FR 2984000 A1 FR2984000 A1 FR 2984000A1
- Authority
- FR
- France
- Prior art keywords
- image
- plane
- processor
- volume rendering
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/466—Displaying means of special interest adapted to display 3D data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8993—Three dimensional imaging systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52071—Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52074—Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/008—Cut plane or projection plane definition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Generation (AREA)
Abstract
La présente invention porte sur un système d'imagerie ultrasonore (100) qui comprend une sonde (105) conçue pour explorer un volume d'intérêt, un dispositif d'affichage (118), une interface utilisateur (115), et un processeur (116) en communication électronique avec la sonde (105), le dispositif d'affichage (118) et l'interface utilisateur (115). Le processeur (116) est configuré pour générer une image en rendu volumique, appliquer un codage couleur de la profondeur à l'image en rendu volumique, et afficher l'image en rendu volumique sur le dispositif d'affichage (118). Le processeur (116) est configuré pour générer une image plane d'un plan qui coupe l'image en rendu volumique, appliquer le codage couleur de la profondeur à l'image plane, et afficher l'image plane sur le dispositif d'affichage (118) en même temps que l'image en rendu volumique.
Description
Système et procédé d'imagerie ultrasonore La présente invention porte d'une manière générale sur un système et un procédé d'imagerie ultrasonore destinés à afficher une image en rendu volumique et une image plane qui sont toutes les deux colorisées selon le même système de colorisation en fonction de la profondeur, ou « codage couleur de la profondeur ». Des systèmes d'imagerie ultrasonore classiques acquièrent des données ultrasonores tridimensionnelles à partir d'un patient et sont ensuite capables de générer et d'afficher de multiples types d'images à partir des données ultrasonores tridimensionnelles. Par exemple, des systèmes d'imagerie ultrasonore classiques peuvent générer et afficher une image en rendu volumique sur la base des données ultrasonores tridimensionnelles et/ou des systèmes d'imagerie ultrasonore classiques peuvent générer une ou plusieurs images planes à partir des données ultrasonores tridimensionnelles. L'image en rendu volumique est une vue en perspective de surfaces rendues à partir des données ultrasonores tridimensionnelles, tandis que l'image plane est une image d'un plan de coupe dans le volume englobé par les données ultrasonores tridimensionnelles. Des utilisateurs utilisent typiquement une image en rendu volumique pour obtenir une vue globale d'un organe ou d'une structure, et visualisent ensuite une ou plusieurs images planes de coupes dans l'image en rendu volumique afin d'obtenir des vues plus détaillées de parties clés de l'anatomie du patient. Des images planes générées à partir de données ultrasonores tridimensionnelles sont très similaires à des images générées dans des modes d'imagerie ultrasonore bidimensionnelle classiques, tels que le mode B, dans lesquels une intensité est attribuée à chaque pixel en fonction de l'amplitude du signal ultrasonore reçu en provenance de la position, dans le patient, qui correspond au pixel. Des systèmes d'imagerie ultrasonore classiques permettent typiquement à l'utilisateur de commander une rotation et une translation de l'image en rendu volumique. D'une manière similaire, des systèmes d'imagerie ultrasonore classiques permettent à l'utilisateur de régler la position du plan qui est visualisé dans n'importe quelle image plane par des ajustements de translation et d'inclinaison. De plus, des systèmes d'imagerie ultrasonore permettent typiquement à l'utilisateur de faire un grossissement sur des structures spécifiques et de visualiser potentiellement de multiples images planes, représentant chacune un plan différent dans le volume capturé dans les données ultrasonores tridimensionnelles. En raison de toutes les manipulations d'image qui sont possibles sur des systèmes d'imagerie ultrasonore classiques, les utilisateurs peuvent facilement se retrouver désorientés dans le volume. Entre des ajustements et rotations apportés aux images en rendu volumique et des ajustements, y compris des translations, des rotations et des inclinaisons, apportés aux images planes, il peut devenir difficile, même pour un clinicien expérimenté, de rester orienté par rapport à l'anatomie du patient pendant la manipulation et l'ajustement de l'image en rendu volumique et/ou des images planes.
Pour ces raisons, ainsi que d'autres, il serait souhaitable de proposer un procédé et un système améliorés pour générer et afficher des images générées à partir de données ultrasonores tridimensionnelles.
Les inconvénients, désavantages et problèmes susmentionnés sont résolus par la présente invention, comme on l'appréciera en lisant et en comprenant la description suivante. Selon un mode de réalisation de l'invention, il est proposé un procédé d'imagerie ultrasonore comprenant la génération d'une image en rendu volumique à partir de données ultrasonores tridimensionnelles, l'image en rendu volumique étant colorisée avec au moins deux couleurs selon un codage couleur de la profondeur. Le procédé comprend l'affichage de l'image en rendu volumique. Le procédé comprend la génération d'une image plane à partir des données ultrasonores tridimensionnelles, l'image plane étant colorisée selon le même codage couleur de la profondeur que l'image en rendu volumique. Le procédé comprend également l'affichage de l'image plane.
Selon un autre mode de réalisation de l'invention, il est proposé un procédé d'imagerie ultrasonore comprenant la génération d'une image en rendu volumique à partir de données ultrasonores tridimensionnelles et l'application d'un codage couleur de la profondeur à l'image en rendu volumique Le procédé comprend l'affichage de l'image en rendu volumique après application du codage couleur de la profondeur à l'image en rendu volumique. Le procédé comprend la génération d'une image plane d'un plan qui coupe l'image en rendu volumique, l'application du codage couleur de la profondeur à l'image plane, et l'affichage de l'image plane après application du codage couleur de la profondeur à l'image plane. Selon un autre mode de réalisation de l'invention, il est proposé un système d'imagerie ultrasonore comprenant une sonde conçue pour explorer un volume d'intérêt, un dispositif d'affichage, une interface utilisateur, et un processeur en communication électronique avec la sonde, le dispositif d'affichage et l'interface utilisateur. Le processeur est configuré pour générer une image en rendu volumique à partir de données ultrasonores tridimensionnelles, appliquer un codage couleur de la profondeur à l'image en rendu volumique, et afficher l'image en rendu volumique sur le dispositif d'affichage. Le processeur est également configuré pour générer une image plane d'un plan qui coupe l'image en rendu volumique, appliquer le codage couleur de la profondeur à l'image plane, et afficher l'image plane sur le dispositif d'affichage en même temps que l'image en rendu volumique. De préférence, le processeur peut être configuré pour attribuer une première couleur à des pixels représentant des structures se trouvant à une première pluralité de profondeurs et une seconde couleur à des pixels représentant des structures se trouvant à une seconde pluralité de profondeurs selon le codage couleur de la profondeur ; le codage couleur de la profondeur peut comprendre une première couleur attribuée à des pixels représentant des structures qui sont plus proches d'un plan de visualisation et une seconde couleur attribuée à des pixels représentant des structures qui sont plus éloignées du plan de visualisation ; et/ou l'image plane peut comprendre une image d'un plan qui coupe l'image en rendu volumique. De préférence, le processeur peut être configuré pour afficher l'image plane et l'image en rendu volumique toutes les deux en même temps sur le dispositif d'affichage, auquel cas une fenêtre de visualisation peut être affichée sur l'image plane, la fenêtre de visualisation délimitant au moins partiellement le volume utilisé pour générer l'image en rendu volumique, et/ou l'image plane peut être colorisée selon le codage couleur de la profondeur seulement à l'intérieur de la fenêtre de visualisation, et/ou une image en rendu volumique mise à jour peut être générée et affichée en temps réel en réponse à un ajustement, par un utilisateur, de la forme de la fenêtre de visualisation au moyen de l'interface utilisateur ; et/ou pour générer une deuxième image plane qui est colorisée selon le codage couleur de la profondeur, auquel cas la deuxième image plane peut être affichée sur le dispositif d'affichage en même temps que l'image plane et l'image en rendu volumique. Divers autres objectifs, caractéristiques et avantages de l'invention apparaîtront à l'homme du métier à l'étude des dessins annexés et de leur description détaillée. La figure 1 est un schéma de principe d'un système d'imagerie ultrasonore selon un mode de réalisation ; - la figure 2 est une représentation schématique de la géométrie qui peut être utilisée pour générer une image en rendu volumique selon un mode de réalisation ; - la figure 3 est une représentation schématique d'une capture d'écran selon un mode de réalisation ; et - la figure 4 est un organigramme représentant les étapes d'un procédé selon un mode de réalisation. La figure 1 est un schéma de principe d'un système d'imagerie ultrasonore 100 selon un mode de réalisation. Le système d'imagerie ultrasonore 100 comprend un émetteur 102 qui envoie un signal à un dispositif de formation de faisceau d'émission 103 qui commande à son tour des éléments transducteurs 104 d'une matrice de transducteurs 106 afin d'émettre des signaux ultrasonores impulsionnels dans une structure, telle qu'un patient (non représenté). Une sonde 105 comprend la matrice de transducteurs 106, les éléments transducteurs 104 et de l'électronique de sonde/SAP 107. La sonde 105 peut être une sonde 4D électronique (E4D), une sonde 3D mécanique, ou n'importe quel autre type de sonde capable d'acquérir des données ultrasonores tridimensionnelles. L'électronique de sonde/SAP 107 peut être utilisée pour commander la commutation des éléments transducteurs 104. L'électronique de sonde/SAP 107 peut également être utilisée pour grouper les éléments transducteurs 104 en une ou plusieurs sous-ouvertures. Diverses géométries de matrices de transducteurs peuvent être utilisées. Les signaux ultrasonores impulsionnels sont rétrodiffusés par des structures dans le corps, telles que des cellules sanguines ou des tissus musculaires, ce qui produit des échos qui reviennent vers les éléments transducteurs 104. Les échos sont convertis en signaux électriques, ou données ultrasonores, par les éléments transducteurs 104 et les signaux électriques sont reçus par un récepteur 108. Les signaux électriques représentant les échos reçus sont faits passer dans un dispositif de formation de faisceau de réception 110 qui délivre des données ultrasonores ou des données ultrasonores tridimensionnelles. Une interface utilisateur 115 peut être utilisée pour commander le fonctionnement du système d'imagerie ultrasonore 100, y compris commander l'entrée de données de patient, modifier un paramètre de balayage ou d'affichage, et analogue. Le système d'imagerie ultrasonore 100 comprend également un processeur 116 pour traiter les données ultrasonores et générer des vues ou images à afficher sur un dispositif d'affichage 118. Le processeur 116 peut comprendre un seul composant de traitement ou plusieurs composants de traitement séparés. Par exemple, le processeur 116 peut comprendre une unité centrale (CPU), un microprocesseur, une unité de traitement graphique (GPU) ou n'importe quel autre composant électronique capable de traiter des données d'entrée conformément à des instructions logiques spécifiques. Il peut être avantageux d'employer un processeur qui comprend une GPU pour des opérations lourdes en calculs, telles qu'un rendu volumique, qui seront décrites plus en détail dans ce qui suit. Le processeur 116 est en communication électronique avec la sonde 105, le dispositif d'affichage 118 et l'interface utilisateur 115. Le processeur 116 peut être connecté par câble à la sonde 105, au dispositif d'affichage 118 et à l'interface utilisateur 115, ou le processeur 116 peut être en communication électronique selon d'autres techniques, y compris par communication sans fil. Le dispositif d'affichage 118 peut être un écran plat à diodes électroluminescentes (DEL) selon un mode de réalisation. Le dispositif d'affichage 118 peut comprendre un écran, un moniteur, un projecteur, un écran plat à DEL ou un écran plat à cristaux liquides (LCD) selon d'autres modes de réalisation.
Le processeur 116 peut être conçu pour effectuer une ou plusieurs opérations de traitement, selon une pluralité de modalités ultrasonores sélectionnables, sur les données ultrasonores. D'autres modes de réalisation peuvent utiliser de multiples processeurs pour effectuer diverses tâches de traitement. Le processeur 116 peut également être conçu pour commander l'acquisition de données ultrasonores au moyen de la sonde 105. Les données ultrasonores peuvent être traitées en temps réel durant une séance d'exploration à mesure que les signaux d'écho sont reçus. Aux fins de cette description, le terme « temps réel » est défini comme englobant un traitement exécuté sans retard ni délai intentionnel. Un mode de réalisation peut mettre à jour l'image ultrasonore affichée à une fréquence supérieure à 20 fois par seconde. Les images peuvent être affichées sous la forme d'une partie d'une image en direct. Aux fins de cette description, le terme « image en direct » est défini comme englobant une image dynamique qui est mise à jour à mesure que des données ultrasonores supplémentaires sont acquises. Par exemple, des données ultrasonores peuvent être acquises même pendant que des images sont en train d'être générées sur la base de données précédemment acquises et pendant qu'une image en direct est en train d'être affichée. Ensuite, selon un mode de réalisation, à mesure que des données ultrasonores supplémentaires sont acquises, des vues ou images supplémentaires générées à partir de données ultrasonores plus récemment acquises sont successivement affichées. De plus ou selon une variante, les données ultrasonores peuvent être temporairement stockées dans un tampon durant une séance d'exploration et traitées en temps non réel dans une opération en direct ou hors ligne. D'autres modes de réalisation de l'invention peuvent comprendre de multiples processeurs (non représentés) pour gérer les tâches de traitement. Par exemple, un premier processeur peut être utilisé pour démoduler et décimer le signal ultrasonore tandis qu'un second processeur peut être utilisé pour traiter davantage les données avant d'afficher une image. On appréciera le fait que d'autres modes de réalisation peuvent utiliser un agencement de processeurs différent.
Le processeur 116 peut être utilisé pour générer une image, telle qu'une image en rendu volumique ou une image plane, à partir de données ultrasonores tridimensionnelles acquises par la sonde 105. Selon un mode de réalisation, les données ultrasonores tridimensionnelles comprennent une pluralité de voxels, ou éléments de volume. Une valeur ou intensité est attribuée à chaque voxel sur la base des propriétés acoustiques du tissu correspondant à un voxel particulier. La figure 2 est une représentation schématique de la géométrie qui peut être utilisée pour générer une image en rendu volumique selon un mode de réalisation. La figure 2 comprend un ensemble de données ultrasonores tridimensionnelles 150 et un plan de visualisation 154. A propos des figures 1 et 2, le processeur 116 peut générer une image en rendu volumique selon un certain nombre de techniques différentes. Selon un exemple de réalisation, le processeur 116 peut générer une image en rendu volumique selon une technique de lancer de rayon (« ray-casting » en langue anglaise) à partir du plan de visualisation 154. Le processeur 116 peut lancer une pluralité de rayons parallèles, depuis le plan de visualisation 154 vers les données ultrasonores tridimensionnelles 150. La figure 2 représente un rayon 156, un rayon 158, un rayon 160 et un rayon 162 bornant le plan de visualisation 154. On appréciera le fait qu'il est possible de lancer beaucoup plus de rayons de manière à attribuer des valeurs à tous les pixels 163 présents dans le plan de visualisation 154. Les données ultrasonores tridimensionnelles 150 comprennent des données de voxel, une valeur ou intensité étant attribuée à chaque voxel. Selon un mode de réalisation, le processeur 116 peut utiliser une technique « d'avant en arrière » (« front-to-back » en langue anglaise) standard pour une composition volumique de manière à attribuer une valeur à chaque pixel du plan de visualisation 154 qui est coupé par un rayon. Chaque voxel peut se voir attribuer une valeur et une opacité sur la base de l'information présente dans les données ultrasonores tridimensionnelles 150. Par exemple, en partant de l'avant, c'est-à- dire dans le sens dans lequel l'image est vue, chaque valeur le long d'un rayon peut être multipliée par une opacité correspondante. Cela génère des valeurs pondérées par l'opacité, qui sont ensuite cumulées dans un sens avant-arrière le long de chacun des rayons. Ce processus est répété pour chacun des pixels 163 du plan de visualisation 154 de manière à générer une image en rendu volumique. Selon un mode de réalisation, les valeurs de pixel du plan de visualisation 154 peuvent être affichées à titre d'image en rendu volumique. L'algorithme de rendu volumique peut être configuré pour utiliser une fonction d'opacité assurant une transition progressive d'opacité de zéro (complètement transparent) à 1,0 (complètement opaque). L'algorithme de rendu volumique peut factoriser les opacités des voxels le long de chacun des rayons lors de l'attribution d'une valeur à chacun des pixels 163 du plan de visualisation 154. Par exemple, des voxels ayant des opacités proches de 1,0 bloqueront la majeure partie des contributions de voxels plus éloignés le long du rayon, tandis que des voxels ayant des opacités plus proches de zéro laisseront passer la majeure partie des contributions de voxels plus éloignés le long du rayon. De plus, lors de la visualisation d'une surface, une opération de seuillage peut être effectuée dans laquelle les opacités de voxels sont réattribuées sur la base d'un seuil. Selon un exemple d'opération de seuillage, les opacités de voxels ayant des valeurs supérieures au seuil peuvent être mises à 1,0 tandis que les opacités de voxels ayant des valeurs inférieures au seuil peuvent être mises à zéro. Ce type de seuillage élimine les contributions de tous les voxels autres que le premier voxel supérieur au seuil le long du rayon. D'autres types d'opérations de seuillage peuvent également être utilisés. Par exemple, il est possible d'utiliser une fonction d'opacité dans laquelle des voxels qui sont nettement supérieurs au seuil sont mis à 1,0 (c'est-à-dire opaques) et des voxels qui sont nettement inférieurs au seuil sont mis à zéro (translucides). La fonction d'opacité utilisée peut toutefois attribuer des opacités autres que zéro et 1,0 aux voxels ayant des valeurs qui sont proches du seuil. Cette « zone de transition » est utilisée pour réduire des artéfacts qui peuvent apparaître quand on utilise un simple algorithme de seuillage binaire. Par exemple, il est possible d'utiliser une fonction linéaire faisant correspondre des valeurs à des opacités pour attribuer des opacités à des voxels ayant des valeurs incluses dans la « zone de transition ». D'autres types de fonctions qui croissent de zéro à 1,0 peuvent être utilisés selon d'autres modes de réalisation. Selon un exemple de réalisation, un ombrage par gradient peut être utilisé pour générer une image en rendu volumique de manière à donner à l'utilisateur une meilleure perception de profondeur concernant les surfaces. Par exemple, des surfaces dans les données ultrasonores tridimensionnelles 150 peuvent être définies partiellement par utilisation d'un seuil qui supprime des données inférieures ou supérieures à une valeur seuil. Ensuite, des gradients peuvent être déterminés à l'intersection de chaque rayon et de la surface. Comme décrit plus haut, un rayon est tracé de chacun des pixels 163 du plan de visualisation 154 à la surface déterminée dans l'ensemble de données 150. Une fois qu'un gradient a été calculé au niveau de chacun des rayons, un processeur 116 (représenté sur la figure 1) peut calculer une réflexion de lumière en des positions de la surface qui correspondent à chacun des pixels 163 et appliquer des procédés d'ombrage classiques fondés sur les gradients. Selon un autre mode de réalisation, le processeur 116 identifie des groupes de voxels connexes d'intensités similaires de manière à déterminer une ou plusieurs surfaces dans les données 3D. Selon d'autres modes de réalisation, les rayons peuvent être lancés à partir d'un seul point de vue. Selon tous les exemples de génération d'une image en rendu volumique non limitatifs listés plus haut, le processeur 116 peut utiliser des couleurs de manière à donner des informations de profondeur à l'utilisateur. Toujours à propos de la figure 1, à titre de partie du traitement de rendu volumique, un tampon de profondeur 117 (« depth buffer » en langue anglaise) peut être rempli par le processeur 116. Le tampon de profondeur 117 contient une valeur de profondeur attribuée à chaque pixel dans l'image en rendu volumique. La valeur de profondeur représente la distance du pixel à une surface, dans le volume, représentée dans ce pixel particulier. Une valeur de profondeur peut également être définie comme étant la distance au premier voxel qui a une valeur supérieure à un seuil définissant une surface. Chaque valeur de profondeur peut être associée à une valeur de couleur selon un codage couleur de la profondeur. Le processeur 116 peut ainsi générer une image en rendu volumique qui est colorisée selon un codage couleur de la profondeur. Par exemple, chaque pixel de l'image en rendu volumique peut être colorisé en fonction de sa profondeur par rapport au plan de visualisation 154 (représenté sur la figure 2). Selon un exemple de système de colorisation (codage couleur), des pixels représentant des surfaces se trouvant à une première pluralité de profondeurs, telles que des structures se trouvant à des profondeurs relativement faibles, peuvent être colorisés en une première couleur, telle que le bronze. Des pixels représentant des surfaces se trouvant à une seconde pluralité de profondeurs, telles que de plus grandes profondeurs, peuvent être colorisés en une seconde couleur, telle que le bleu. Il est possible d'utiliser des intensités variables de la première couleur et de la seconde couleur pour donner à l'examinateur davantage d'indications de profondeur. De plus, la couleur utilisée pour les pixels peut passer progressivement du bronze au bleu à mesure que la profondeur croît, selon un mode de réalisation. L'homme du métier appréciera le fait que de nombreux autres codages couleur de la profondeur, y compris ceux qui utilisent des couleurs différentes et/ou plus de deux couleurs différentes, peuvent être utilisés selon d'autres modes de réalisation. Toujours à propos de la figure 1, le système d'imagerie ultrasonore 100 peut acquérir d'une manière continue des données ultrasonores à une fréquence d'image allant par exemple de 5 Hz à 50 Hz en fonction de la taille et de la résolution spatiale des données ultrasonores. Toutefois, d'autres modes de réalisation peuvent acquérir des données ultrasonores à une fréquence différente. Une mémoire 120 est utilisée pour stocker des images traitées de données ultrasonores acquises qui ne doivent pas être immédiatement affichées. Les images de données ultrasonores sont stockées d'une manière qui facilitera leur extraction dans leur ordre d'acquisition ou suivant leurs instants d'acquisition. Comme décrit plus haut, les données ultrasonores peuvent être extraites durant la génération et l'affichage d'une image en direct. La mémoire 120 peut comprendre n'importe quel support de stockage de données connu. Facultativement, des modes de réalisation de la présente invention peuvent être mis en oeuvre en utilisant des produits de contraste. L'imagerie de contraste génère des images améliorées de structures anatomiques et du flux sanguin dans un corps en utilisant des produits de contraste ultrasonore comprenant des microbulles. Après acquisition de données ultrasonores pendant qu'un produit de contraste est utilisé, l'analyse d'image consiste à séparer des composantes harmonique et fondamentale, accentuer la composante harmonique et générer une image ultrasonore par utilisation de la composante harmonique accentuée. La séparation de composantes harmoniques des signaux reçus est effectuée au moyen de filtres appropriés. L'utilisation de produits de contraste pour l'imagerie ultrasonore est bien connue de l'homme du métier et ne sera donc pas décrite plus en détail. Selon divers modes de réalisation de la présente invention, des données ultrasonores peuvent être traitées par des modules relatifs à des modes autres ou différents. Les images sont stockées et des informations temporelles indiquant un instant auquel l'image a été acquise en mémoire peuvent être enregistrées avec chaque image. Les modules peuvent comprendre, par exemple, un module de conversion de balayage pour effectuer des opérations de conversion de balayage afin de convertir les images individuelles de coordonnées polaires en coordonnées cartésiennes. Un module de traitement vidéo peut être utilisé qui lit les images dans une mémoire et affiche l'image en temps réel pendant qu'une procédure est en train d'être effectuée sur un patient. Un module de traitement vidéo peut stocker l'image dans une mémoire d'image, dans laquelle les images sont lues pour être affichées. Le système d'imagerie ultrasonore 100 représenté peut être un système à pupitre, un système sur chariot, ou un système portable tel qu'un système du type ordinateur portable ou portatif, selon divers modes de réalisation. La figure 3 est une représentation schématique d'une capture d'écran d'une image 300 qui peut être affichée selon un mode de réalisation. L'image 300 est divisée en 4 régions selon un exemple de réalisation. Une image séparée peut être affichée dans chacune des régions. L'image 300 peut être affichée sur un dispositif d'affichage tel que le dispositif d'affichage 118 représenté sur la figure 1. La capture d'écran 300 comprend une image en rendu volumique 302, une première image plane 304, une deuxième image plane 306 et une troisième image plane 308. La figure 3 sera décrite plus en détail plus bas. On se rapportera maintenant à la figure 4 qui représente un organigramme selon un mode de réalisation. Les blocs individuels représentent des étapes qui peuvent être exécutées selon un procédé 400. Des modes de réalisation supplémentaires peuvent exécuter dans un ordre différent les étapes représentées et/ou des modes de réalisation supplémentaires peuvent comprendre des étapes supplémentaires non représentées sur la figure 4. L'effet technique du procédé 400 est d'afficher d'une image en rendu volumique qui a été colorisée selon un codage couleur de la profondeur et d'afficher une image plane qui a été colorisée selon le même codage couleur de la profondeur. Le procédé 400 sera décrit selon un exemple de réalisation dans lequel le procédé est mis en oeuvre par le processeur 116 du système d'imagerie ultrasonore 100 de la figure 1. L'homme du métier appréciera le fait que des systèmes d'imagerie ultrasonore différents peuvent être utilisés pour exécuter les étapes du procédé 400 selon d'autres modes de réalisation. De plus, selon d'autres modes de réalisation, le procédé 400 peut être mis en oeuvre par une station de travail pouvant accéder à des données ultrasonores tridimensionnelles qui ont été acquises par un système d'imagerie ultrasonore séparé. A propos maintenant des figures 1, 3 et 4, à une étape 402, le processeur 116 accède à des données ultrasonores tridimensionnelles. Selon un mode de réalisation, il est possible d'accéder en temps réel aux données ultrasonores tridimensionnelles à mesure que les données sont acquises par la sonde 105. Selon un autre mode de réalisation, le processeur 116 peut accéder aux données ultrasonores tridimensionnelles dans une mémoire ou un dispositif de stockage. A une étape 404, le processeur 116 génère une image en rendu volumique à partir des données ultrasonores tridimensionnelles. A une étape 406, le processeur 116 applique un codage couleur de la profondeur à l'image en rendu volumique de manière à coloriser l'image en rendu volumique. Le processeur 116 peut coloriser les pixels de l'image en rendu volumique sur la base des profondeurs associées à chacun des pixels. Les informations de profondeur pour chacun des pixels peuvent être placées dans le tampon de profondeur 117. En conséquence, le processeur 116 peut accéder au tampon de profondeur 117 afin de déterminer les profondeurs des structures représentées dans chacun des pixels. Par exemple, des pixels représentant des structures incluses dans une première plage de profondeurs par rapport à un plan de visualisation peuvent se voir attribuer une première couleur et des pixels représentant des structures incluses dans une seconde plage de profondeurs peuvent se voir attribuer une seconde couleur qui est différente de la première couleur. Si la structure représentée par le pixel est incluse dans une première plage de profondeurs par rapport au plan de visualisation, alors le processeur 116 peut attribuer la première couleur au pixel. D'autre part, si la structure représentée par le pixel est incluse dans la seconde plage de profondeurs par rapport au plan de visualisation, alors le processeur 116 peut attribuer la seconde couleur au pixel. Selon un mode de réalisation, la première plage de profondeurs peut être moins profonde que la seconde plage de profondeurs.
A une étape 408, le processeur 116 affiche une image en rendu volumique, telle que l'image en rendu volumique 302, sur le dispositif d'affichage 118. On notera que l'image en rendu volumique 302 est affichée après que le processeur 116 a appliqué le codage couleur de la profondeur à l'image en rendu volumique à l'étape 406. De ce fait, les pixels de l'image en rendu volumique 302 sont colorisés en fonction de la profondeur de la structure représentée dans chacun des pixels. Sur la figure 3, des régions qui sont colorisées en une première couleur sont représentées par des hachures simples tandis que des régions qui sont colorisées en une seconde couleur sont représentées par des hachures croisées. Selon un exemple de réalisation, l'image en rendu volumique 302 représente un rendu volumique du coeur d'un patient. Une valvule mitrale et une valvule tricuspide sont visibles dans l'image en rendu volumique 302. Selon un mode de réalisation, toutes les régions colorisées en la première couleur (représentée par des hachures simples) représentent des structures qui sont plus proches d'un plan de visualisation, et donc plus proches de l'examinateur regardant le dispositif d'affichage 118. Par ailleurs, toutes les régions colorisées en la seconde couleur (représentée par des hachures croisées) représentent des structures qui sont plus éloignées du plan de visualisation et de l'examinateur. La colorisation d'une image en rendu volumique selon un codage couleur de la profondeur permet à un examinateur d'interpréter et comprendre plus facilement les profondeurs relatives de structures représentées dans une image en rendu volumique. Sans un certain type de codage couleur de la profondeur, il peut être difficile pour un examinateur de déterminer si une structure représentée dans une image en rendu volumique se trouve à une plus grande ou une plus petite profondeur que d'autres structures représentées dans l'image en rendu volumique.
Toujours à propos des figures 1, 3 et 4, à une étape 410, le processeur 116 génère une image plane à partir des données ultrasonores tridimensionnelles ayant fait l'objet d'un accès à l'étape 402. Selon un mode de réalisation, l'image plane peut être une vue des quatre cavités du coeur, telle que celle représentée dans la première image plane 304 sur la figure 3. Pour le reste de la description, le procédé 400 sera décrit selon un exemple de réalisation dans lequel l'image plane est la première image plane 304. On appréciera le fait que selon d'autres modes de réalisation, l'image plane peut représenter des plans différents. La première image plane 304 coupe l'image en rendu volumique 302. Ensuite, à une étape 412, le processeur 116 applique le codage couleur de la profondeur à une partie de la première image plane 304. Le processeur 116 colorise la première image plane 304 par application du même codage couleur de la profondeur que celui ayant été utilisé pour coloriser l'image en rendu volumique 302. En d'autres termes, les mêmes couleurs sont associées aux mêmes plages de profondeurs lors de la colorisation de l'image en rendu volumique 302 et de la première image plane 304. Comme pour l'image en rendu volumique 302, les hachures simples et les hachures croisées représentent les régions de la première image plane 304 qui sont colorisées en la première couleur et la seconde couleur, respectivement. Selon un mode de réalisation, seules les parties de la première image plane 304 qui sont incluses dans une première fenêtre de visualisation 309 sont colorisées selon le codage couleur de la profondeur. Par exemple, le processeur 116 peut accéder au tampon de profondeur 117 de manière à déterminer les profondeurs des structures associées à chacun des pixels de la première image plane. Le processeur 116 peut ensuite coloriser la première image plane sur la base du même codage couleur de la profondeur que celui utilisé pour coloriser l'image en rendu volumique. A savoir, le processeur 116 peut attribuer la même première couleur à des pixels représentant des structures qui sont incluses dans la première plage de profondeurs et le processeur 116 peut attribuer la même seconde couleur à des pixels représentant des structures incluses dans la seconde plage de profondeurs. La première fenêtre de visualisation 309 représente graphiquement l'étendue du volume de données utilisé pour générer l'image en rendu volumique 302. En d'autres termes, la première fenêtre de visualisation 309 représente l'intersection du plan représenté dans la première image plane 304 et du volume à partir duquel l'image en rendu volumique 302 est générée. Selon un mode de réalisation, l'utilisateur peut manipuler la première fenêtre de visualisation 309 par l'intermédiaire de l'interface utilisateur 115 de manière à modifier la taille et/ou la forme du volume de données utilisé pour générer l'image en rendu volumique 302. Par exemple, l'utilisateur peut utiliser une souris ou boule de commande de l'interface utilisateur 115 pour déplacer un coin ou un bord de la première fenêtre de visualisation 309 de manière à modifier la taille et/ou la forme du volume utilisé pour générer l'image en rendu volumique 302. Selon un mode de réalisation, le processeur 116 peut générer et afficher une image en rendu volumique mise à jour en réponse à la modification de taille ou de forme indiquée par l'ajustement de la première fenêtre de visualisation 309. L'image en rendu volumique mise à jour peut être affichée à la place de l'image en rendu volumique 302. Par exemple, si l'utilisateur modifiait la première fenêtre de visualisation 309 en réduisant la taille de la première fenêtre de visualisation 309, alors l'image en rendu volumique serait générée en utilisant un plus petit volume de données. De manière similaire, si l'utilisateur modifiait la première fenêtre de visualisation 309 en augmentant la taille de la première fenêtre de visualisation 309, alors une image en rendu volumique mise à jour serait générée sur la base d'un plus grand volume de données. Selon un mode de réalisation, des images en rendu volumique mises à jour peuvent être générées et affichées en temps réel à mesure que l'utilisateur ajuste la première fenêtre de visualisation 309. Cela permet à l'utilisateur de voir rapidement les modifications de l'image en rendu volumique qui résultent d'ajustements de la première fenêtre de visualisation 309. La taille et la résolution de l'ensemble de données ultrasonores tridimensionnelles utilisé pour générer l'image en rendu volumique, ainsi que la vitesse du processeur 116, détermineront la vitesse à laquelle il est possible de générer et d'afficher l'image en rendu volumique mise à jour. L'image en rendu volumique mise à jour peut être colorisée selon le même codage couleur de la profondeur que l'image en rendu volumique 302 et la première image plane 304. Etant donné que la première image plane 304 est colorisée selon le même codage couleur de la profondeur que l'image en rendu volumique 302, il est très facile pour un utilisateur de comprendre la position précise de structures se trouvant dans la première image plane 304. Par exemple, étant donné que des structures représentées en la première couleur (représentée par les hachures simples sur la figure 3) sont plus proches du plan de visualisation que des structures représentées en la seconde couleur (représentée par les hachures croisées sur la figure 3), l'utilisateur peut facilement voir la position de la première image plane 304 par rapport à l'image en rendu volumique 302. Par exemple, la première image plane 304 comprend à la fois la première couleur (hachures simples) et la seconde couleur (hachures croisées) dans la première fenêtre de visualisation 309. Ces couleurs sont les mêmes que les couleurs utilisées dans l'image en rendu volumique 302. De ce fait, en observant les couleurs dans la première image plane 304, l'utilisateur peut déterminer rapidement et précisément l'orientation du plan représenté dans la première image plane 304 par rapport à l'image en rendu volumique 302. De plus, en regardant ensemble la première image plane 304 et l'image en rendu volumique 302, l'utilisateur peut se fier aux couleurs pour s'appliquer à identifier assurément une ou plusieurs structures clés dans l'une ou l'autre des images. A une étape 414, l'image plane est affichée. L'image plane peut comprendre la première image plane 304. Selon un exemple de réalisation, la première image plane 304 peut être affichée sur le dispositif d'affichage 118 en même temps que l'image en rendu volumique, comme représenté sur la figure 3. La figure 3 comprend aussi la deuxième image plane 306 et la troisième image plane 308. Selon un mode de réalisation, la deuxième image plane 306 et la troisième image plane 308 peuvent être générées par exécution répétée des étapes 410, 412 et 414 du procédé 400 pour chacun des différents plans. La deuxième image plane comprend une deuxième fenêtre de visualisation 310 et la troisième image plane comprend une troisième fenêtre de visualisation 312. Selon un mode de réalisation, la deuxième image plane 306 peut être une vue grand axe et la troisième image plane 308 peut être une vue petit axe. La vue quatre cavités représentée dans la première image plane 304, la vue grand axe et la vue petit axe sont toutes des vues standard utilisées en échographie cardiovasculaire. Toutefois, l'homme du métier appréciera le fait que d'autres vues peuvent être utilisées selon d'autres modes de réalisation. De plus, d'autres modes de réalisation peuvent afficher en même temps un nombre différent d'images planes. Par exemple, certains modes de réalisation peuvent présenter plus de trois images planes, tandis que d'autres modes de réalisation peuvent présenter moins de trois images planes. De plus, le nombre d'images planes affichées en même temps peut être un paramètre sélectionnable par l'utilisateur. L'utilisateur peut sélectionner le nombre d'images planes et l'orientation des plans selon un mode de réalisation. Selon un mode de réalisation, l'utilisateur peut manipuler la deuxième fenêtre de visualisation 310 et la troisième fenêtre de visualisation 312 de la même manière que ce qui a été décrit plus haut à propos de la première fenêtre de visualisation 309. Par exemple, la deuxième fenêtre de visualisation 310 et la troisième fenêtre de visualisation 312 peuvent indiquer la partie des données qui est utilisée pour générer l'image en rendu volumique 302. L'utilisateur peut ajuster la position de la deuxième fenêtre de visualisation 310 ou de la troisième fenêtre de visualisation 312 de manière à modifier la partie des données ultrasonores tridimensionnelles qui est utilisée pour générer l'image en rendu volumique 302. De plus, on notera que, selon un mode de réalisation, les parties des images qui sont incluses dans les fenêtres de visualisation (309, 310, 312) sont toutes colorisées selon le même codage couleur de la profondeur que celui utilisé pour coloriser l'image en rendu volumique. Selon d'autres modes de réalisation, la totalité de la première image plane 304, la totalité de la deuxième image plane 306 et la totalité de la troisième image plane 308 peuvent être colorisées selon le même codage couleur de la profondeur.
Liste des composants FIGURE 1 : 100 Système d'imagerie ultrasonore 102 Emetteur 103 Dispositif de formation de faisceau d'émission 104 Eléments transducteurs 105 Sonde 106 Matrice de transducteurs 107 Electronique de sonde/SAP 108 Récepteur 110 Dispositif de formation de faisceau de réception 115 Interface utilisateur 116 Processeur 117 Tampon de profondeur 118 Dispositif d'affichage 120 Mémoire FIGURE 2 : 150 Données ultrasonores tridimensionnelles 154 Plan de visualisation 156 Rayon 158 Rayon 160 Rayon 162 Rayon 163 Pixels FIGURE 3 : 300 Capture d'écran 302 Image en rendu volumique 304 Première image plane 306 Deuxième image plane 308 Troisième image plane 309 Première fenêtre de visualisation 310 Deuxième fenêtre de visualisation 312 Troisième fenêtre de visualisation FIGURE 4 : 400 Procédé 402 Accès à des données ultrasonores tridimensionnelles 404 Génération d'une image en rendu volumique à partir des données ultrasonores tridimensionnelles 406 Application d'un codage couleur de la profondeur à l'image en rendu volumique 408 Affichage de l'image en rendu volumique 410 Génération d'une image plane à partir des données ultrasonores tridimensionnelles 412 Application du codage couleur de la profondeur à l'image plane 414 Affichage de l'image plane
Claims (10)
- REVENDICATIONS1. Système d'imagerie ultrasonore (100) comprenant : une sonde (105) conçue pour explorer un volume d'intérêt ; un dispositif d'affichage (118) ; une interface utilisateur (115) ; et un processeur (116) en communication électronique avec la sonde (105), le dispositif d'affichage (118) et l'interface utilisateur (115), dans lequel le processeur (116) est configuré pour : générer une image en rendu volumique à partir de données ultrasonores tridimensionnelles ; appliquer un codage couleur de la profondeur à l'image en rendu volumique ; afficher l'image en rendu volumique sur le dispositif d'affichage (118) ; générer une image plane d'un plan qui coupe l'image en rendu volumique ; appliquer le codage couleur de la profondeur à l'image plane ; et afficher l'image plane sur le dispositif d'affichage (118) en même temps que l'image en rendu volumique.
- 2. Système d'imagerie ultrasonore (100) selon la revendication 1, dans lequel le processeur (116) est configuré pour attribuer une première couleur à des pixels représentant des structures se trouvant à une première pluralité de profondeurs et une seconde couleur à des pixels représentant des structures se trouvant à une seconde pluralité de profondeurs selon le codage couleur de la profondeur.
- 3. Système d'imagerie ultrasonore (100) selon la revendication 1, dans lequel le codage couleur de la profondeurcomprend une première couleur attribuée à des pixels représentant des structures qui sont plus proches d'un plan de visualisation et une seconde couleur attribuée à des pixels représentant des structures qui sont plus éloignées du plan de visualisation.
- 4. Système d'imagerie ultrasonore (100) selon la revendication 1, dans lequel l'image plane comprend une image d'un plan qui coupe l'image en rendu volumique.
- 5. Système d'imagerie ultrasonore (100) selon la revendication 1, dans lequel le processeur (116) est configuré pour afficher l'image plane et l'image en rendu volumique sur le dispositif d'affichage (118) toutes les deux en même temps.
- 6. Système d'imagerie ultrasonore (100) selon la revendication 5, dans lequel le processeur (116) est en outre configuré pour afficher une fenêtre de visualisation sur l'image plane, la fenêtre de visualisation délimitant au moins partiellement le volume utilisé pour générer l'image en rendu volumique.
- 7. Système d'imagerie ultrasonore (100) selon la revendication 5, dans lequel le processeur (116) est configuré pour coloriser l'image plane selon le codage couleur de la profondeur seulement à l'intérieur de la fenêtre de visualisation.
- 8. Système d'imagerie ultrasonore (100) selon la revendication 1, dans lequel le processeur (116) est configuré pour générer et afficher une image en rendu volumique mise à jour en temps réel en réponse à un ajustement, par un utilisateur, de la forme de la fenêtre de visualisation au moyen de l'interface utilisateur (115).
- 9. Système d'imagerie ultrasonore (100) selon la revendication 1, dans lequel le processeur (116) est configuré pour générer une deuxième image plane qui est colorisée selon le codage couleur de la profondeur.
- 10. Système d'imagerie ultrasonore (100) selon la revendication 9, dans lequel le processeur (116) est configuré pour afficher la deuxième image plane sur le dispositif d'affichage (118) en même temps que l'image plane et l'image en rendu volumique.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/314,599 US20130150719A1 (en) | 2011-12-08 | 2011-12-08 | Ultrasound imaging system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2984000A1 true FR2984000A1 (fr) | 2013-06-14 |
Family
ID=48484020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1261646A Withdrawn FR2984000A1 (fr) | 2011-12-08 | 2012-12-05 | Systeme et procede d'imagerie ultrasonore |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130150719A1 (fr) |
JP (1) | JP6147489B2 (fr) |
CN (1) | CN103156638B (fr) |
FR (1) | FR2984000A1 (fr) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101009782B1 (ko) * | 2008-10-28 | 2011-01-19 | (주)메디슨 | 와이드 모드를 갖는 초음파 진단 시스템 및 그 제어 방법 |
KR101329748B1 (ko) * | 2012-03-07 | 2013-11-14 | 삼성메디슨 주식회사 | 영상 처리 장치 및 방법 |
CN105073017A (zh) * | 2013-04-12 | 2015-11-18 | 日立阿洛卡医疗株式会社 | 超声波诊断装置以及超声波三维图像生成方法 |
KR101851221B1 (ko) | 2013-07-05 | 2018-04-25 | 삼성전자주식회사 | 초음파 영상 장치 및 그 제어 방법 |
KR102377530B1 (ko) * | 2013-09-30 | 2022-03-23 | 삼성메디슨 주식회사 | 대상체의 3차원 영상을 생성하기 위한 방법 및 장치 |
EP2863363A1 (fr) * | 2013-09-30 | 2015-04-22 | Samsung Medison Co., Ltd. | Procédé et appareil de génération d'image tridimensionnelle d'objet cible |
KR20150064937A (ko) | 2013-12-04 | 2015-06-12 | 삼성전자주식회사 | 영상 처리 장치 및 영상 처리 방법 |
RU2689172C2 (ru) * | 2014-05-09 | 2019-05-24 | Конинклейке Филипс Н.В. | Системы визуализации и способы для расположения трехмерного ультразвукового объема в требуемой ориентации |
KR101580956B1 (ko) * | 2014-06-23 | 2015-12-30 | 포항공과대학교 산학협력단 | 소나 이미지 에뮬레이터 및 이를 이용한 소나 이미지 예측 방법 |
JP6640444B2 (ja) * | 2014-09-30 | 2020-02-05 | キヤノンメディカルシステムズ株式会社 | 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム |
US9763644B2 (en) * | 2015-03-27 | 2017-09-19 | Clarius Mobile Health Corp. | System and method for connecting and controlling wireless ultrasound imaging system from electronic device |
US10380786B2 (en) | 2015-05-29 | 2019-08-13 | General Electric Company | Method and systems for shading and shadowing volume-rendered images based on a viewing direction |
EP3106096B1 (fr) * | 2015-06-12 | 2020-02-19 | Samsung Medison Co., Ltd. | Procédé et appareil d'affichage d'image ultrasonore |
KR102578754B1 (ko) * | 2015-06-12 | 2023-09-15 | 삼성메디슨 주식회사 | 초음파 이미지 디스플레이 방법 및 이를 위한 장치 |
US10282888B2 (en) * | 2016-01-28 | 2019-05-07 | Biosense Webster (Israel) Ltd. | High definition coloring of heart chambers |
JP6574532B2 (ja) * | 2016-04-26 | 2019-09-11 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 超音波胎児撮像に対する3d画像合成 |
WO2018094688A1 (fr) * | 2016-11-25 | 2018-05-31 | 中国科学院深圳先进技术研究院 | Procédé et système de fluoroscopie pour la fluoroscopie de la structure interne d'un objet |
US10489969B2 (en) * | 2017-11-08 | 2019-11-26 | General Electric Company | Method and system for presenting shaded descriptors corresponding with shaded ultrasound images |
US11647989B2 (en) * | 2018-09-11 | 2023-05-16 | Philips Image Guided Therapy Corporation | Devices, systems, and methods for multimodal ultrasound imaging |
US10803612B2 (en) * | 2018-09-25 | 2020-10-13 | General Electric Company | Method and system for structure recognition in three-dimensional ultrasound data based on volume renderings |
US11399806B2 (en) * | 2019-10-22 | 2022-08-02 | GE Precision Healthcare LLC | Method and system for providing freehand render start line drawing tools and automatic render preset selections |
CN112704513B (zh) * | 2019-10-24 | 2024-10-11 | 深圳迈瑞生物医疗电子股份有限公司 | 四维超声成像方法、设备、系统和存储介质 |
US11113898B2 (en) * | 2019-12-20 | 2021-09-07 | GE Precision Healthcare LLC | Half box for ultrasound imaging |
US12059296B2 (en) * | 2020-08-26 | 2024-08-13 | GE Precision Healthcare LLC | Systems and methods for generating ultrasound probe guidance instructions |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3015727B2 (ja) * | 1996-05-21 | 2000-03-06 | アロカ株式会社 | 超音波診断装置 |
JP2003325513A (ja) * | 2002-05-16 | 2003-11-18 | Aloka Co Ltd | 超音波診断装置 |
US6825838B2 (en) * | 2002-10-11 | 2004-11-30 | Sonocine, Inc. | 3D modeling system |
DE10253617B4 (de) * | 2002-11-15 | 2005-06-30 | Siemens Ag | Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes |
US20040109014A1 (en) * | 2002-12-05 | 2004-06-10 | Rovion Llc | Method and system for displaying superimposed non-rectangular motion-video images in a windows user interface environment |
US8617075B2 (en) * | 2005-02-09 | 2013-12-31 | Hitachi Medical Corporation | Ultrasonic diagnostic apparatus and ultrasonic imaging method |
WO2007069174A1 (fr) * | 2005-12-15 | 2007-06-21 | Koninklijke Philips Electronics, N.V. | Debits plus rapides pour des images rendues en volume tridimensionnel, en temps reel |
US20070255139A1 (en) * | 2006-04-27 | 2007-11-01 | General Electric Company | User interface for automatic multi-plane imaging ultrasound system |
EP2030172B1 (fr) * | 2006-05-31 | 2019-07-31 | Koninklijke Philips N.V. | Procédé et appareil de rendu de volume utilisant la colorisation pondérée en profondeur |
KR100948047B1 (ko) * | 2006-06-29 | 2010-03-19 | 주식회사 메디슨 | 초음파 영상을 형성하는 초음파 시스템 및 방법 |
DE102007008767B3 (de) * | 2007-02-22 | 2008-07-24 | Tomtec Imaging Systems Gmbh | Verfahren und Vorrichtung zur Darstellung von 3D Bilddatensätzen auf 2D Bildern |
US7912264B2 (en) * | 2007-08-03 | 2011-03-22 | Siemens Medical Solutions Usa, Inc. | Multi-volume rendering of single mode data in medical diagnostic imaging |
US8090168B2 (en) * | 2007-10-15 | 2012-01-03 | General Electric Company | Method and system for visualizing registered images |
JP5525930B2 (ja) * | 2010-06-23 | 2014-06-18 | 株式会社日立メディコ | 三次元超音波画像を生成表示する超音波診断装置 |
US20120306849A1 (en) * | 2011-05-31 | 2012-12-06 | General Electric Company | Method and system for indicating the depth of a 3d cursor in a volume-rendered image |
-
2011
- 2011-12-08 US US13/314,599 patent/US20130150719A1/en not_active Abandoned
-
2012
- 2012-11-22 JP JP2012255770A patent/JP6147489B2/ja active Active
- 2012-12-05 FR FR1261646A patent/FR2984000A1/fr not_active Withdrawn
- 2012-12-07 CN CN201210521275.0A patent/CN103156638B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20130150719A1 (en) | 2013-06-13 |
JP6147489B2 (ja) | 2017-06-14 |
CN103156638A (zh) | 2013-06-19 |
CN103156638B (zh) | 2016-06-01 |
JP2013119035A (ja) | 2013-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2984000A1 (fr) | Systeme et procede d'imagerie ultrasonore | |
JP7077118B2 (ja) | 二次元超音波画像をシェーディングするための方法およびシステム | |
US8202220B2 (en) | Ultrasound diagnostic apparatus | |
US7912264B2 (en) | Multi-volume rendering of single mode data in medical diagnostic imaging | |
US20120306849A1 (en) | Method and system for indicating the depth of a 3d cursor in a volume-rendered image | |
FR2975205A1 (fr) | Procede et systeme pour imagerie par ultrasons avec images en plan de coupe | |
US20150065877A1 (en) | Method and system for generating a composite ultrasound image | |
EP0648469A1 (fr) | Système et procédé de visualisation de données échographiques tridimensionnelles | |
CN104812312B (zh) | 超声波诊断装置以及超声波三维图像创建方法 | |
US20120154400A1 (en) | Method of reducing noise in a volume-rendered image | |
EP1844438A1 (fr) | Procede et systeme de simulation ou de synthese numerique d'images echographiques | |
EP2511878A1 (fr) | Fourniture dýune image à ultrasons tridimensionnelle basée sur une table de référence de couleurs tridimensionnelle dans un système à ultrasons | |
US10198853B2 (en) | Method and system for performing real-time volume rendering to provide enhanced visualization of ultrasound images at a head mounted display | |
FR3058885A1 (fr) | Procede et systeme de detection et de visualisation ameliorees d'une aiguille chirurgicale dans des donnees ultrasonores, en realisant une imagerie d'elasticite par ondes de cisaillement | |
FR2994525A1 (fr) | Systeme et procede d'imagerie echographique | |
EP2637142B1 (fr) | Appareil et procédé de traitement des images | |
CN114093464A (zh) | 用于控制用于体积绘制图像的虚拟光源的方法和系统 | |
US10380786B2 (en) | Method and systems for shading and shadowing volume-rendered images based on a viewing direction | |
CN109754869B (zh) | 着色的超声图像对应的着色描述符的呈现方法和系统 | |
US7706586B2 (en) | Real-time structure suppression in ultrasonically scanned volumes | |
FR2741521A1 (fr) | Procede d'acquisition automatique de l'angle doppler, en echographie, et agencement pour la mise en oeuvre du procede | |
CN110648752B (zh) | 一种医学数据三维可视化方法和设备 | |
US20240177437A1 (en) | Ultrasound imaging system and method for generating and displaying a colorized surface rendering | |
US11619737B2 (en) | Ultrasound imaging system and method for generating a volume-rendered image | |
JP2013013650A (ja) | 超音波画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20150831 |