FR2918205A1 - Procede et systeme de rendu volumique multivue - Google Patents

Procede et systeme de rendu volumique multivue Download PDF

Info

Publication number
FR2918205A1
FR2918205A1 FR0853922A FR0853922A FR2918205A1 FR 2918205 A1 FR2918205 A1 FR 2918205A1 FR 0853922 A FR0853922 A FR 0853922A FR 0853922 A FR0853922 A FR 0853922A FR 2918205 A1 FR2918205 A1 FR 2918205A1
Authority
FR
France
Prior art keywords
data
views
image
viewing directions
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0853922A
Other languages
English (en)
Other versions
FR2918205B1 (fr
Inventor
Sevald Berg
Stein Inge Rabben
Sigmund Frigstad
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of FR2918205A1 publication Critical patent/FR2918205A1/fr
Application granted granted Critical
Publication of FR2918205B1 publication Critical patent/FR2918205B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Generation (AREA)

Abstract

Un procédé et un système de rendu volumique multivue sont proposés. Le procédé comprend l'identification d'une pluralité de directions de visualisation (164) relatives à une image d'un objet (160) et le rendu volumique automatique d'un ensemble de données volumétriques d'après la pluralité de directions de visualisation (164). Le procédé comprend en outre la génération d'une image pour chaque direction de visualisation (164) en utilisant les donnés rendues. Le système comprend une sonde configurée pour acquérir des données d'image ultrasonores tridimensionnelles (3D) définissant un ensemble de données ultrasonores 3D; et un module de rendu volumique multiple configuré pour rendre en volume différentes vues d'image de l'ensemble de données ultrasonores 3D d'après au moins une direction de visualisation (164) et au moins un plan de découpage (166).

Description

B 08-1750 FR Société dite : GENERAL ELECTRIC COMPANY Procédé et système de
rendu volumique multivue Invention de : BERG Sevald RABBEN Stein Inge FRIGSTAD Sigmund Priorité d'une demande de brevet déposée aux Etats-Unis d'Amérique le 30 juin 2007 sous le n 11/772.147 Procédé et système de rendu volumique multivue Cette invention concerne globalement les systèmes d'imagerie médicale, et porte en particulier sur l'obtention de multiples rendus volumiques à partir du même ensemble de données acquises par un système d'imagerie médicale.
Des systèmes d'imagerie médicale sont utilisés dans différentes applications pour former l'image de différentes régions ou zones (par exemple, différents organes) de patients. Par exemple, l'imagerie ultrasonore peut être utilisée pour générer des images d'un coeur. Ces images sont ensuite affichées en vue d'un examen et d'une analyse par un utilisateur. Les images peuvent aussi être modifiées ou ajustées pour mieux voir ou visualiser différentes régions ou objets d'intérêt. La visualisation par rendu volumique est une technique connue qui produit des images réalistes (par exemple, des images tridimensionnelles) en se basant sur un ensemble de données tridimensionnelles. On peut par exemple projeter des données tridimensionnelles sur une image bidimensionnelle dans une direction de visualisation donnée. La projection peut être effectuée en utilisant des algorithmes connus, par exemple des algorithmes de lancer de rayons et des modèles d'éclairage évolués. Un utilisateur est typiquement capable d'ajuster la direction de visualisation pour l'image de manière à pouvoir par exemple observer un objet examiné sous différents angles ou perspectives. Par exemple, un utilisateur peut déplacer une sonde ultrasonore dans différentes directions et sous différents angles afin d'acquérir et de visualiser des images d'un coeur à différents endroits autour du coeur. Un utilisateur peut aussi manipuler des données mémorisées afin de générer différentes vues. En imagerie volumique, une autre fonctionnalité importante est la possibilité de "rogner" ou découper des parties de l'objet examiné de manière à regarder à l'intérieur de l'objet. La fonction de découpage peut être remplie de différentes manières. Le découpage est couramment effectué en définissant un plan qui coupe l'objet examiné et en supprimant du rendu la partie de l'objet située d'un côté de ce plan. Certains défis se posent quand on visualise des objets en utilisant l'imagerie volumique. Par exemple, un défi lié à la visualisation du coeur humain à l'aide de l'échographie volumique est de naviguer dans les données volumétriques et d'identifier des structures anatomiques depuis différents angles de manière à produire des vues cliniquement pertinentes. Typiquement, un opérateur définit manuellement des vues de rendu individuelles en coupant le volume à des endroits aléatoires sans rapport avec d'autres vues préalablement définies. Par exemple, un opérateur génère une première vue d'un coeur en découpant l'image afin de générer une seule vue puis fait tourner et/ou translate l'image vers une autre vue, et découpe ensuite de nouveau l'image à un autre endroit afin de générer une autre vue. Cette procédure est répétée jusqu'à ce que de multiples images différentes, définissant des vues différentes, soient générées. La procédure manuelle permettant de définir et générer différentes vues d'une image est donc fastidieuse et longue. De plus, les vues générées peuvent ne pas faire apparaître la totalité de la ou des régions d'intérêt depuis différentes perspectives, ce qui entraîne potentiellement l'exclusion de parties cliniquement pertinentes de l'image et la possibilité d'un diagnostic incorrect. Selon une forme de réalisation de l'invention, il est proposé un procédé pour générer de multiples vues d'image d'un objet. Le procédé comprend l'identification d'une pluralité de directions de visualisation relatives à une image d'un objet et le rendu volumique automatique d'un ensemble de données volumétriques d'après la pluralité de directions de visualisation. Le procédé comprend en outre la génération d'une image pour chaque direction de visualisation en utilisant les données rendues.
Selon une autre forme de réalisation, il est proposé un procédé de visualisation de multiples rendus volumiques d'un jeu de données volumétriques. Le procédé comprend l'identification d'au moins un plan de découpage sur les données volumétriques et une génération automatique de plusieurs vues différentes utilisant le jeu de données volumétriques, basée sur ledit plan de découpage. Le procédé comprend en outre un affichage des images des différentes vues sur un seul écran. Dans encore une autre forme de réalisation de l'invention, il est proposé un système d'imagerie ultrasonore qui comprend une sonde configurée pour acquérir des données d'image ultrasonores tridimensionnelles (3D) définissant un ensemble de données ultrasonores 3D. Le système d'imagerie ultrasonore comprend en outre un module de rendu volumique multiple configuré pour rendre en volume différentes vues d'image de l'ensemble de données ultrasonores 3D d'après au moins une direction de visualisation et au moins un plan de découpage. L'invention sera mieux comprise à l'étude de la description détaillée suivante de quelques exemples de réalisation, illustrée par les dessins annexés dans lesquels: la figure 1 est un schéma synoptique d'un système ultrasonore formé selon une forme de réalisation de l'invention; la figure 2 représente un système ultrasonore miniaturisé formé selon une forme de réalisation de l'invention; la figure 3 est un schéma représentant un plan de visualisation et un plan de découpage pour un objet examiné selon une forme de réalisation de l'invention; la figure 4 est un schéma représentant une pluralité de vues d'un objet examiné définies selon une forme de réalisation de l'invention; la figure 5 est un schéma représentant une pluralité de vues d'un objet examiné découpé définies selon une forme de réalisation de l'invention; la figure 6 est une représentation d'images de deux vues d'une valvule mitrale générées selon une forme de réalisation de l'invention et qui correspondent au découpage de la figure 5; la figure 7 est un schéma représentant une pluralité de vues d'un objet examiné et une pluralité de plans de découpage sécants définis selon une forme de réalisation de l'invention; la figure 8 est une représentation d'images de vues classiques d'un coeur générées selon une forme de réalisation de l'invention et qui correspondent au découpage de la figure 7; la figure 9 est un schéma représentant une pluralité de vues d'un objet examiné et une pluralité de plans de découpage se chevauchant définis selon une forme de réalisation de l'invention; la figure 10 est une représentation d'images duales d'un ventricule gauche d'un coeur générées selon une forme de réalisation de l'invention et qui correspondent au découpage de la figure 9; et la figure 11 est un organigramme d'un procédé de génération automatique d'images de différentes vues d'un objet selon diverses formes de réalisation de l'invention. On comprendra mieux la présente invention à la lumière de la description détaillée suivante de certaines formes de réalisation de la présente invention, en les lisant conjointement avec les dessins annexés. Dans la mesure où les figures représentent des schémas des blocs fonctionnels de diverses formes de réalisation, les blocs fonctionnels ne sont pas nécessairement représentatifs de la séparation entre circuits matériels. Ainsi par exemple, un ou plusieurs des blocs fonctionnels (par exemple des processeurs ou des mémoires) peuvent être mis en oeuvre dans un seul élément matériel (par exemple un processeur de signaux polyvalent ou un bloc de mémoire vive, un disque dur, ou analogue). De manière similaire, les programmes peuvent être des programmes autonomes, peuvent être incorporés sous la forme de sous-programmes dans un système d'exploitation, peuvent être des fonctions dans un progiciel installé, et analogues. On comprendra que les diverses formes de réalisation ne sont pas limitées aux arrangements et à l'instrumentation représentés sur les dessins. Dans la présente, un élément ou étape cité au singulier et précédé de l'article "un" ou "une" doit être compris comme n'excluant pas plusieurs desdits éléments ou étapes, sauf si cette exclusion est explicitement indiquée. En outre, des références à "une forme de réalisation" de la présente invention ne doivent pas être interprétées comme excluant l'existence de formes de réalisation supplémentaires qui incorporent aussi les caractéristiques mentionnées. En outre, sauf indication contraire explicite, des formes de réalisation "comprenant" ou "ayant" un élément ou une pluralité d'éléments possédant une propriété particulière peuvent inclure d'autres tels éléments ne possédant pas cette propriété. La figure 1 est un schéma synoptique d'un système ultrasonore 100. Le système ultrasonore 100 comprend un émetteur 102 qui attaque des éléments transducteurs 104 à l'intérieur d'une sonde 106 pour émettre des impulsions ultrasonores dans un corps. Les signaux ultrasonores ou faisceaux d'émission sont rétrodiffusés par des structures du corps, telles que des cellules sanguines ou des tissus musculaires, qui créent des échos ou faisceaux de retour renvoyés aux éléments transducteurs 104. Les échos renvoyés sont reconvertis par les éléments transducteurs 104 en énergie électrique que reçoit un récepteur 108. Les signaux reçus passent par un dispositif de formation de faisceau 110 qui réalise une formation de faisceau et délivre un signal RF. On notera qu'une formation du faisceau d'émission peut aussi être prévue en combinant les signaux des éléments transducteurs afin de réaliser un pointage et une focalisation du faisceau. Le signal RF passe ensuite par un processeur RF 112. Selon une autre possibilité, le processeur RF 112 peut comprendre un démodulateur complexe (non représenté) qui démodule le signal RF afin de former des paires de données IQ représentatives des signaux d'écho. Les données RF ou IQ peuvent ensuite être transmises directement à une mémoire 114, par exemple un tampon RF/IQ en vue d'un stockage temporaire. Une entrée d'utilisateur 120 (qui peut être configurée sous la forme d'une interface utilisateur avec un clavier, une boule de commande, des touches de commande, etc.) peut être utilisée pour commander le fonctionnement du système ultrasonore 100, y compris pour commander l'entrée de données de patient et de paramètres de balayage, pour sélectionner ou définir différentes directions de visualisation ou plans de découpage, et peut aussi inclure une utilisation de commandes vocales fournies via un microphone 130. D'autres composants peuvent être prévus, par exemple un ensemble de commandes d'utilisateur peut être configuré pour commander le système ultrasonore 100 et peut être proposé sous la forme d'une partie d'un écran tactile et sous la forme d'entrées manuelles, telles que des commutateurs, boutons et analogues manipulables par l'utilisateur. Toutes les commandes d'utilisateur peuvent être actionnables manuellement ou par la voix. Le système ultrasonore 100 comprend aussi un processeur 116 (par exemple, un module processeur) pour traiter les informations ultrasonores acquises (c'est-à-dire les données des signaux RF ou les paires de données IQ) et préparer des trames d'informations ultrasonores à afficher sur un dispositif d'affichage 118. Le processeur 116 est prévu pour exécuter une ou plusieurs opérations de traitement conformément à une pluralité de modalités ultrasonores sélectionnables sur les informations ultrasonores acquises. Les informations ultrasonores acquises peuvent être traitées en temps réel durant une séance d'examen à mesure que les signaux d'écho sont reçus. De plus ou dans l'alternative, les informations ultrasonores peuvent être stockées temporairement dans la mémoire 114 durant une séance d'examen et traitées plus lentement qu'en temps réel dans une opération en direct ou en différé. Une mémoire d'image 122 est incluse pour stocker des trames traitées d'informations ultrasonores acquises qui ne sont pas prévues pour être immédiatement affichées. La mémoire d'image 122 peut comprendre n'importe quel support de stockage de données connu. Un module de rendu volumique multiple 124 (appelé module de rendu volumique 124 dans ce qui suit) peut accéder à des données de direction de visualisation et/ou des données de plan de découpage 126 stockées dans la mémoire 122 afin de visualiser automatiquement de multiples rendus volumiques d'un objet (par exemple un coeur) basés sur un ensemble de données ultrasonores tridimensionnelles (3D). Le module de rendu volumique 124 peut être mis en oeuvre en matériel, en logiciel ou une combinaison des deux. Le rendu volumique et les calculs, ainsi que l'affichage de plans de découpage et de plans de visualisation, peuvent être mis en oeuvre en utilisant du matériel et/ou un processeur graphiques spécialisés, dans une unité de traitement graphique (GPU), ou en logiciel utilisant n'importe quel type de processeur. Les multiples rendus sont générés à partir d'un seul ensemble de données stocké en mémoire (par exemple, une mémoire fixe ou une mémoire amovible) qui peut être défini par un ou plusieurs plans de découpage qui sont sélectionnés par un utilisateur et peuvent aussi être liés, associés ou autrement couplés comme décrit plus en détail plus bas. Le dispositif d'affichage 118 comprend un ou plusieurs écrans qui présentent à l'utilisateur des informations de patient, incluant des images ultrasonores diagnostiques, en vue d'un diagnostic et d'une analyse. Le dispositif d'affichage 118 affiche automatiquement de multiples vues, par exemple de multiples vues de rendu d'un coeur, qui peuvent être dans un format d'affichage quadruple, à partir de l'ensemble de données ultrasonores 3D stocké dans la mémoire 114 ou 122 (ou autre dispositif de mémoire). Des écrans 3D spéciaux peuvent aussi être utilisés pour afficher les images rendues en volume. L'une des mémoires 114 et 122 ou les deux peuvent stocker des ensembles de données ultrasonores tridimensionnelles, un accès à ces ensembles de données 3D étant effectué pour présenter des images 2D ou 3D. Un ensemble de données ultrasonores 3D est mappé dans la mémoire 114 ou 122 correspondante, ainsi qu'une ou plusieurs vues d'image. La position et l'orientation des vues peuvent être commandées par des commandes provenant de l'entrée d'utilisateur 120.
Le système 100 obtient des ensembles de données volumétriques par diverses techniques (par exemple balayage 3D, imagerie 3D temps réel, balayage volumique, balayage 2D avec des transducteurs ayant des capteurs de position, balayage manuel utilisant une technique de corrélation de voxels, des groupements de transducteurs 2D ou matriciels et analogues). Pour un balayage 2D, la sonde 106 est déplacée, par exemple le long d'un trajet rectiligne ou courbe, tout en balayant une région d'intérêt (RDI). En chaque position du trajet rectiligne ou courbe, la sonde 106 obtient des plans de balayage qui sont stockés dans la mémoire 114. Pour un balayage 3D avec un groupement 2D de transducteurs, un volume couvrant des parties ou la totalité de la région d'intérêt est balayé en temps réel.
On comprendra que la fonctionnalité décrite par rapport au système 100 n'est pas limitée à un quelconque type de système ultrasonore. Par exemple, le système 100 peut être logé dans un système à chariot ou peut être mis en oeuvre dans un système portable plus petit comme décrit sur la figure 2. La figure 2 représente un système ultrasonore 100 miniaturisé comprenant la sonde 106 configuré pour acquérir des données ultrasonores. Tel qu'il est utilisé dans la présente, le terme "miniaturisé" signifie que le système ultrasonore est un dispositif tenu ou porté à la main ou est configuré pour être transporté dans la main d'une personne, une poche, une mallette de la taille d'un porte-documents, un sac à dos ou analogue. Par exemple, le système ultrasonore 100 peut être un dispositif portatif ayant la taille d'un ordinateur portable typique. Un dispositif d'affichage intégré 134 (par exemple un écran interne) est aussi prévu et est configuré pour afficher une ou plusieurs images médicales. Les données ultrasonores peuvent être envoyées à un dispositif externe 136 via un réseau câblé ou sans fil 133 (ou une connexion directe, par exemple via un câble série ou parallèle ou un port USB). Dans certaines formes de réalisation, le dispositif externe 136 peut être un ordinateur ou un poste de travail ayant un dispositif d'affichage. Selon une autre possibilité, le dispositif externe 136 peut être un dispositif d'affichage externe distinct ou une imprimante capable de recevoir des données d'image du système d'imagerie ultrasonore 100 portatif et d'afficher ou d'imprimer des images qui peut avoir une meilleure résolution que le dispositif d'affichage intégré 134. Une interface utilisateur 140 (qui peut aussi inclure le dispositif d'affichage intégré 134) est prévue pour recevoir des commandes d'un opérateur. Les données d'image peuvent être acquises à une plus haute résolution que ce qui peut être affiché sur le dispositif d'affichage intégré 134.
Selon un autre exemple, le système ultrasonore 100 peut être un système ultrasonore de poche. Le système ultrasonore de poche peut comprendre un dispositif d'affichage, une interface utilisateur (c'est-à-dire un clavier) et un port d'entrée/sortie (E/S) pour la connexion à la sonde (tous non représentés). On notera que les diverses formes de réalisation peuvent être mises en oeuvre relativement à un système ultrasonore miniaturisé ayant des dimensions, une masse et une consommation électrique différentes. Les diverses formes de réalisation peuvent être mises en oeuvre relativement à n'importe quel système d'imagerie diagnostique, par exemple différents types de systèmes d'imagerie médicale tels qu'un système d'imagerie ultrasonore, un système d'imagerie radiographique, un système d'imagerie tomodensitométrique (TDM), un système de tomographie par émission de photon unique (TEPU), un système d'imagerie tomographique par émission de positons (TEP), un système d'imagerie nucléaire, un système d'imagerie par résonance magnétique (IRM), et des combinaisons de ces systèmes (par exemple un système d'imagerie multimodalité), entre autres. De plus, les diverses formes de réalisation ne sont pas limitées à des systèmes d'imagerie médicale ou des systèmes d'imagerie pour l'examen de sujets humains, mais peuvent inclure des systèmes non médicaux pour l'examen d'objets non humains et pour l'imagerie ou essai non destructif, l'imagerie de sécurité (par exemple un filtrage de sécurité d'aéroport), etc.
Dans diverses formes de réalisation, l'entrée d'utilisateur 120 peut être utilisée pour sélectionner une ou plusieurs vues de rendu en définissant une ou plusieurs directions de visualisation et/ou un ou plusieurs plans de découpage (qui peuvent aussi être appelés plans de coupe). Par exemple, un ou plusieurs plans peuvent être désignés par l'orientation et la position du plan. Des paramètres supplémentaires peuvent être définis, par exemple pour ajuster la taille et la forme des plans, translater et faire tourner la position des plans par rapport à un système de coordonnées de référence et analogues. Une ou plusieurs directions de visualisation sont définies avec exécution automatique d'un rendu volumique à partir d'un seul ensemble de données ultrasonores 3D stocké en mémoire. Par exemple, les données peuvent être stockées sous la forme de données de direction de visualisation/données de plan de découpage 126 (représentées sur la figure 1). De multiples vues peuvent alors être définies avec rendu automatique et liaison des images correspondantes. Par exemple, des vues échocardiographiques classiques d'un coeur peuvent être simultanément générées puis affichées avec diverses formes de réalisation de l'invention. Le module de rendu volumique 124 mappe la ou les directions de visualisation ou plans de découpage dans un ensemble de données ultrasonores 3D et effectue le rendu automatique des différentes vues en conséquence. Le dispositif d'affichage 118 affiche de manière sélective les vues d'image associées aux données d'image rendues.
La mémoire 114 ou 122 stocke les données de position de visualisation et/ou données de plan de découpage pour une ou plusieurs vues (par exemple, des coordonnées de position). De façon optionnelle, la mémoire 114 ou 122 peut stocker, relativement aux données de position et de plan de découpage pour les vues, des informations autres que les coordonnées de la direction et des plans de visualisation qui définissent les vues multiples, par exemple un point ou région sélectionné dans l'image. Diverses formes de réalisation de l'invention proposent un procédé qui fournit de multiples vues de rendu d'un objet 160 ou région d'intérêt (par exemple un coeur). Les vues de rendu peuvent être définies d'après des structures anatomiquement connues ou des positions de visualisation anatomiquement connues. Par exemple, la figure 3 représente un plan de visualisation 162 qui est dirigé vers un ensemble de données volumétriques ou objet 160 et ayant une direction de visualisation 164. A l'intérieur de l'ensemble de données, un plan de découpage 166 est défini qui peut, par exemple, être défini aléatoirement dans l'espace. Le plan de découpage 166 divise l'objet 160 en deux parties, une partie visible 168 qui sera représentée dans une image rendue comme défini par le plan de visualisation 162 et une partie rognée ou retranchée 170 qui ne sera pas visible dans l'image rendue. Dans diverses formes de réalisation de l'invention, plusieurs tels plans de visualisation 162 et plans de découpage 166 sont utilisés simultanément. Selon un autre exemple, et comme représenté sur la figure 4, une ou plusieurs directions de visualisation (représentées par des flèches 1, 2, 3, ..., N) peuvent être définies n'importe où dans un ensemble de données et dirigées vers un objet 450 d'intérêt. Pour chaque direction de visualisation, un rendu volumique est automatiquement effectué et de multiples images sont générées, qui peuvent être affichées ensemble (par exemple, en vue quadruple) sur un dispositif d'affichage. Comme représenté sur la figure 4, il est possible de sélectionner une pluralité de directions de visualisation. Par exemple, un utilisateur peut sélectionner une ou plusieurs vues à l'aide d'une souris ou boule de commande en sélectionnant des régions de l'objet 450 comme représenté par les flèches. L'utilisateur peut ensuite modifier la direction de visualisation en changeant l'angle de la direction par rapport à la surface de l'objet. La direction de visualisation peut être changée, par exemple, à l'aide de la souris ou boule de commande. Par exemple, une ou plusieurs directions de visualisation peuvent être sélectionnées en choisissant un ensemble prédéfini de directions, par exemple à 180 degrés l'une de l'autre, pour obtenir des vues opposées. D'autres angles peuvent aussi être définis. Selon une autre possibilité, l'utilisateur peut changer les directions de visualisation de manière interactive en utilisant la souris ou boule de commande. Les directions de visualisation peuvent aussi être liées entre elles de sorte que lorsqu'on modifie une direction de visualisation, l'autre direction de visualisation associée (par exemple l'autre direction de visualisation dans un ensemble prédéfini) est aussi modifiée, par exemple pour maintenir une différence de 180 degrés. Selon une autre possibilité, les directions de visualisation peuvent être modifiées indépendamment.
L'image de l'objet 450 peut aussi être découpée en prévoyant un ou plusieurs plans de découpage 452 (par exemple, des plans de coupe bidimensionnels (2D)). On peut aussi rogner l'objet 450 en supprimant d'autres parties de l'image et définir des directions de visualisation comme représenté sur la figure 5.
Les directions de visualisation peuvent être modifiées simultanément tout en maintenant les positions relatives entre les vues, par exemple en maintenant l'angle entre les plans de visualisation. A titre d'exemple, deux vues peuvent être générées à 180 degrés l'une de l'autre comme représenté sur la figure 6, qui montre la valvule mitrale du coeur représentée simultanément depuis les côtés de l'oreillette et du ventricule sur des to vues 470 et 472, respectivement. Dans cet exemple, quand les vues sont à 180 degrés l'une de l'autre, deux images d'une structure vue depuis des côtés opposés sont présentées. Lorsqu'un utilisateur change la direction de visualisation, les deux vues sont modifiées. On notera que plusieurs plans de découpage 452 peuvent être définis avec des 15 directions de visualisation correspondantes comme représenté sur la figure 7. Les plans de découpage 452 sont de nouveau représentés par des lignes et les directions de visualisation correspondantes sont représentées par des flèches. Les directions de visualisation représentées sont perpendiculaires aux plans de découpage 452, mais elles peuvent être obliques par rapport aux plans de découpage 452. Plusieurs images 460 20 peuvent ensuite être générées et affichées ensemble sur un dispositif d'affichage 462 d'après les plans de découpage et directions de visualisations sélectionnés par l'utilisateur ou d'après un ensemble de vues prédéterminé, par exemple. Essentiellement, une pluralité de rendus volumiques correspondants sont générés à partir d'un seul ensemble de données ultrasonores 3D stocké en mémoire et sont simultanément 25 affichés. Par exemple, comme représenté sur la figure 8, les images 460 peuvent être des images définies par les vues apicales classiques du coeur et une vue petit axe de la valvule mitrale. Toutefois, différentes configurations sont envisagées et les diverses formes de réalisation ne sont pas limitées à des vues ou agencements dans une configuration quadruple. Un utilisateur peut aussi définir des vues différentes en 30 sélectionnant des directions de visualisation et plans de découpage 452 spécifiques ou particuliers comme décrit plus haut. La position des plans dans la vue classique peut être définie en utilisant une méthode d'alignement dans laquelle l'utilisateur réajuste l'orientation de l'ensemble de données 3D de manière à générer des plans de coupe 2D qui correspondent à des vues 2D classiques du coeur, par exemple. Ces plans de coupe peuvent alors être utilisés comme plans de découpage. De nouveau à propos de la figure 7, les plans de découpage 452 (et donc les vues) peuvent être sécants. Chaque vue affichée montrera donc une partie différente de l'objet 450 indépendamment des autres plans de découpage 452. Toutefois, les plans de découpage 452 peuvent se chevaucher comme représenté sur la figure 9, avec affichage to simultané des rendus volumiques correspondants définis par les directions de visualisation (1 et 2). Cette configuration peut être utilisée pour afficher deux vues de l'objet 450 simultanément qui renferment l'objet 450 entier. Par exemple, comme représenté sur la figure 10, une vue duale du ventricule gauche est affichée en utilisant un seul plan de découpage avec présentation des vues 480 et 482 dans deux directions 15 différentes, permettant une visualisation du coeur entier. La vue apicale 4 cavités du ventricule gauche est affichée simultanément vue dans deux directions, la vue apicale4 cavités 480 classique représentant la paroi antérieure et la vue 482 représentant la paroi postérieure/inférieure. On notera que les diverses configurations et modes d'affichage décrits dans la 20 présente peuvent être générés durant une acquisition de données par le système ultrasonore 100, sur des données préalablement acquises en utilisant le système ultrasonore 100 ou sur un autre système, par exemple un poste d'examen. On notera en outre que les plans de découpage particuliers et donc l'affichage simultané peuvent être basés sur des positions prédéfinies, par exemple basés sur des positions 25 anatomiquement définies. Par exemple, en échocardiographie, trois images ou positions apicales classiques (à savoir, vue 4 cavités, vue 2 cavités et vue grand axe) sont identifiées en utilisant des structures anatomiques, et les données ultrasonores 3D sont découpées en conséquence et des rendus volumiques de ces vues sont simultanément affichés sur un écran.
Un procédé 500 pour générer automatiquement des images de différentes vues d'un objet est représenté sur la figure 11. Spécifiquement, à une étape 502, des données de balayage sont acquises ou récupérées, par exemple un ensemble de données ultrasonores 3D peut être récupéré en mémoire ou peut être acquis. On notera que les données peuvent être stockées temporairement, en vue d'un accès, à mesure qu'elles sont acquises. Puis à une étape 504 il est déterminé si un découpage a été effectué ou non. Par exemple, il peut être déterminé si des plans de découpage ont été fournis ou définis par un utilisateur ou non. Si un découpage a été effectué, alors à une étape 506, des coordonnées pour les plans de découpage sont identifiées et stockées, qui peuvent Io inclure à la fois des coordonnées de translation et de rotation. Par exemple, les coordonnées cartésiennes de voxels de l'image qui sont entourés par les plans de découpage sont stockées. Selon une autre possibilité, les plans peuvent être mémorisés en utilisant une normale à leur surface et leur distance à l'origine. On notera que des repères anatomiques peuvent être utilisés pour identifier les 15 plans de découpage et qu'un utilisateur peut être invité à approuver les structures anatomiques utilisées. Par exemple, dans une image du coeur, la position de l'anneau mitral peut être identifiée en utilisant des procédés de détection connus ou par un utilisateur, et des plans de découpage peuvent être définis par rapport à la position de l'anneau mitral. Des vues échocardiographiques 2D classiques, telles que la vue apicale 20 4 cavités, peuvent aussi être identifiées par l'utilisateur et utilisées pour définir des plans de découpage. Une fois que les coordonnées ont été stockées à l'étape 506 ou s'il est déterminé à l'étape 504 qu'aucun découpage n'a été effectué, alors à une étape 508 il est déterminé si une ou plusieurs directions de visualisation ont été définies ou non. Si des directions 25 de visualisation ont été définies, par exemple par un utilisateur, alors à une étape 510 les directions de visualisation sont identifiées. Par exemple, les positions de visualisation (par exemple les coordonnées) correspondant aux directions de visualisation pour n'importe quel plan identifié sont déterminées. S'il est déterminé à l'étape 508 qu'aucune direction de visualisation n'a été définie, alors des vues prédéfinies ou prédéterminées sont sélectionnées à une étape 512. Par exemple, des vues classiques peuvent être sélectionnées et identifiées comme décrit dans la présente. Après cela ou après stockage des informations de position de visualisation à l'étape 510, un rendu volumique est effectué à une étape 514. Spécifiquement, des vues d'image distinctes sont générées d'après les directions de visualisation, et de façon optionnelle d'après d'éventuels plans de découpage sélectionnés. Les rendus volumiques sont effectués sur le même ensemble de données ultrasonores 3D. Par exemple, les rendus volumiques sont effectués par traitement d'un seul ensemble de données stocké en mémoire. Un procédé pour produire des rendus volumiques consiste à lancer des Io rayons à travers le volume, par exemple un objet, et à enregistrer les "valeurs de rayon" lorsque les rayons traversent un plan derrière l'objet. La "valeur de rayon" enregistrée dans le plan de visualisation est une combinaison des valeurs de tous les voxels situés le long du trajet allant du point de vue au plan de visualisation. La combinaison peut être par exemple la somme des valeurs des voxels, chacune multipliée par une valeur de 15 pondération appelée "opacité". En conséquence, pour chacune des directions de visualisation, la même technique est appliquée sur le même ensemble de données. De multiples vues d'un objet ou région d'intérêt sont donc générées à partir du même ensemble de données et chacune des vues peut être liée ou associée aux autres vues d'après les informations de coordonnées stockées. Les différentes vues d'image 20 sont générées en une seule opération sur un ensemble de données stocké en mémoire. Les vues sont générées par de multiples rendus volumiques du même ensemble de données dans différentes directions. Les vues d'image sont ensuite affichées à une étape 516, par exemple simultanément affichées sur un écran (par exemple un seul écran), comme sous un format d'écran divisé ou d'écran quadruple. 25 Les directions de visualisation et les plans de découpage se traduisent donc par la génération et l'affichage de différentes vues d'image. Les diverses directions de visualisation peuvent être liées, par exemple, par l'utilisation du ou des mêmes plans de découpage, mais vus sous différents angles en maintenant leurs positions relatives. En outre, les rendus volumiques sont générés à partir du même ensemble de données (par exemple, un seul ensemble de données stocké en mémoire) et non effectués, par exemple, sur le même fichier de données chargé plusieurs fois dans la mémoire. Un effet technique d'au moins une forme de réalisation de l'invention comprend une facilitation du rendu de multiples vues d'un objet par utilisation d'un seul ensemble de données. En utilisant des directions de visualisation, et en utilisant de façon optionnelle un découpage, plusieurs vues d'image sont générées et liées d'après des informations de coordonnées stockées. Les vues d'image peuvent ensuite être affichées simultanément. Les diverses formes de réalisation et/ou composants, par exemple les modules, lo ou des composants et organes de commande qu'ils renferment, peuvent aussi être mis en oeuvre sous la forme d'une partie d'un ou plusieurs ordinateurs ou processeurs. L'ordinateur ou processeur peut comprendre un dispositif de calcul, un dispositif d'entrée, une unité d'affichage et une interface, par exemple pour accéder à l'Internet. L'ordinateur ou processeur peut comprendre un microprocesseur. Le microprocesseur 15 peut être connecté à un bus de communication. L'ordinateur ou processeur peut aussi comprendre une mémoire. La mémoire peut comprendre de la mémoire vive (RAM) et de la mémoire morte (ROM). L'ordinateur ou processeur peut en outre comprendre un dispositif de stockage, qui peut être un lecteur de disque dur ou un lecteur de support de stockage amovible tel qu'un lecteur de disquette, un lecteur de disque optique et 20 analogues. Le dispositif de stockage peut aussi être un autre moyen similaire pour charger des programmes d'ordinateur ou autres instructions dans l'ordinateur ou processeur. Tel qu'il est utilisé dans la présente, le terme "ordinateur" peut englober n'importe quel système basé sur un processeur ou basé sur un microprocesseur, y 25 compris des systèmes utilisant des microcontrôleurs, des ordinateurs à jeu d'instructions réduit (RISC), des circuits intégrés à application spécifique (ASIC), des circuits logiques, et n'importe quel autre circuit ou processeur capable d'exécuter les fonctions décrites dans la présente. Les exemples précédents sont seulement des exemples, et ne sont donc pas destinés à limiter d'une quelconque façon la définition et/ou signification 30 du terme "ordinateur".
L'ordinateur ou processeur exécute un ensemble d'instructions qui sont stockées dans un ou plusieurs éléments de stockage, de manière à traiter des données d'entrée. Les éléments de stockage peuvent aussi stocker des données ou autres informations comme voulu ou nécessaire. L'élément de stockage peut être sous la forme d'une source d'information ou d'un élément de mémoire physique à l'intérieur d'une machine de traitement. L'ensemble d'instructions peut comprendre diverses commandes qui ordonnent à l'ordinateur ou processeur, en tant que machine de traitement, d'exécuter des opérations spécifiques telles que les procédés et procédures des diverses formes de réalisation de l'invention. L'ensemble d'instructions peut être sous la forme d'un logiciel. Le logiciel peut prendre des formes diverses telles qu'un logiciel système ou un logiciel d'application. En outre, le logiciel peut être sous la forme d'une collection de programmes séparés, d'un module de programme à l'intérieur d'un plus grand programme ou d'une partie d'un module de programme. Le logiciel peut aussi inclure une programmation modulaire sous la forme de programmation orientée objet. Le traitement de données d'entrée par la machine de traitement peut être en réponse à des commandes de l'utilisateur, ou en réponse aux résultats d'un traitement précédent, ou en réponse à une requête effectuée par une autre machine de traitement. Tels qu'ils sont utilisés dans la présente, les termes "logiciel" et "progiciel" sont interchangeables, et englobent n'importe quel programme d'ordinateur stocké dans une mémoire en vue d'être exécuté par un ordinateur, incluant mémoire RAM, mémoire ROM, mémoire EPROM, mémoire EEPROM et mémoire RAM non volatile (NVRAM). Les types de mémoire précédents sont seulement des exemples, et ne sont donc pas restrictifs quant aux types de mémoire utilisables pour le stockage d'un programme d'ordinateur. On comprendra que la description qui précède est destinée à être illustrative et non restrictive. Par exemple, les formes de réalisation décrites plus haut (et/ou des aspects de ces dernières) peuvent être utilisées en combinaison entre elles. De plus, de nombreuses modifications peuvent être apportées afin d'adapter une situation ou un matériel particulier aux enseignements de l'invention sans sortir de sa portée. Bien que les dimensions et types de matériaux décrits dans la présente soient destinés à définir les paramètres de l'invention, ils ne sont en aucune façon restrictifs et sont des exemples de réalisation. De nombreuses autres formes de réalisation apparaîtront aux personnes ayant des compétences dans l'art à l'étude de la description précédente.
LISTE DES REPERES
100 Système ultrasonore 102 Emetteur 104 Eléments transducteurs 106 Sonde à transducteurs 108 Récepteur 110 Dispositif de formation de faisceau 112 Processeur 114 Mémoire 116 Processeur/Module processeur 118 Dispositif d'affichage 120 Entrée d'utilisateur 122 Mémoire d'image 124 Module de rendu volumique 126 Données de direction de visualisation/plan de découpage 130 Microphone 133 Réseau câblé ou sans fil 134 Dispositif d'affichage intégré 136 Dispositif externe 140 Interface utilisateur 160 Ensemble de données volumétriques ou objet 162 Plan de visualisation 164 Direction de visualisation 166 Plan de découpage 168 Partie visible 170 Partie retranchée 450 Objet d'intérêt 452 Plans de découpage 460 Images 462 Dispositif d'affichage 470 Vue 472 Vue 480 Vue 482 Vue 500 Procédé 502-516 Etapes

Claims (10)

REVENDICATIONS
1. Procédé pour générer de multiples vues d'image (460) d'un objet (450), comprenant: l'identification d'une pluralité de directions de visualisation (164) relatives à une image d'un objet (450); le rendu volumique automatique d'un ensemble de données volumétriques d'après la pluralité de directions de visualisation (164); et la génération d'une image (460) pour chaque direction de visualisation (164) en utilisant les données rendues.
2. Procédé selon la revendication 1, dans lequel les directions de visualisation (164) sont sélectionnées automatiquement.
3. Procédé selon la revendication 1, comprenant en outre la réception d'une entrée d'utilisateur (120) définissant la pluralité de directions de visualisation (164).
4. Procédé selon la revendication 1, comprenant en outre l'identification d'une pluralité de plans de découpage (452) avec des directions de visualisation (164) correspondantes.
5. Procédé selon la revendication 4, comprenant en outre l'utilisation de repères de structures anatomiques pour identifier la pluralité de plans de découpage (452).
6. Procédé selon la revendication 4, comprenant en outre l'utilisation de repères de structures anatomiques pour aligner la pluralité de plans de découpage (452).
7. Procédé selon la revendication 1, comprenant en outre le fait de lier les directions de visualisation (164) de sorte qu'un mouvement de l'une des directions de visualisation (164) cause un mouvement correspondant des autres directions de visualisation (164).
8. Procédé selon la revendication 1, comprenant en outre l'affichage simultané de la pluralité d'images (460).
9. Procédé selon la revendication 1, comprenant en outre la définition automatique d'une pluralité de plans de découpage (452) utilisés dans le rendu.
10. Système d'imagerie ultrasonore (100), comprenant:une sonde (106) configurée pour acquérir des données d'image ultrasonores tridimensionnelles (3D) définissant un ensemble de données ultrasonores 3D; et un module de rendu volumique multiple (124) configuré pour rendre en volume différentes vues d'image (460) de l'ensemble de données ultrasonores 3D d'après au moins une direction de visualisation (164) et au moins un plan de découpage (166).
FR0853922A 2007-06-30 2008-06-13 Procede et systeme de rendu volumique multivue Expired - Fee Related FR2918205B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/772,147 US7894663B2 (en) 2007-06-30 2007-06-30 Method and system for multiple view volume rendering

Publications (2)

Publication Number Publication Date
FR2918205A1 true FR2918205A1 (fr) 2009-01-02
FR2918205B1 FR2918205B1 (fr) 2013-09-20

Family

ID=40137989

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0853922A Expired - Fee Related FR2918205B1 (fr) 2007-06-30 2008-06-13 Procede et systeme de rendu volumique multivue

Country Status (3)

Country Link
US (1) US7894663B2 (fr)
JP (1) JP5639739B2 (fr)
FR (1) FR2918205B1 (fr)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7874991B2 (en) * 2006-06-23 2011-01-25 Teratech Corporation Ultrasound 3D imaging system
US12102479B2 (en) 2008-09-15 2024-10-01 Teratech Corporation Ultrasound 3D imaging system
US20120179044A1 (en) 2009-09-30 2012-07-12 Alice Chiang Ultrasound 3d imaging system
US10080544B2 (en) 2008-09-15 2018-09-25 Teratech Corporation Ultrasound 3D imaging system
CN102171724B (zh) * 2008-10-01 2016-05-18 皇家飞利浦电子股份有限公司 医学图像序列快照的选择
KR101014559B1 (ko) * 2008-11-03 2011-02-16 주식회사 메디슨 3차원 초음파 영상 제공 초음파 시스템 및 방법
KR101043331B1 (ko) * 2009-04-30 2011-06-23 알피니언메디칼시스템 주식회사 초음파진단시스템의 실시간 다시점 3차원 초음파 영상 사용자 인터페이스 장치 및 방법
JP5253424B2 (ja) * 2010-01-05 2013-07-31 日立Geニュークリア・エナジー株式会社 超音波探傷方法及び超音波探傷装置
US20120105443A1 (en) * 2010-10-29 2012-05-03 Jon Alan Klingborg System and Method for Generating A Three-Dimensional Patient Display
KR101286401B1 (ko) * 2010-11-11 2013-07-15 삼성메디슨 주식회사 미리 보기 영상을 제공하는 초음파 시스템 및 방법
US8817076B2 (en) * 2011-08-03 2014-08-26 General Electric Company Method and system for cropping a 3-dimensional medical dataset
US20140358004A1 (en) * 2012-02-13 2014-12-04 Koninklijke Philips N.V. Simultaneous ultrasonic viewing of 3d volume from multiple directions
US8834376B2 (en) 2012-02-28 2014-09-16 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Health Dispersive ultrasound technology as a diagnostic device for traumatic brain injuries
US9064173B2 (en) 2012-03-07 2015-06-23 Blue River Technology, Inc. Method and apparatus for automated plant necrosis
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9196092B2 (en) * 2012-06-11 2015-11-24 Siemens Medical Solutions Usa, Inc. Multiple volume renderings in three-dimensional medical imaging
MX2015006351A (es) 2012-11-23 2016-03-15 Cadens Medical Imaging Inc Metodo y sistema para exhibir a un usuario una transicion entre una primera proyeccion proporcionada y una segunda proyeccion proporcionada.
US9658201B2 (en) 2013-03-07 2017-05-23 Blue River Technology Inc. Method for automatic phenotype measurement and selection
US10219449B2 (en) 2013-03-07 2019-03-05 Blue River Technology Inc. System and method for plant dislodgement
US10327393B2 (en) 2013-03-07 2019-06-25 Blue River Technology Inc. Modular precision agriculture system
WO2015127397A1 (fr) 2014-02-21 2015-08-27 Blue River Technology, Inc. Système et procédé d'étalonnage d'odométrie automatique pour des systèmes agricoles de précision
KR102255417B1 (ko) * 2014-03-13 2021-05-24 삼성메디슨 주식회사 초음파 진단 장치 및 그에 따른 초음파 영상의 디스플레이 방법
KR20160050395A (ko) * 2014-10-29 2016-05-11 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
KR102297148B1 (ko) * 2014-10-31 2021-09-03 삼성메디슨 주식회사 3차원 영상을 표시하는 초음파 시스템 및 그 방법
KR102297346B1 (ko) 2014-10-31 2021-09-03 삼성메디슨 주식회사 의료 영상 장치 및 그에 따른 의료 영상을 디스플레이 하는 방법
KR102388130B1 (ko) * 2015-01-12 2022-04-19 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
EP3264892B1 (fr) 2015-03-06 2020-10-07 Blue River Technology Inc. Système modulaire d'agriculture de précision
KR102035993B1 (ko) 2015-09-03 2019-10-25 지멘스 메디컬 솔루션즈 유에스에이, 인크. 탄성 영상을 형성하는 초음파 시스템 및 방법
WO2017192746A1 (fr) 2016-05-03 2017-11-09 Affera, Inc. Visualisation de dispositif médical
WO2017197114A1 (fr) 2016-05-11 2017-11-16 Affera, Inc. Génération de modèle anatomique
US11728026B2 (en) 2016-05-12 2023-08-15 Affera, Inc. Three-dimensional cardiac representation
EP3833290A1 (fr) 2018-08-10 2021-06-16 Covidien LP Systèmes de visualisation d'ablation
US11006091B2 (en) 2018-11-27 2021-05-11 At&T Intellectual Property I, L.P. Opportunistic volumetric video editing
US11113868B2 (en) 2018-12-04 2021-09-07 Intuitive Research And Technology Corporation Rastered volume renderer and manipulator
US11145111B2 (en) 2018-12-04 2021-10-12 Intuitive Research And Technology Corporation Volumetric slicer
CN111353328B (zh) * 2018-12-20 2023-10-24 核动力运行研究所 一种超声三维体数据在线显示及分析方法
US11062512B2 (en) * 2019-08-09 2021-07-13 Raytheon Company System and method for generating 3D color representation of 2D grayscale images
US11521345B2 (en) 2019-09-30 2022-12-06 GE Precision Healthcare LLC Method and system for providing rotation previews for three-dimensional and four-dimensional ultrasound images
CN110742654B (zh) * 2019-11-05 2020-11-17 深圳度影医疗科技有限公司 一种基于三维超声图像的标准切面的定位和测量方法
CN114445431B (zh) * 2022-04-11 2022-07-26 浙江卡易智慧医疗科技有限公司 一种医学三维影像任意切割的方法与装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5839440A (en) * 1994-06-17 1998-11-24 Siemens Corporate Research, Inc. Three-dimensional image registration method for spiral CT angiography
JPH10192A (ja) * 1996-04-15 1998-01-06 Olympus Optical Co Ltd 超音波画像診断装置
US6280387B1 (en) * 1998-05-06 2001-08-28 Siemens Medical Systems, Inc. Three-dimensional tissue/flow ultrasound imaging system
US6159150A (en) * 1998-11-20 2000-12-12 Acuson Corporation Medical diagnostic ultrasonic imaging system with auxiliary processor
JP2001022964A (ja) * 1999-06-25 2001-01-26 Terarikon Inc 三次元画像表示装置
JP2001276066A (ja) * 2000-03-29 2001-10-09 Toshiba Corp 三次元画像処理装置
US7656418B2 (en) 2003-06-11 2010-02-02 Koninklijke Philips Electronics N.V. User control of 3d volume plane crop
US20060034513A1 (en) * 2004-07-23 2006-02-16 Siemens Medical Solutions Usa, Inc. View assistance in three-dimensional ultrasound imaging
US7532214B2 (en) * 2005-05-25 2009-05-12 Spectra Ab Automated medical image visualization using volume rendering with local histograms
US7773074B2 (en) * 2005-06-28 2010-08-10 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging three dimensional navigation device and methods
US20070046661A1 (en) * 2005-08-31 2007-03-01 Siemens Medical Solutions Usa, Inc. Three or four-dimensional medical imaging navigation methods and systems
US8023709B2 (en) * 2006-11-24 2011-09-20 General Electric Company Vasculature partitioning methods and apparatus

Also Published As

Publication number Publication date
JP2009011827A (ja) 2009-01-22
JP5639739B2 (ja) 2014-12-10
FR2918205B1 (fr) 2013-09-20
US7894663B2 (en) 2011-02-22
US20090003665A1 (en) 2009-01-01

Similar Documents

Publication Publication Date Title
FR2918205A1 (fr) Procede et systeme de rendu volumique multivue
US10948415B2 (en) Method of determining surgical margins using fluorescence biopsy specimen imager
CN102763137B (zh) 用于由层析数据集生成2d图像的系统和方法
EP0648469B1 (fr) Système et procédé de visualisation de données échographiques tridimensionnelles
US6697067B1 (en) Method and system for storing information regarding a selected view of a three dimensional image generated from a multi-frame object
FR2923636A1 (fr) Procede et systeme d'alignement de coupes dans des systemes d'imagerie diagnostique
US8094772B2 (en) Reconstruction unit for reconstructing a fine reproduction of at least a part of an object
US20140235995A1 (en) Multi-modality image acquistion
JP4450786B2 (ja) 画像処理方法および画像処理プログラム
CN101190124A (zh) 交互式四维虚拟内窥镜检查术的方法和设备
CN103860191A (zh) 口腔内影像与容积影像的整合
CN101739708B (zh) 医用图像处理装置、超声波图像取得装置和医用图像处理方法
AU2014231354B2 (en) Data display and processing algorithms for 3D imaging systems
JPH10502194A (ja) 三次元像の構築及び表示を行う方法及びシステム
CN102117180A (zh) 单屏幕多模态成像显示
FR2937530A1 (fr) Mesure de grandeurs geometriques intrinseques a un systeme anatomique
CN105832363A (zh) 介入性成像和数据处理
JP4450797B2 (ja) 画像処理方法および画像処理プログラム
CN109313698A (zh) 同步的表面和内部肿瘤检测
US20050110748A1 (en) Tomography-capable apparatus and operating method therefor
CN111836584B (zh) 超声造影成像方法、超声成像装置和存储介质
WO2008063817A2 (fr) Procédé et système pour grouper des images dans un système d'imagerie par tomosynthèse
JP2009513221A (ja) 3次元画像から2次元心エコービューを生成して表示するためのシステム及び方法
CN108876783A (zh) 图像融合方法及系统、医疗设备和图像融合终端
JP4105176B2 (ja) 画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20150227