FR2798759A1 - Systeme et procede pour une segmentation fondee sur le rendu de volume - Google Patents

Systeme et procede pour une segmentation fondee sur le rendu de volume Download PDF

Info

Publication number
FR2798759A1
FR2798759A1 FR9914718A FR9914718A FR2798759A1 FR 2798759 A1 FR2798759 A1 FR 2798759A1 FR 9914718 A FR9914718 A FR 9914718A FR 9914718 A FR9914718 A FR 9914718A FR 2798759 A1 FR2798759 A1 FR 2798759A1
Authority
FR
France
Prior art keywords
image
function
boundary
voxels
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9914718A
Other languages
English (en)
Other versions
FR2798759B1 (fr
Inventor
Arun Krishnan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corporate Research Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of FR2798759A1 publication Critical patent/FR2798759A1/fr
Application granted granted Critical
Publication of FR2798759B1 publication Critical patent/FR2798759B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Abstract

Système d'imagerie à trois dimensions (3D) comportant : un processeur (16) destiné à produire une image en 3D à rendu de volume sur un dispositif d'affichage en utilisant une pluralité de voxels à partir d'un ensemble de données d'image en 3D; etun dispositif (10) de sélection de vision, sensible à des entrées de l'utilisateur, destiné à déterminer un premier ensemble de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère précisant la frontière déterminé à l'avance appliqué à une fonction de frontière de l'opacité de la pluralité de voxels.

Description

SYSTEME ET PROCEDE POUR UNE SEGMENTATION FONDEE SUR LE
RENDU DE VOLUME
ARRIERE-PLAN DE L'INVENTION
La présente invention se rapporte à des graphiques en trois dimensions et plus précisément à un système et à un procédé pour combiner le rendu de volume et la segmentation dans la production de graphiques en trois dimensions. Dans l'imagerie en trois dimensions (3D), on utilise la segmentation, qui est un processus pour identifier, délimiter et/ou démarquer des volumes d'intérêt à partir d'un ensemble de données de volume à 3D. Le volume d'intérêt dans une application médicale à 3D, telle qu'une analyse tomographique, sont classiquement des organes. Une segmentation peut être utilisée pour des mesures, par exemple des diamètres d'un vaisseau sanguin ou d'autres tissus tubulaires chez un patient. En outre, la segmentation peut être utilisée pour naviguer dans l'espace, à l'inclusion de l'espace virtuel, les régions de délimitation d'un organe segmenté étant utilisées pour une navigation automatique. Par la segmentation, on peut effectuer une visualisation des organes, dans laquelle des organes segmentés sont convertis en des modèles de surface qui peuvent être rendus à un taux de trame élevé en
2 2798759
utilisant des ordinateurs de graphiques et/ou des logiciels. La segmentation peut être effectuée en utilisant diverses techniques telles que des seuils simples appliqués sur le volume total de l'image en 3D, par exemple à des os de segments. En outre, des seuils adaptatifs peuvent être utilisés pour empêcher le "saignement" d'une partie de l'image en 3D sur une autre. En outre, des contours peuvent être dessinés sur chaque tranche de l'objet qui subi une formation d'image, tel qu'un organe. Des segments de ce genre
sont alors affichés pour être vus par le visionneur.
Le rendu de volume est également effectué dans l'imagerie en 3D, dans lequel les valeurs d'intensité des voxels de l'image en trois dimensions sont converties en des valeurs d'opacité en utilisant un mappage précis. D'autres mappages possibles incluent la correspondance de l'intensité avec l'opacité (couleur plus) ainsi qu'une correspondance entre un gradient d'intensité et l'opacité. Les valeurs d'opacité sont alors utilisées pour rendre le volume entier ou une partie de celui-ci sur un écran d'affichage. Chaque pixel d'écran reçoit en affectation une valeur particulière fonction de l'opacité de tous les voxels qui sont projetés sur le pixel d'écran respectif. Un utilisateur classiquement ajuste le mappage intensité à opacité, par exemple pour améliorer des particularités et/ou l'utilisateur peut modifier la position de visionnage et/ou la direction pour modifier la vue affichée, qui peut nécessiter le redessin de l'image en 3D et la mise à jour des valeurs d'intensité et d'opacité. Il est connu que la visualisation et la segmentation d'images en 3D peuvent être combinées pour permettre à un utilisateur de visionner de manière interactive la segmentation et de guider de manière
3 2798759
interactive le processus de segmentation. Des combinaisons de ce genre ont utilisé la segmentation en utilisant des systèmes à seuil global et la visualisation en utilisant des dispositifs d'affichage à ombre de surface. Jusqu'à maintenant le rendu de volume et la segmentation n'ont pas été combinés de manière effective puisque le rendu de volume ne permettait pas l'obtention de fonctions ou d'outils tels que la mesure, la navigation automatique, etc., par l'intermédiaire d'une image en 3D, tandis que des procédés de rendu de surface traditionnels utilisant des données pré-segmentées pouvaient mettre à
disposition des fonctions ou outils de ce genre.
Ainsi, il existe un besoin pour un système de rendu de volume et un procédé qui met à disposition des fonctions telles que la mesure et la navigation automatique.
RESUME DE L'INVENTION
Un système d'imagerie en trois dimensions (3D) et un procédé d'imagerie en trois dimensions prévoient un processeur pour produire une image en 3D à rendu de volume sur un dispositif d'affichage en utilisant une pluralité de voxels à partir d'un ensemble de données d'image en 3D; et un dispositif de sélection de vision qui répond aux entrées d'utilisateurs pour déterminer un premier ensemble de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère de précision de frontières déterminé à l'avance appliqué à une fonction de l'opacité de la pluralité de voxels. Le processeur répond au premier ensemble et à une sélection de fonction d'utilisateur en effectuant la fonction sélectionnée pour modifier l'image en 3D à rendu de volume par rapport aux frontières détectées. La fonction sélectionnée est une fonction d'affichage, une
4 2798759
fonction de mesure ou une fonction de segmentation. Le dispositif de sélection de vision détermine la frontière à partir des voxels ayant une opacité supérieure à un seuil déterminé à l'avance, ou détermine la frontière à partir des voxels ayant un gradient des opacités supérieur à un seuil déterminé à l'avance. En variante, le sélecteur de vision détermine la frontière à partir des voxels ayant une contribution la plus grande à une intensité totale qui est une fonction des opacités des voxels, ou détermine la frontière à partir des voxels ayant des contributions respectives supérieures à un seuil déterminé à l'avance, des contributions de ce genre étant fournies à une intensité totale qui est une fonction des
opacités des voxels.
Le système décrit permet à un utilisateur de manipuler les mappages d'opacité en utilisant des trapèzoïdes, des coulisseaux, etc., destinés à être utilisés pour segmenter le volume. Le système prend avantage du fait que, lorsqu'un utilisateur modifie des paramètres pour mettre en exergue une région particulière, des paramètres de ce genre sont suffisants pour déterminer automatiquement lequel des points en 3D l'utilisateur est en train effectivement de regarder. Il est également possible de restreindre le volume d'intérêt en utilisant par exemple des techniques à plans coupés ou d'autres techniques de sélection de régions de volume connues, et le système décrit est alors appliqué à un volume restreint de ce
genre.
Suivant l'invention, le système d'imagerie à trois dimensions comporte: un processeur destiné à produire une image en 3D à rendu de volume sur un dispositif d'affichage en utilisant une pluralité de voxels à partir d'un ensemble de données d'image en 3D; et
2798759
un dispositif de sélection de vision, sensible à des entrées de l'utilisateur, destiné à déterminer un premier ensemble de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère précisant la frontière déterminé à l'avance appliqué à une fonction de frontière de
l'opacité de la pluralité de voxels.
Suivant un perfectionnement de l'invention, le processeur, en réponse au premier ensemble et à une sélection de fonction d'utilisateur, effectue la fonction sélectionnée pour modifier l'image en 3D à
rendu de volume par rapport aux frontières détectées.
Suivant un perfectionnement de l'invention, la fonction sélectionnée est une fonction d'affichage, le processeur produisant et affichant un trajet sur le dispositif d'affichage entre une pluralité de points
sélectionnés sur l'image en 3D à rendu de volume.
Suivant un perfectionnement de l'invention, la fonction sélectionnée est une fonction de mesure, le processeur déterminant une valeur de mesure associée à une pluralité de points sélectionnés sur l'image en 3D
à rendu de volume.
Suivant un perfectionnement de l'invention, la
fonction sélectionnée est une fonction de segmentation.
Suivant un perfectionnement de l'invention, la fonction de segmentation est effectuée par le processeur en produisant une image segmentée à partir de l'image en 3D à rendu de volume déterminée par au moins un point sélectionné en tant que un point racine
sur l'image en 3D à rendu de volume.
Suivant un perfectionnement de l'invention, la fonction de segmentation est effectuée par le processeur en produisant une image segmentée à partir de l'image entière en 3D à rendu de volume représentant un organe unique en cours d'affichage sur le dispositif d'affichage.
6 2798759
Suivant un perfectionnement de l'invention, la fonction de segmentation est effectuée par le processeur en produisant une image segmentée en réponse au fait que l'utilisateur sélectionne l'image en 3D entière à rendu de volume pour la segmentation. Suivant un perfectionnement de l'invention, le sélecteur de vision détermine la frontière à partir de voxels ayant des opacités supérieures à une valeur de
seuil déterminée à l'avance.
Suivant un perfectionnement de l'invention, le sélecteur de vision détermine la frontière à partir de voxels ayant un gradient en opacité supérieur à une
valeur seuil déterminée à l'avance.
Suivant un perfectionnement de l'invention, le sélecteur de vision détermine la frontière à partir de voxels ayant une contribution la plus grande à une intensité totale qui est une fonction des opacités des voxels. Suivant un perfectionnement de l'invention, le sélecteur de vision détermine la frontière à partir de voxels ayant des contributions respectives plus grandes qu'une valeur seuil déterminée à l'avance, des contributions de ce genre étant à une intensité totale
qui est une fonction des opacités des voxels.
Suivant un perfectionnement de l'invention, le sélecteur de vision détermine les frontières à partir de voxels ayant une somme des opacités qui est
supérieure à une valeur seuil déterminée à l'avance.
Suivant un perfectionnement de l'invention, le système d'imagerie en trois dimensions comprend: un processeur destiné à produire une image en 3D à rendu de volume sur un dispositif d'affichage en utilisant une pluralité de voxels à partir d'un ensemble de données d'image en 3D; et un sélecteur de vision, sensible à des entrées d'utilisateur, destiné à déterminer un premier ensemble
7? 2798759
de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère de précision de frontière déterminé à l'avance qui compare une valeur seuil déterminée à l'avance à une fonction de frontière des opacités de la pluralité des voxels
pour déterminer la frontière.
Suivant un perfectionnement de l'invention, le sélecteur de vision détermine la frontière en utilisant un critère de précision de frontière qui compare une valeur seuil déterminée à l'avance à une fonction de frontière des opacités et des intensités de la
pluralité des voxels.
L'invention vise un procédé pour déterminer une frontière dans une image en trois dimensions à rendu de volume comprenant les étapes qui consistent à: produire une image 3D à rendu de volume sur un dispositif d'affichage à partir d'une pluralité de voxels à partir d'un ensemble de données d'image en 3D en utilisant un processeur; recevoir des valeurs de voxels et des valeurs d'opacité correspondantes de la pluralité de voxels; et déterminer un premier ensemble de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère de précision de frontière déterminé à l'avance appliqué à une fonction
de frontière de l'opacité de la pluralité de voxels.
Suivant un perfectionnement de l'invention, le procédé comprend en outre l'étape qui consiste à: effectuer une fonction sélectionnée par un
utilisateur en utilisant la frontière déterminée.
Suivant un perfectionnement de l'invention, l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste à: effectuer une fonction d'affichage, le processeur produisant et affichant un trajet sur le dispositif
8 2798759
d'affichage entre une pluralité de points sélectionnés sur l'image en 3D à rendu de volume en utilisant la
frontière déterminée.
Suivant un perfectionnement de l'invention, l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste à: effectuer une fonction de mesure, le processeur déterminant une valeur de mesure associée à une pluralité de points sélectionnés sur l'image en 3D à
rendu de volume en utilisant la frontière déterminée.
Suivant un perfectionnement de l'invention, l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste à: effectuer une fonction de segmentation sur l'image
en 3D à rendu de volume.
Suivant un perfectionnement de l'invention, l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste à: effectuer une fonction d'enregistrement sur une pluralité d'images en 3D à rendu de volume
correspondant à une pluralité d'ensembles de données.
DESCRIPTION SUCCINCTE DES DESSINS
La figure 1 illustre un système de formation de graphiques en 3D incorporant les principes de la présente invention; La figure 2 illustre une interface d'utilisateur de dispositif de formation de graphique pour le système de formation de graphique en 3D de la figure 1; La figure 3 illustre un organigramme du procédé de fonctionnement du système de formation de graphiques en 3D; La figure 4 illustre un mappage de voxels ayant des valeurs d'opacité conformes à un aspect de l'invention; et La figure 5 illustre une image de rendu de volume avec des points prélevés pour effectuer des fonctions
sur l'image de rendu de volume.
DESCRIPTION DETAILLEE DU MODE DE REALISATION
PREFERE
En se référant maintenant à la figure 1, un système 10 de sélection de vision et un procédé conforme à la présente invention sont utilisés dans une segmentation fondée sur le rendu de volume pour commander des valeurs d'opacité pendant le rendu de volume et la segmentation lors de la visualisation d'images en trois dimensions (3D). Le sélecteur 10 de vision est relié à un générateur 12 de graphiques à 3D d'un système 14 de formation de graphiques en 3D ayant un processeur 16. Le générateur 12 de graphiques en 3D coopère avec le processeur 16 par l'intermédiaire par exemple d'une carte 18 de tâche ou d'autres fonctions ou sous-programmes pour produire et afficher des images en 3D sur un écran ou d'autres dispositifs de sortie, par exemple, en tant que représentation en 2D des images en 3D. En variante, l'imagerie en 3D utilisant, par exemple, des techniques stéréographiques telles que des dispositifs d'affichage volumétriques en 3D et des lunettes, telles que des lunettes en trois dimensions, peut permettre à l'utilisateur de visionner l'image en 3D sur un écran d'affichage sensiblement à deux dimensions. Le processeur 16 fonctionne avec un générateur 20 de symbole d'image qui peut être une collection d'objets de logiciel pour représenter des symboles d'imagerie sur l'écran de sortie qui peut être facilement compris par des utilisateurs du système 14
de formation de graphiques en 3D.
Le processeur 16 comporte également une interface 22 de dispositif, un dispositif 24 de gestion (GUI) d'interface d'utilisateur de graphique et une interface 26 (API) de programme d'application, avec des
2798759
composants 22 à 26 de ce genre reliés à un serveur 28 d'interface et en interface avec celui-ci pour coopérer avec d'autres systèmes 30, tels que l'Internet pour des communications à distance; un serveur 32 à sortie papier (HcS) pour envoyer des sorties à un dispositif de formation d'image ou imprimante 34 pour des sorties sur papier; un serveur 36 (DbS) de base de données pour mémoriser des données, par exemple dans un dispositif de stockage 38 en ligne; un serveur 40 (PrS) de traitement destiné à mémoriser des données dans la mémoire 42 du processeur 16 ou d'autres unités de traitement centrales (CPU); et un serveur 44 d'interface d'utilisateur (UI) utilisant par exemple le protocole WINDOWS X tel que la version 11 (Xll) pour interfacer avec au moins un dispositif 46 d'entrée et/ou de sortie (I/O) tel qu'un écran d'affichage, un
clavier et/ou une souris.
Dans un mode de réalisation préféré, le générateur 12 de graphiques en 3D est le logiciel FLY THROUGH disponible dans le commerce, de la société SIEMENS MEDICAL SYSTEMS, INC., de Iselin dans le New Jersey, qui fonctionne sur un poste de travail en tant que le système 14 de graphique en 3D tel que le poste de travail PROMINENCE distribué par la société SIEMENS MEDICAL SYSTEMS, INC., de Iselin, New Jersey, qui est un poste de travail de pré-traitement et de vision médicale perfectionné fabriqué par ISG TECHNOLOGIES du Canada. Le GUI pour utiliser le logiciel FLY THROUGH peut être mis en oeuvre sur une console satellite SIENET MAGICVIEW CT/MR disponible auprès de la société SIEMENS CORPORATION, pour fonctionner en tant que dispositif 46 I/O. En variante le système de graphique décrit dans le brevet des Etats Unis d'Amérique n 5 782 762 délivré à Vining et/ou le brevet des Etats Unis d'Amérique n 5 825 909 délivré à Jang, qui sont ici incorporés à titre de référence, peuvent être utilisés en tant que le
système 14 de graphique en 3D.
Pour une imagerie graphique médicale en 3D, le générateur 20 de symbole d'image peut être la collection META 4 d'objets de logiciel qui représente de manière métaphorique des symboles d'imagerie médicale sur le UI du dispositif 46 I/O qui sont
facilement compréhensibles par des utilisateurs.
L'interface 22 de dispositif peut être un ensemble d'objets d'interface de communication (DICOM) d'imagerie et de communication numérique en médecine, et le serveur 28 d'interface peut être un serveur à base de DICOM qui peut être en interface avec des systèmes 30 médicaux tels que des scanners tomographiques aidés par ordinateur (CAT) et des machines à rayons X. En outre, le dispositif 24 de gestion GUI peut être le dispositif de gestion MOTIF pour le WINDOWS X, et l'API 26 peut être les graphiques API de référence de librairie graphique ouverte
(OpenGL).
Le générateur 12 de graphique 3D peut inclure un module de segmentation, un module de formation de modèle et un module d'affichage interactif. Le module de segmentation segmente différents organes d'intérêt,
et produit un ensemble de données de volume segmenté.
Le module de formation de modèle convertit l'ensemble de données de volume segmenté en un ensemble de modèles polyédriques segmenté qui permet un affichage en temps réel par le module d'affichage interactif. Par l'intermédiaire du GUI du dispositif 46 I/O, on peut présenter à l'utilisateur un écran ayant trois fenêtres 48 à 52 de vision différentes, représentées à la figure 2, ainsi qu'une partie 54 de l'écran présentant un panneau de commande de tâches pouvant être sélectionnées et de barre de tâches que l'on peut sélectionner par l'intermédiaire de flèches. Lorsque
* 12 2798759
l'on utilise une application médicale endoscopique, une fenêtre 48 de vision globale représente les divers modèles d'organes segmentés en 3D ainsi qu'une
description de l'endoscope, qui peut être produit par
tomographie d'ordinateur ou balayage de résonance magnétique d'un patient. Une fenêtre 50 de vision endoscope représente une vision simulée en 3D des modèles d'organes segmentés tels que vus de la pointe de l'endoscope à l'intérieur des organes du patient. La fenêtre 52 de vision de corrélation représente un plan de reconstruction multiplan (MPR) passant par la position de pointe de l'endoscope, ou représente
l'image du patient initiale à corréler à l'endoscope.
Comme représenté à la figure 1, le dispositif 46 I/O peut, en option, être relié au sélecteur 10 de vision pour recevoir des entrées d'utilisateur pour commander la sélection et l'orientation des visions au fur et à mesure que l'utilisateur visionne les fenêtres 48 à 52 pour naviguer dans les images à 3D représentées
dans les fenêtres 48 à 52.
Le système 10 de sélection de vision peut être du matériel et/ou du logiciel et peut être incorporé dans le générateur 12 de graphique en 3D sous forme d'un sous-programme, ou peut être positionné à distance par rapport au système 14 graphique en 3D; par exemple, le système 10 de sélection de vision peut être un poste de travail distinct relié au générateur 12 de graphique en 3D, ou peut être un ordinateur personnel en communication avec le générateur 12 de graphique en 3D
par l'intermédiaire d'un réseau, tel que l'Internet.
Le système 10 de sélection de vision fonctionne en liaison avec le générateur 12 de graphique en 3D en utilisant le procédé représenté à la figure 3. Le générateur 12 de graphique en 3D reçoit des entrées de l'utilisateur à l'étape 56 par l'intermédiaire du GUI du dispositif 46 I/O, tel que les fenêtres 48 à 54
13 2798759
représentées à la figure 2, ou en variante par l'intermédiaire du système 10 de sélection de vision, pour sélectionner le point de vision. Le générateur 12 de graphique en 3D produit alors un rendu de volume, ou fait en sorte que le processeur 16 produise un rendu de volume à l'étape 58 à partir du point de vision sélectionné. Par exemple, après qu'un utilisateur ait placé un curseur GUI, tel qu'une flèche formant pointeur sensible à une souris, dans un emplacement particulier sur le GUI, tel que la fenêtre 50, le générateur 12 de graphique en 3D répond en modifiant le rendu de volume de sorte qu'il se conforme au point de
vision sélectionné.
Le système 10 de sélection de vision reçoit alors, à l'étape 60, des valeurs de voxels et des valeurs d'opacité correspondantes du rendu de volume produit à l'étape 58 pour un point dans le rendu de volume prélevé par l'utilisateur, conformément à un mappage décrit en référence à la figure 4. Le système 10 de sélection de vision détermine à l'étape 62 l'existence, s'il y en a une, d'une frontière à partir des valeurs d'opacité pour le point prélevé, et effectue alors une fonction sélectionnée à l'étape 64 en réponse à des entrées ou des sélections d'utilisateurs supplémentaires fondées sur la frontière déterminée à partir des valeurs d'opacité de l'étape 62. Par exemple, l'étape 64 peut inclure n'importe laquelle ou l'ensemble des fonctions de navigation 66, mesure 68,
segmentation 70 et enregistrement 71.
En se référant à la figure 4, le système 10 de sélection de vision reçoit des valeurs de voxel et des valeurs d'opacité correspondantes à l'étape 60 fondées sur le mappage 72 à partir d'un volume 74 de vision en un ensemble 76 de valeurs d'opacité indexé par des valeurs de voxel. Le volume 74 de vision à partir d'une projection en perspective est déterminé par la
14 2798759
direction 78 de vision correspondant au point de vision d'un emplacement 80 d'oeil; c'est-à-dire la perspective choisie lorsque l'on produit l'image en 3D par le générateur 12 de graphique en 3D telle que la perspective endoscopique d'un passage tubulaire dans la fenêtre 50 à la figure 2. Un point prélevé, tel que le point 82 prélevé, est précisé par l'utilisateur à l'intérieur du volume 74 de vision en répondant au fait que l'utilisateur déplace l'emplacement du curseur en utilisant le GUI ou d'autres entrées reçues du système
de sélection de vision.
L'ensemble 84 de voxels le long du rayon 86 à partir de l'emplacement 80 d'oeil jusqu'au point 82 prélevé sont évalués, et les valeurs d'opacité correspondantes de l'ensemble 84 des voxels sont mappées pour former l'ensemble 76 des valeurs d'opacité emmagasinées dans un registre ou d'autres emplacements de stockage dans un mémoire du sélecteur 10 de vision et/ou du système 14 d'imagerie en 3D. Le point prélevé peut être n'importe quel point le long du rayon 86 en provenance de l'emplacement 80 de l'oeil, et ainsi par exemple le point prélevé peut être le voxel représenté au point 82 à la figure 4. Les voxels le long du rayon 86 et à l'intérieur du volume 74 de vision peuvent être indexés de 1 à N, dans lequel le voxel 1 est le plus proche du visionneur à l'emplacement 80 de l'oeil, et le voxel N est le plus éloigné. Chaque voxel i, i = 1 à N,
est associé à une intensité Ii et à une opacité ai.
Le système 10 de sélection de vision détermine alors l'existence d'une frontière ou limite dans l'étape 62 le long du rayon 86 jusqu'au point 82 prélevé, puisque le mappage 72 d'opacité et les valeurs de voxel fournissent suffisamment d'informations pour déterminer un emplacement de frontière conformément à un critère de frontière déterminé à l'avance. Suivant un mode de réalisation préféré, la frontière b1 est le
2798759
voxel qui se trouve au voxel le plus proche le long du rayon 86, dans lequel l'opacité est supérieure à un seuil T d'opacité déterminé à l'avance, tel que 0,9 sur une échelle de 0- à 1, dans lequel 0 correspond à la transparence ou à aucune opacité et 1 correspond à une
opacité complète.
Par conséquent, la frontière b1 est: b, = vj de sorte quej = min k, Va >T; k = 1l...N. (1) Dans un second mode de réalisation, la frontière peut être déterminée comme étant à l'emplacement o le gradient d'opacité entre des voxels successifs est supérieur à un seuil G de gradient déterminé à l'avance, et ainsi b2 = V de sorte que a, -a>G;j=1...N, (2) ou en variante, le minimum j satisfaisant la condition de seuil de gradient mentionnée précédemment détermine
la limite au voxel vj.
Suivant un troisième mode de réalisation, une intensité finale de l'image de rendu de volume observée à l'emplacement 80 de l'oeil est: Io = a xIl + (1 - a)x a2 xI2 +(1-al)x (l-a2)xa3 xI3 (3) + (-al) x(1a-2)x...x(1 - al) x aN xIN avec la iame contribution Ci à l'intensité IOUT de sortie totale qui est: ci= a xix[(1_-a). (4) j La frontière b3 peut être déterminée comme étant le voxel ayant la contribution la plus grande à IOUT, qui peut être déterminée comme étant: b3= vj desorte que Cj = max Ck;k=1... N. (5) Dans un quatrième mode de réalisation, la frontière b4 est située au voxel le plus proche de la position 80 de l'oeil de sorte que le terme Ci ajouté dans les équations (4)-(5) est supérieur à un seuil W, c'est-à- dire: b4 = vj desorte quej = mm k, VCk> W; k = 1... N. (6) Dans un cinquième mode de réalisation, la frontière b5 est située au voxel le plus proche de la position 80 de l'oeil, de sorte que la somme des opacités des voxels à partir de la position 80 de l'oeil jusqu'à la frontière est supérieure à un seuil V, c'est-à-dire: b5 = v de sorte que j = mm k avec k1 N (7) i (a. > V; k=l1... N. 7 N'importe laquelle des conditions frontières de ce genre, ou une combinaison de celles-ci, peut être utilisée pour déterminer la frontière à l'étape 623 de la figure 3, qui correspond alors à des surfaces de, par exemple, un organe de corps simulé dans l'image à rendu de volume. Des conditions limites de ce genre peuvent alors être entrées dans le générateur 12 de graphique en 3D, tel que FLY THROUGH, pour un
fonctionnement ultérieur par l'utilisateur.
En utilisant le système 10 de sélection de vision, l'utilisateur peut alors sélectionner des fonctions ou des outils dans l'étape 64 avec les images en 3D à rendu de volume sans nécessiter nécessairement que
17 2798759
l'image en 3D soit segmentée avant. Par exemple, comme représenté à la figure 5, pour une image 88 à rendu de volume d'une aorte constituée d'une pluralité de voxels produits à partir de données en 3D provenant de larégion entourant l'aorte, par exemple pendant une angioplastie, un utilisateur peut prélever un premier point 92 sur l'image 88 en déplaçant le curseur 94 de GUI vers la région ayant le point 92 et cliquer alors la souris lorsque le curseur 94 est au point 92
souhaité.
Pour effectuer une navigation à l'étape 66 de la figure 3, l'utilisateur prélève le premier point 92 et un second point 96, et le système 10 de sélection de vision et/ou le générateur 12 de graphique en 3D, en réponse à la sélection des points 92, 96, produit automatiquement un trajet 98; par exemple pour permettre à l'endoscope en utilisant le logiciel FLY THROUGH de se propager entre les points 92, 96 sans pré-segmenter les données de l'image 88 en 3D. Le trajet 98 est calculé en fonction des paramètres d'opacité que l'utilisateur peut prérégler ou modifier qui définissent l'organe ou le vaisseau de corps tel que l'aorte 88. Si les deux points 92, 96 sont à l'intérieur d'un vaisseau de corps ou d'un passage de traversée tel que l'oesophage, l'aorte ou les intestins, avec les réglages d'opacité qui ont été choisis pour faire en sorte que le vaisseau 88 de corps soit visible dans le rendu en 3D du vaisseau 88 de corps, alors le trajet 98 sélectionné suit le vaisseau 88 de corps, à l'intérieur des limites de frontières déterminées à l'étape 62 de la figure 3. Si les réglages d'opacité sont choisis pour faire en sorte que le vaisseau 88 de corps soit invisible, alors le trajet 98 calculé ne suit pas le vaisseau 88 mais à la place est dirigé suivant une ligne sensiblement droite à partir du point
18 2798759
92 jusqu'au point 96, et s'écarte uniquement pour
éviter toute région opaque entre les points 92, 96.
Le système 10 de sélection de vision permet également une mesure entre des points 92, 96 multiples, comme à l'étape 68, par exemple des distances géométriques entre les points 92, 96, de l'angle formé par des points multiples, d'une distance minimale non linéaire entre des points si des régions opaques se trouvent entre les points 92, 96, etc. Des techniques de mesure de ce genre sont connues, le système 10 de sélection de vision déterminant des frontières qui
affectent des mesures de ce genre.
Le système 10 de sélection de vision permet également de choisir une segmentation à l'étape 70 après que les frontières ont été déterminées à l'étape 64. En se référant à la figure 5, en ayant déterminé les frontières ou limites, le système 10 de sélection de vision permet à un utilisateur de prélever un point de départ en 3D pour une segmentation automatique pour produire une image 102 segmentée en utilisant par exemple des techniques de segmentation connues, tel que décrit dans le brevet des Etats Unis d'Amérique n 5 782 762 et/ou dans le brevet des Etats Unis d'Amérique n 5 825 909 au nom de Jang, qui sont incorporés ici à
titre de référence.
En outre, le système 10 de sélection de vision permet également de choisir l'enregistrement à l'étape 71, dans lequel une pluralité d'ensembles de données sont rendues en volume dans au moins une fenêtre sur l'écran comme à la figure 2, et l'utilisateur prélève des points correspondants sur les images de rendu de volume. Les points prélevés permettent alors à l'utilisateur d'enregistrer les deux ensembles de données; par exemple pour modifier des images par translation ou morphisme. L'enregistrement garantit la cohérence anatomique des multiples ensembles de
19 2798759
données. La cohérence anatomique stipule que si un point PA dans le volume A correspond à la même région chez le patient qu'un point PB dans le volume B, alors le mappage enregistré entre A et B conservé par le système 10 de vision inclut des cohérences anatomiques
de ce genre entre des ensembles de données.
Certaines acquisitions MR sont bien enregistrées, telles que dans des études neuronales, puisque la tête
peut être fixée pendant la durée d'acquisition.
Cependant, des déplacements du patient peuvent ne pas pouvoir être évités pendant l'acquisition d'autres parties du corps; par exemple dans des études périphériques qui mettent en jeu le déplacement de la table du patient avec le patient qui se trouve dessus entre des acquisitions différentes. Une technique qui peut être utilisée est l'enregistrement de corps rigide automatique, dans lequel une transformation de corps rigide est effectuée par le système 10 de vision et/ou de système 14 graphique pour enregistrer de multiples études. Par exemple, une carte de tâche FUSION incluse dans les cartes 18 de tâches, c'est-à-dire les fonctions disponibles utilisées par le générateur 12 de graphique avec le système 14 graphique, peut être utilisée dans ce but. En utilisant une sélection interactive des points correspondants entre deux études volumétriques, un enregistrement complet automatique peut être effectué qui fait correspondre deux études basées sur des valeurs de pixels/voxels, de manière à les aligner de manière convenable. Un enregistrement automatique de ce genre est utile dans des applications MRA, puisque la nature et les statistiques pixels/voxels de multiples études d'une structure physique commune sont très similaires. Ainsi, un utilisateur et/ou des techniques de correspondance d'enregistrement automatique telles que des réseaux neuronaux ou des dispositifs de classification peuvent
2798759
aligner les images dans la préparation d'une manipulation d'images supplémentaire, comme décrit précédemment. Une autre technique liée est l'enregistrement fondé sur le rendu de volume interactif, dans lequel la disponibilité du rendu de volume en temps réel et interactif offre des enregistrements de corps rigide fondés sur la visualisation. En utilisant un procédé d'enregistrement de ce genre, deux études peuvent être rendues en volume de manière simultanée dans une ou plusieurs fenêtres d'affichage par l'intermédiaire du GUI. L'utilisateur et/ou les techniques de mise en correspondance d'enregistrement automatique incluant des réseaux neuronaux et des dispositifs de classification peuvent de manière interactive tenter de maximiser le chevauchement entre des images. Le rendu de volume en temps réel peut être utilisé pour mettre
en ouvre des enregistrements interactifs de ce genre.
Dans un mode de réalisation en variante, des transformations qui déforment un corps volumétrique pour le faire correspondre à un autre pour effectuer un enregistrement de déformation automatique peuvent être utilisées, ce qui peut compenser des déplacements de
corps non rigides.
D'autres techniques connues d'enregistrement d'images médicales peuvent être utilisées, telles que la maximisation de la technique d'information mutuelle (MMI), et la technique itérative du point le plus proche (ICP), pour faire correspondre et manipuler des images de ce genre en utilisant le sélecteur 10 de vision. Dans un autre mode de réalisation en variante, une technique de mise en groupement de visualisation peut être effectuée, dans laquelle des visualisations d'images différentes peuvent être mises en groupe, des modifications apparaissant ou mises en oeuvre dans les
21 2798759
paramètres de visionnage dans une image d'un groupe d'images mises en groupe étant automatiquement appliquées au reste des images dans le groupe. Des paramètres de visionnage incluent des fenêtres, des niveaux, des zooms et des panchromatiques pour le visionnage en 2D; et des points de visionnage, des paramètres de caméra, des plans de clipage, des fonctions de transfert, etc., pour des visionnages en 3D, ainsi que des techniques de filtrage et d'autres techniques de transformation d'images. Une modification dans un paramètre de visualisation d'une image modifie le paramètre de visualisation des images mises en groupe restantes. Par exemple, une modification de la résolution pour zoomer sur une partie d'une première image peut faire en sorte que le sélecteur 10 de vision modifie la résolution dans d'autres images à zoomer
dans une partie correspondante des images respectives.
Dans un autre mode de réalisation en variante, une mesure interactive et une mise en groupe de régions d'intérêt (ROI) peuvent être effectuées. Lorsque des mesures interactives sont réalisées sur une image d'un groupe mis en groupe, telles que des distances, des surfaces, des volumes, des propriétés d'histogramme/d'intensité, etc., les mêmes mesures peuvent être rendues comme dans un miroir sur les autres éléments du groupe. Pour des mesures à base d'intensité/histogramme, le résultat peut être différent dans chaque volume. La sélection ROI et la position des pointeurs ou d'autres indicateurs graphiques sur des particularités dans les images sont
mises en groupe d'une manière similaire.
Comme les limites ou frontières sont déterminées et que des points peuvent être prélevés sur l'image de rendu en volume et ensuite qu'une segmentation est effectuée, le système 10 de sélection de vision permet à un utilisateur de sélectionner des objets dans
22 2798759
l'image de rendu de volume et ensuite de modifier la visibilité d'objets de ce genre, par exemple en effectuant un évanouissement ou un rendu invisible de l'objet dans son ensemble. L'utilisateur peut ainsi se focaliser sur des régions d'intérêt sans définir des plans de découpe et des boîtes de délimitation tel que cela se fait dans les techniques de sélection d'objets connues. Avec des volumes segmentés de ce genre, l'utilisateur peut également appliquer des couleurs à différentes parties de l'image rendue. Classiquement, une couleur précise est associée à un domaine défini ou précis de valeurs d'intensité, avec des affectations de couleurs de ce genre utilisées pendant le rendu de volume à l'étape 58. Bien que différents voxels ayant la même intensité ne puissent pas être colorés de manière différente dans des techniques de rendu de volume connues, le système 10 de sélection de visionnage décrit permet à l'utilisateur de sélectionner les parties segmentées de l'image de rendu de volume, telles que le segment 102 de l'image 88 à la figure 5, et ensuite d'affecter une couleur différente aux régions segmentées. Par conséquent, différents voxels rendus ayant les mêmes valeurs d'intensité peuvent être affichés avec différentes couleurs, ce qui n'est pas effectué dans les techniques d'imagerie connues. Le système 10 de sélection de visionnage peut également être utilisé avec deux autres types connus de rendu de volume: la projection d'intensité maximale (MIP ou MaxIP) et la projection d'intensité minimale (MinIP), avec des modifications appropriées dans le sélecteur de vision/frontière. Des modifications de ce genre permettent à l'utilisateur de choisir le procédé de rendu de volume, tel que le mixage, le MaxIP, le MinIP, etc., ainsi que des fonctions de
23 2798759
transfert/paramètres sélectionnables et ajustables choisies par l'utilisateur. Des choix d'utilisateur de ce genre déterminent une formule à utiliser pour
préciser l'emplacement de la frontière.
Dans des modes de réalisation en variante, l'utilisateur peut utiliser des modèles de surface pour prélever des surfaces sur une image de rendu de volume, de sorte que le mappage 72 à la figure 4 utilise des surfaces à la place du rayon 86 et/ou l'utilisateur manipule des lignes de voxels à la place d'un point prélevé tel que le point 82. Dans d'autres modes de réalisation en variante, pour commander un endoscope pour éviter des collisions, le système 10 de sélection de vision peut déterminer des frontières avec des facteurs de réponse de force respective, de sorte qu'une frontière détectée peut correspondre à une paroi de colon, et ainsi un endoscope manipulé à distance subit une force empêchant une collision lorsque l'endoscope simulé à afficher dans les fenêtres 48 à 52 vient en contact avec une frontière de rendu de volume ou vient à l'intérieur d'une distance déterminée à l'avance de la frontière, telle que déterminée par le critère de condition limite décrit précédemment. En outre, comme le colon est un vaisseau corporel qui se courbe et se tortille, certains des points de rendu de volume peuvent se trouver autour d'une courbure, de sorte que bien qu'étant à l'intérieur de distances déterminées à l'avance, des voxels de ce genre que l'on appelle "autour de la courbe" ne sont pas considérés comme des frontières. Ainsi des voxels de ce genre ne sont pas visibles et ainsi n'exercent pas de force évitant la collision sur l'endoscope. Par conséquent, les forces évitant la collision peuvent être pondérées ou mises à zéro pour des frontières qui ne sont pas suffisamment proches de l'endoscope et ainsi tous les
24 2798759
points de frontière ne contribuent pas aux forces
évitant la collision appliquées à l'endoscope.
Dans ce qui précède, un système 10 de sélection de vision et un procédé non évidents et nouveaux ont été décrits au moyen du mode de réalisation préféré. Cependant, de nombreuses modifications et substitutions peuvent être effectuées sans sortir de l'esprit de l'invention. Par exemple, alors que le mode de réalisation préféré décrit un système d'imagerie en 3D, il est entièrement dans l'étendue de l'invention de considérer des images à dimensions multiples et du rendu de volume à dimensions multiples avec une segmentation de la manière décrite précédemment. Par conséquent, l'invention a été décrite uniquement à
titre d'illustration et non pas de limitation.
Le système d'imagerie en 3D à trois dimensions et le procédé incluent un processeur (16) destiné à produire une image en 3D à rendu de volume sur un dispositif d'affichage en utilisant une pluralité de voxels à partir d'un ensemble de données d'images en 3D; et un sélecteur (10) de vision qui répond à des entrées d'utilisateur en déterminant un premier ensemble de voxels correspondant à une limite dans l'image en 3D à rendu de volume en utilisant un critère de précision de limite déterminé à l'avance appliqué à
une fonction de l'opacité et à la pluralité des voxels.
Le processeur (16) répond au premier ensemble et à une fonction d'utilisateur sélectionnée en effectuant la fonction sélectionnée pour modifier l'image en 3D à rendu de volume par rapport aux limites détectées. La fonction sélectionnée est une fonction d'affichage, une fonction de mesure ou une fonction de segmentation. Le sélecteur de vision (10) détermine la limite à partir des voxels ayant des opacités plus grandes qu'un seuil déterminé à l'avance, ou détermine la limite à partir de voxels ayant un gradient en opacité supérieur à une
2798759
valeur de seuil déterminée à l'avance. En variante, le sélecteur 10 de vision détermine la limite à partir des voxels ayant une contribution la plus grande à une intensité totale qui est une fonction des opacités des voxels, ou détermine la limite à partir des voxels ayant des contributions respectives plus grandes qu'une valeur seuil déterminée à l'avance, des contributions de ce genre étant à une intensité totale qui est une
fonction des opacités des voxels.
26 2798759

Claims (21)

REVENDICATIONS
1. Système d'imagerie à trois dimensions (3D) caractérisé en ce qu'il comporte: un processeur (16) destiné à produire une image en 3D à rendu de volume sur un dispositif d'affichage en utilisant une pluralité de voxels à partir d'un ensemble de données d'image en 3D; et un dispositif (10) de sélection de vision, sensible à des entrées de l'utilisateur, destiné à déterminer un premier ensemble de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère précisant la frontière déterminé à l'avance appliqué à une fonction de frontière de
l'opacité de la pluralité de voxels.
2. Système d'imagerie en 3D suivant la revendication 1, caractérisé en ce que le processeur (16), en réponse au premier ensemble et à une sélection de fonction d'utilisateur, effectue la fonction sélectionnée pour modifier l'image en 3D à rendu de
volume par rapport aux frontières détectées.
3. Système d'imagerie en 3D suivant la revendication 2, caractérisé en ce que la fonction sélectionnée est une fonction d'affichage, le processeur (16) produisant et affichant un trajet sur
27 2798759
le dispositif d'affichage entre une pluralité de points
sélectionnés sur l'image en 3D à rendu de volume.
4. Système d'imagerie en 3D suivant la revendication 2, caractérisé en ce que la fonction sélectionnée est une fonction de mesure, le processeur (16) déterminant une valeur de mesure associée à une pluralité de points sélectionnés sur l'image en 3D à
rendu de volume.
5. Système d'imagerie en 3D suivant la revendication 2, caractérisé en ce que la fonction
sélectionnée est une fonction de segmentation.
6. Système d'imagerie en 3D suivant la revendication 5, caractérisé en ce que la fonction de segmentation est effectuée par le processeur (16) en produisant une image segmentée à partir de l'image en 3D à rendu de volume déterminée par au moins un point sélectionné en tant que un point racine sur l'image en
3D à rendu de volume.
7. Système d'imagerie en 3D suivant la revendication 5, caractérisé en ce que la fonction de segmentation est effectuée par le processeur (16) en produisant une image segmentée à partir de l'image entière en 3D à rendu de volume représentant un organe unique en cours d'affichage sur le dispositif
d'affichage.
8. Système d'imagerie en 3D suivant la revendication 5, caractérisé en ce que la fonction de segmentation est effectuée par le processeur (16) en produisant une image segmentée en réponse au fait que l'utilisateur sélectionne l'image en 3D entière à rendu
de volume pour la segmentation.
9. Système d'imagerie en 3D suivant la revendication 1, caractérisé en ce que le sélecteur de vision (10) détermine la frontière à partir de voxels ayant des opacités supérieures à une valeur de seuil
déterminée à l'avance.
28 2798759
10. Système d'imagerie en 3D suivant la revendication 1, caractérisé en ce que le sélecteur (10) de vision détermine la frontière à partir de voxels ayant un gradient en opacité supérieur à une valeur seuil déterminée à l'avance.
11. Système d'imagerie en 3D suivant la revendication 1, caractérisé en ce que le sélecteur de vision détermine la frontière à partir de voxels ayant une contribution la plus grande à une intensité totale
qui est une fonction des opacités des voxels.
12. Système d'imagerie en 3D suivant la revendication 1, caractérisé en ce que le sélecteur (10) de vision détermine la frontière à partir de voxels ayant des contributions respectives plus grandes qu'une valeur seuil déterminée à l'avance, des contributions de ce genre étant à une intensité totale
qui est une fonction des opacités des voxels.
13. Système d'imagerie en 3D suivant la revendication 1, caractérisé en ce que le sélecteur (10) de vision détermine les frontières à partir de voxels ayant une somme des opacités qui est supérieure
à une valeur seuil déterminée à l'avance.
14. Système d'imagerie en trois dimensions (3D) caractérisé en ce qu'il comprend: un processeur (16) destiné à produire une image en 3D à rendu de volume sur un dispositif d'affichage en utilisant une pluralité de voxels à partir d'un ensemble de données d'image en 3D; et un sélecteur (10) de vision, sensible à des entrées d'utilisateur, destiné à déterminer un premier ensemble de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère de précision de frontière déterminé à l'avance qui compare une valeur seuil déterminée à l'avance à une fonction de frontière des opacités de la pluralité des
voxels pour déterminer la frontière.
29 2798759
15. Système d'imagerie en 3D suivant la revendication 14, caractérisé en ce que le sélecteur (10) de vision détermine la frontière en utilisant un critère de précision de frontière qui compare une valeur seuil déterminée à l'avance à une fonction de frontière des opacités et des intensités de la
pluralité des voxels.
16. Procédé pour déterminer une frontière dans une image en trois dimensions (3D) à rendu de volume, le procédé étant caractérisé en ce qu'il comprend les étapes qui consistent à: produire une image 3D à rendu de volume sur un dispositif d'affichage à partir d'une pluralité de voxels à partir d'un ensemble de données d'image en 3D en utilisant un processeur (16); recevoir des valeurs de voxels et des valeurs d'opacité correspondantes de la pluralité de voxels; et déterminer un premier ensemble de voxels correspondant à une frontière dans l'image en 3D à rendu de volume en utilisant un critère de précision de frontière déterminé à l'avance appliqué à une fonction
de frontière de l'opacité de la pluralité de voxels.
17. Procédé suivant la revendication 16, caractérisé en ce qu'il comprend en outre l'étape qui consiste à: effectuer une fonction sélectionnée par un
utilisateur en utilisant la frontière déterminée.
18. Procédé suivant la revendication 17, caractérisé en ce que l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste a: effectuer une fonction d'affichage, le processeur produisant et affichant un trajet sur le dispositif d'affichage entre une pluralité de points sélectionnés
2798759
sur l'image en 3D à rendu de volume en utilisant la
frontière déterminée.
19. Procédé suivant la revendication 17, caractérisé en ce que l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste a: effectuer une fonction de mesure, le processeur déterminant une valeur de mesure associée à une pluralité de points sélectionnés sur l'image en 3D à
rendu de volume en utilisant la frontière déterminée.
20. Procédé suivant la revendication 17, caractérisé en ce que l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste a: effectuer une fonction de segmentation sur l'image
en 3D à rendu de volume.
21. Procédé suivant la revendication 17, caractérisé en ce que l'étape qui consiste à effectuer la fonction sélectionnée inclut l'étape qui consiste
à:
effectuer une fonction d'enregistrement sur une pluralité d'images en 3D à rendu de volume
correspondant à une pluralité d'ensembles de données.
FR9914718A 1998-11-25 1999-11-23 Systeme et procede pour une segmentation fondee sur le rendu de volume Expired - Fee Related FR2798759B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/200,515 US6771262B2 (en) 1998-11-25 1998-11-25 System and method for volume rendering-based segmentation

Publications (2)

Publication Number Publication Date
FR2798759A1 true FR2798759A1 (fr) 2001-03-23
FR2798759B1 FR2798759B1 (fr) 2001-11-16

Family

ID=22742044

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9914718A Expired - Fee Related FR2798759B1 (fr) 1998-11-25 1999-11-23 Systeme et procede pour une segmentation fondee sur le rendu de volume

Country Status (4)

Country Link
US (1) US6771262B2 (fr)
JP (1) JP2000182078A (fr)
DE (1) DE19955690A1 (fr)
FR (1) FR2798759B1 (fr)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7486811B2 (en) 1996-09-16 2009-02-03 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US7194117B2 (en) 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
WO2001093745A2 (fr) 2000-06-06 2001-12-13 The Research Foundation Of State University Of New York Plan de traitement et visualisation assistes par ordinateur faisant appel au calage et a la fusion d'images
US7574024B2 (en) 2000-10-02 2009-08-11 The Research Foundation Of State University Of New York Centerline and tree branch skeleton determination for virtual objects
DE10052540A1 (de) * 2000-10-23 2002-05-16 Siemens Ag Diagnostikeinrichtung mit Mitteln zur Einstellung von Transferfunktionen
US20050114831A1 (en) * 2001-04-18 2005-05-26 Andres Callegari Volume body renderer
ATE541274T1 (de) * 2001-04-18 2012-01-15 Landmark Graphics Corp Wiedergabevorrichtung für volumenkörper
US7596256B1 (en) * 2001-09-14 2009-09-29 The Research Foundation For The State University Of New York Computer assisted detection of lesions in volumetric medical images
US6757582B2 (en) * 2002-05-03 2004-06-29 Carnegie Mellon University Methods and systems to control a shaping tool
US7355597B2 (en) * 2002-05-06 2008-04-08 Brown University Research Foundation Method, apparatus and computer program product for the interactive rendering of multivalued volume data with layered complementary values
DE10235795B4 (de) 2002-08-05 2018-10-31 Siemens Healthcare Gmbh Medizinische Vorrichtung
US7239311B2 (en) * 2002-09-26 2007-07-03 The United States Government As Represented By The Secretary Of The Navy Global visualization process (GVP) and system for implementing a GVP
JP2004141514A (ja) * 2002-10-28 2004-05-20 Toshiba Corp 画像処理装置及び超音波診断装置
ATE342555T1 (de) * 2003-01-15 2006-11-15 Koninkl Philips Electronics Nv Bildverarbeitungsverfahren zur automatischen anpassung eines deformierbaren 3d-modells auf eine im wesentlichen röhrenförmige oberfläche eines 3d-objekts
DE10324698A1 (de) * 2003-05-28 2004-12-23 Siemens Ag Computer und Verfahren zum Bearbeiten und/oder Auswerten eines digitalen Bildes
DE10340546B4 (de) * 2003-09-01 2006-04-20 Siemens Ag Verfahren und Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung im Herzen
CN1942898A (zh) * 2004-04-01 2007-04-04 皇家飞利浦电子股份有限公司 用于发现狭窄的方法和成像诊断装置
US7154500B2 (en) * 2004-04-20 2006-12-26 The Chinese University Of Hong Kong Block-based fragment filtration with feasible multi-GPU acceleration for real-time volume rendering on conventional personal computer
US20060200026A1 (en) * 2005-01-13 2006-09-07 Hansen Medical, Inc. Robotic catheter system
WO2006116488A2 (fr) * 2005-04-25 2006-11-02 Xoran Technologies, Inc. Systeme de tomodensitometrie a generation de vue synthetique
DE102005023376A1 (de) * 2005-05-17 2006-11-23 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zum Bestimmen von Materialgrenzen eines Prüfobjektes
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) * 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7532214B2 (en) * 2005-05-25 2009-05-12 Spectra Ab Automated medical image visualization using volume rendering with local histograms
EP1942800B1 (fr) * 2005-09-09 2011-09-07 Given Imaging Ltd. Transfert, traitement et visualisation en temps reel simultanes d'images in vivo
US20070083099A1 (en) * 2005-09-29 2007-04-12 Henderson Stephen W Path related three dimensional medical imaging
US20070127791A1 (en) * 2005-11-15 2007-06-07 Sectra Ab Automated synchronization of 3-D medical images, related methods and computer products
US8079957B2 (en) * 2005-11-18 2011-12-20 Siemens Medical Solutions Usa, Inc. Synchronized three or four-dimensional medical ultrasound imaging and measurements
JP4808477B2 (ja) * 2005-11-25 2011-11-02 ザイオソフト株式会社 画像処理方法及び画像処理プログラム
WO2007064981A2 (fr) * 2005-11-30 2007-06-07 The Research Foundation Of State University Of New York Systeme et procede de reduction de faux positifs pendant la detection de polypes assistee par ordinateur
US8452061B2 (en) * 2005-11-30 2013-05-28 The Research Foundation Of State University Of New York Electronic colon cleansing method for virtual colonoscopy
DE102005059209B4 (de) * 2005-12-12 2010-11-25 Siemens Ag Verfahren und Vorrichtung zur Visualisierung einer Folge von tomographischen Bilddatensätzen
JP4453034B2 (ja) 2006-01-13 2010-04-21 ソニー株式会社 転送パルス発生回路及び撮像装置
US20070236496A1 (en) * 2006-04-06 2007-10-11 Charles Keller Graphic arts image production process using computer tomography
US7903857B2 (en) * 2006-04-17 2011-03-08 Siemens Medical Solutions Usa, Inc. Robust click-point linking with geometric configuration context: interactive localized registration approach
US8446410B2 (en) * 2006-05-11 2013-05-21 Anatomage Inc. Apparatus for generating volumetric image and matching color textured external surface
US8041129B2 (en) * 2006-05-16 2011-10-18 Sectra Ab Image data set compression based on viewing parameters for storing medical image data from multidimensional data sets, related systems, methods and computer products
US8041141B2 (en) * 2006-06-30 2011-10-18 The University Of Louisville Research Foundation, Inc. Method and software for shape representation with curve skeletons
US20080088621A1 (en) * 2006-10-11 2008-04-17 Jean-Jacques Grimaud Follower method for three dimensional images
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
US7860283B2 (en) 2006-10-25 2010-12-28 Rcadia Medical Imaging Ltd. Method and system for the presentation of blood vessel structures and identified pathologies
US7873194B2 (en) 2006-10-25 2011-01-18 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures and pathologies in support of a triple rule-out procedure
US7983459B2 (en) 2006-10-25 2011-07-19 Rcadia Medical Imaging Ltd. Creating a blood vessel tree from imaging data
US7940970B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging, Ltd Method and system for automatic quality control used in computerized analysis of CT angiography
US7830381B2 (en) * 2006-12-21 2010-11-09 Sectra Ab Systems for visualizing images using explicit quality prioritization of a feature(s) in multidimensional image data sets, related methods and computer products
US8500451B2 (en) * 2007-01-16 2013-08-06 Simbionix Ltd. Preoperative surgical simulation
WO2008091583A2 (fr) * 2007-01-23 2008-07-31 Dtherapeutics, Llc Extraction fondée sur des images pour l'obtention d'une cartographie de l'arbre vasculaire
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US20090156895A1 (en) * 2007-01-31 2009-06-18 The Penn State Research Foundation Precise endoscopic planning and visualization
WO2008097540A2 (fr) 2007-02-02 2008-08-14 Hansen Medical, Inc. Instrument chirurgical robotique et procédés d'utilisation de capteurs à fibre de bragg
EP2137702A1 (fr) * 2007-03-15 2009-12-30 Thomson Licensing Procédé et système d'accessibilité et de gestion de paramètres dans les graphes de scènes
US8346695B2 (en) * 2007-03-29 2013-01-01 Schlumberger Technology Corporation System and method for multiple volume segmentation
US7990378B2 (en) * 2007-05-07 2011-08-02 General Electric Company Methods and apparatus for volume rendering
US20080281182A1 (en) * 2007-05-07 2008-11-13 General Electric Company Method and apparatus for improving and/or validating 3D segmentations
EP2157905B1 (fr) * 2007-05-15 2013-03-27 Ecole de Technologie Supérieure Procédé de suivi des changements anatomiques et pathologiques en 3 dimensions dans des structures anatomiques de forme tubulaire
US7920669B2 (en) * 2007-07-25 2011-04-05 Siemens Aktiengesellschaft Methods, apparatuses and computer readable mediums for generating images based on multi-energy computed tomography data
US8160345B2 (en) 2008-04-30 2012-04-17 Otismed Corporation System and method for image segmentation in generating computer models of a joint to undergo arthroplasty
US8803878B2 (en) * 2008-03-28 2014-08-12 Schlumberger Technology Corporation Visualizing region growing in three dimensional voxel volumes
EP2350999A4 (fr) * 2008-09-25 2017-04-05 CAE Healthcare Canada Inc. Simulation d imagerie médicale
US20100254584A1 (en) * 2009-04-07 2010-10-07 Siemens Corporation Automated method for assessment of tumor response to therapy with multi-parametric mri
US20110183301A1 (en) * 2010-01-27 2011-07-28 L-3 Communications Corporation Method and system for single-pass rendering for off-axis view
JP5551955B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置、方法、及びプログラム
RU2596998C2 (ru) * 2010-10-25 2016-09-10 Конинклейке Филипс Электроникс Н.В. Визуализация объема на основании расстояния
US9146674B2 (en) 2010-11-23 2015-09-29 Sectra Ab GUI controls with movable touch-control objects for alternate interactions
GB201020073D0 (en) 2010-11-26 2011-01-12 Siemens Medical Solutions Anatomically-aware MIP shading
US9053574B2 (en) * 2011-03-02 2015-06-09 Sectra Ab Calibrated natural size views for visualizations of volumetric data sets
JP6058290B2 (ja) * 2011-07-19 2017-01-11 東芝メディカルシステムズ株式会社 画像処理システム、装置、方法及び医用画像診断装置
KR101318552B1 (ko) * 2012-03-12 2013-10-16 가톨릭대학교 산학협력단 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법
CN102968791B (zh) * 2012-10-26 2016-12-21 深圳市旭东数字医学影像技术有限公司 三维医学图像图形显示的交互方法及其系统
US10912571B2 (en) 2013-03-15 2021-02-09 Howmedica Osteonics Corporation Generation of a mating surface model for patient specific cutting guide based on anatomical model segmentation
JP6929048B2 (ja) * 2016-11-30 2021-09-01 キヤノン株式会社 表示制御装置、表示方法、及びプログラム
EP3398551A1 (fr) 2017-05-03 2018-11-07 Stryker European Holdings I, LLC Procédés d'estimation de pose de modèles osseux tridimensionnels dans la planification chirurgicale d'un remplacement total de la cheville
US10593099B2 (en) * 2017-11-14 2020-03-17 Siemens Healthcare Gmbh Transfer function determination in medical imaging
US11270474B2 (en) * 2018-12-05 2022-03-08 Sony Corporation Screen-tone look generator
US10884490B2 (en) * 2019-02-27 2021-01-05 Siemens Healthcare Gmbh Transfer function adaptation in virtual reality environments
GB201913832D0 (en) * 2019-09-25 2019-11-06 Guys And St Thomas Hospital Nhs Found Trust Method and apparatus for navigation and display of 3d image data
KR20230156940A (ko) * 2021-03-18 2023-11-15 앵스띠뛰 파스퇴르 적어도 하나의 인터페이스에서 객체의 적어도 하나의 영역을 시각화하는 방법
CN117058342B (zh) * 2023-10-12 2024-01-26 天津科汇新创科技有限公司 一种基于投影图像的脊柱3d体素模型构建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998037517A1 (fr) * 1997-02-25 1998-08-27 Wake Forest University Analyse automatique en endoscopie virtuelle
US5963211A (en) * 1995-06-29 1999-10-05 Hitachi, Ltd. Method and apparatus for directly generating three-dimensional images from voxel data with dividing image generating processes and utilizing parallel processes

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4729098A (en) * 1985-06-05 1988-03-01 General Electric Company System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body
US4835712A (en) * 1986-04-14 1989-05-30 Pixar Methods and apparatus for imaging volume data with shading
US5555352A (en) * 1991-04-23 1996-09-10 International Business Machines Corporation Object-based irregular-grid volume rendering
JPH07501162A (ja) * 1991-06-28 1995-02-02 リム ホン リップ 3dコンピュータグラフィック用可視性計算の改善
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US6016439A (en) * 1996-10-15 2000-01-18 Biosense, Inc. Method and apparatus for synthetic viewpoint imaging

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963211A (en) * 1995-06-29 1999-10-05 Hitachi, Ltd. Method and apparatus for directly generating three-dimensional images from voxel data with dividing image generating processes and utilizing parallel processes
WO1998037517A1 (fr) * 1997-02-25 1998-08-27 Wake Forest University Analyse automatique en endoscopie virtuelle

Also Published As

Publication number Publication date
JP2000182078A (ja) 2000-06-30
DE19955690A1 (de) 2000-06-15
US6771262B2 (en) 2004-08-03
US20010055016A1 (en) 2001-12-27
FR2798759B1 (fr) 2001-11-16

Similar Documents

Publication Publication Date Title
FR2798759A1 (fr) Systeme et procede pour une segmentation fondee sur le rendu de volume
US10977818B2 (en) Machine learning based model localization system
JP6808855B2 (ja) 眼鏡フレームを仮想的に調整するための方法、装置、及びコンピュータプログラム
JP6837551B2 (ja) Hmdsに基づく医学画像形成装置
US10042188B2 (en) Process and method for real-time physically accurate and realistic-looking glasses try-on
Hauser Generalizing focus+ context visualization
EP2048621B1 (fr) Procédé et appareil pour rendu de volume d'ensembles de données médicales
KR102120046B1 (ko) 오브젝트를 표시하는 방법
EP3335195A2 (fr) Procédés de génération de modèles de têtes en 3d ou modèles de corps en 3d personnalisés
Eichhardt et al. Image-guided ToF depth upsampling: a survey
CN111602177A (zh) 用于生成物体的3d重建的方法和设备
Guðmundsson et al. Improved 3D reconstruction in smart-room environments using ToF imaging
Lu et al. Volume composition using eye tracking data.
JPH11510351A (ja) オブジェクト追跡の装置および方法
US20220366551A1 (en) 2d & 3d color fusion imaging
Lechlek et al. Interactive hdr image-based rendering from unstructured ldr photographs
Ma et al. 3D Saliency from eye tracking with tomography
CN112802083B (zh) 一种通过三维模型标记点获取对应二维图像的方法
US20240062345A1 (en) Method, apparatus, and computer-readable medium for foreground object deletion and inpainting
US20240119568A1 (en) View Synthesis Pipeline for Rendering Passthrough Images
Boorboor Immersive and Augmented 3D Scientific Visualization Systems
WO2024081288A1 (fr) Pipeline de synthèse de vues pour le rendu d'images transmises
Lin et al. Slice-based virtual endoscopy navigation
Lee Perceptual graphics for effective visualization
Singh Computational modeling of gaze behaviour in real-world settings

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20080930