DE3874889T2 - Verfahren zur wiedergabe von sichtbildern eines objektes. - Google Patents
Verfahren zur wiedergabe von sichtbildern eines objektes.Info
- Publication number
- DE3874889T2 DE3874889T2 DE8888903282T DE3874889T DE3874889T2 DE 3874889 T2 DE3874889 T2 DE 3874889T2 DE 8888903282 T DE8888903282 T DE 8888903282T DE 3874889 T DE3874889 T DE 3874889T DE 3874889 T2 DE3874889 T2 DE 3874889T2
- Authority
- DE
- Germany
- Prior art keywords
- volume
- facets
- elements
- volume elements
- segmented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000000007 visual effect Effects 0.000 title 1
- 230000011218 segmentation Effects 0.000 claims description 15
- 238000005286 illumination Methods 0.000 claims description 12
- 238000011156 evaluation Methods 0.000 claims 1
- 238000005259 measurement Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 4
- 210000004872 soft tissue Anatomy 0.000 description 4
- 238000003325 tomography Methods 0.000 description 3
- 238000005481 NMR spectroscopy Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000001739 density measurement Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- CZMRCDWAGMRECN-UHFFFAOYSA-N 2-{[3,4-dihydroxy-2,5-bis(hydroxymethyl)oxolan-2-yl]oxy}-6-(hydroxymethyl)oxane-3,4,5-triol Chemical compound OCC1OC(CO)(OC2OC(CO)C(O)C(O)C2O)C(O)C1O CZMRCDWAGMRECN-UHFFFAOYSA-N 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 210000004884 grey matter Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 210000004885 white matter Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Shielding Devices Or Components To Electric Or Magnetic Fields (AREA)
- Compositions Of Macromolecular Compounds (AREA)
- Polyoxymethylene Polymers And Polymers With Carbon-To-Carbon Bonds (AREA)
- Image Processing (AREA)
Description
- Die Erfindung betrifft ein Verfahren zur Darstellung von Bildern von Ansichten eines Objekts. Dieses Objekt ist in einem digitalen Volumen zu diskriminieren. Ein digitales Volumen erhält man durch die Erfassung und Speicherung von Informationen, die physikalische Merkmale von inneren Teilen eines untersuchten Körpers betreffen. Die bekannteste Art der Erfassung dieser Informationen ist die Tomographie. Diese kann insbesondere im Bereich der Medizin mit verschiedenen Mitteln durchgeführt werden: nukleare magnetische Resonanz, Tomodensitometrie durch Röntgenstrahlen oder Tomographie durch Gammastrahlenphotographie oder Ultraschall. Die Art der Erfassung ist beliebig, sie muß nur zu einer Sammlung von physikalischen Informationen führen, die man virtuell zueinander in drei rechtwinkeligen Bezugsachsen anordnen kann und die als Darstellung der physikalischen Merkmale von entsprechenden Teilen in einem untersuchten Körper in der virtuellen Stellung, die sie einnehmen, gelten. Jedes Volumenelement dieses digitalen Volumens umfaßt also mindestens zwei Typen von Informationen. Ein erster Typ betrifft die Koordinaten einer entsprechenden Stelle im Körper (die eindeutig einer Adresse in einem Speicher eines Rechners entspricht). Der andere Typ stellt den Wert der physikalischen Information dar, die dieser Stelle zugeordnet ist und die beispielsweise durch eine der obengenannten Tomographietechniken gemessen worden war.
- Verfahren zur Darstellung von Bildern von Ansichten eines in digitalen Volumen zu diskriminierenden Objekts sind bereits bekannt. Es gibt von ihnen vor allem zwei. Eine erste Technik, die hauptsächlich von G. T. HERMAN und seinem Team entwickelt wurde, besteht aus den folgenden Operationen. Ausgehend von einem bestimmten digitalen Volumen, das ggf. umformatiert ist, damit die Auflösung in den drei Dimensionen des Raums gleich ist, wird zunächst eine Segmentierung vorgenommen. Das Prinzip der Segmentierung besteht darin, daß die Werte der physikalischen Informationen, die in jedes der Volumenelemente geladen sind, mit einem Bezugswert verglichen werden und von diesen Volumenelementen diejenigen festgehalten werden, deren Wert der physikalischen Information beispielsweise zu einem Wertebereich gehört, der um diesen Bezugswert herum liegt. In der Tomodensitometrie beispielsweise gestattet eine Dichtemessung es, im digitalen Volumen die Volumenelemente zu unterscheiden, die Knochen entsprechen (hohe Dichte), und die Volumenelemente, die weichen Geweben entsprechen (geringe Dichte). Man kann auf diese Weise über eine Sammlung von Speicherstellenadressen verfügen, die ausgewählten Volumenelementen entsprechen, die zusammen das auf diese Weise segmentierte Objekt definieren.
- Das Prinzip der Darstellung besteht anschließend darin, daß jedem der ausgewählten Volumenelemente (die sich jedoch an der Oberfläche des segmentierten Objekts befinden) eine sichtbare Fläche zugeteilt wird, die Richtung dieser Fläche berechnet wird (die Richtung der Senkrechten auf sie ermittelt wird) und der Lichtbeitrag dieser Fläche zu einem Ansichtsbild ermittelt wird, wenn diese Fläche einer bestimmten Beleuchtung ausgesetzt ist (d. h. einer Beleuchtung, die beispielsweise von einem genauen Punkt in dem außerhalb des segmentierten Objekts befindlichen Bereich kommt). Kennt man die Standorte der ausgewählten Volumenelemente und damit die entsprechenden sichtbaren Flächen, kann man ihnen im Bild der darzustellenden Ansicht Flächenelemente dieses Bilds zuordnen, deren Koordinaten im Bild von dem Blickpunkt abhängen, von dem aus man das segmentierte Objekt betrachtet. Man stattet nun diese Oberflächenelemente mit einer Helligkeit aus, die repräsentativ sind für die Beiträge der sichtbaren Flächen, denen sie zugeteilt sind. Alle diese Oberflächenelemente des Bilds bilden zusammen das Bild der Ansicht des Objekts.
- Diese Methode besitzt Nachteile, insbesondere ist die Schattierung nicht befriedigend. Das erhaltene Bild weist nämlich Linien- oder Kreisartefakte auf, die Niveaulinien des segmentierten Objekts ähneln, und zwar unabhängig von der Richtung der Beleuchtung und unabhängig von dem Punkt, von dem aus dieses Objekt beobachtet wird. Diese Niveaukurvenartefakte sind besonderes bei der Darstellung von Oberflächen mit wenig Relief feststellbar. Wenn es hierbei genügen mag, daß man sie bei der Betrachtung der Ansicht sich wegdenkt, kann man nicht leugnen, daß dieselben Fehler in problematischeren Teilen der dargestellen Ansichten mit mehr Relief auch auftreten. In diesen Teilen wird es nun unmöglich, im Bild zu unterscheiden, was wahre Darstellung und was Artefakt ist.
- Diese Methode besitzt ferner einen anderen Nachteil, der mit der Berechnung der Ausrichtung der sichtbaren Flächen verbunden ist. Die Segmentierung führt nämlich dazu, daß den ausgewählten Volumenelementen und den ausgeschiedenen Volumenelementen eine binäre Information zugewiesen wird, und zwar beispielsweise 1 bzw. 0. Die Berechnung der Richtung der einem ausgewählten Volumenelement zugeordneten sichtbaren Oberfläche wird gewöhnlich vorgenommen, indem die Verteilung von 1 und 0 in den dem ausgewählten Volumenelement direkt benachbarten Volumenelementen betrachtet wird. Dies führt einerseits zu einer begrenzten Anzahl von Ausrichtungsmöglichkeiten dieser Fläche (81 mögliche Ausrichtungen, wenn man die 26 Elemente nimmt, die dem ausgewählten Volumenelement direkt benachbart sind), und zwar vor allem dann, wenn diese Zahl von Möglichkeiten aufgrund des Beobachtungspunkts durch zwei geteilt wird. Andererseits führt diese Berechnung in manchen Grenzfällen zu einem Flimmern im Bild. Wenn nämlich die physikalische Information, die bei einer Gruppe von benachbarten Volumenelementen gemessen wird, sehr nahe bei der Grenze des Segmentierungsbereich liegt, werden manche dieser Elemente ausgewählt und andere nicht. Dies kann zu einem ausgezackten Profil des segmentierten Objekts an dieser Stelle führen, während sein wahrer Verlauf glatt sein kann, jedoch bezüglich des physikalischen Informationswerts wegen des für die Segmentierung herangezogenen Kriteriums auf einer schwierigen Höhe liegt. Und dieses ausgezackte Profil verursacht das Flimmern des Bilds.
- Eine andere Darstellungstechnik, die von den Techniken der Bildsynthese und rechnergestützten Konzeption abgeleitet ist, besteht aus einer Segmentierung des Speichervolumens in Speicherebenen, die Schnitten des digitalen Volumens entsprechen. Beispielsweise werden alle zu einer bestimmten Achse (eine Achse Z) senkrechten Schnitte segmentiert. In allen diesen Schnitten kann man durch Korrelationsmethoden einen "glatten" Umriß des Schnitts des segmentierten Objekts zeichnen. In einem nachfolgenden Arbeitsgang verbindet man die zu jedem der benachbarten Schnitte gehörenden Umrisse so, daß im allgemeinen dreieckige Facetten mit gewählten Abmessungen bestimmt werden. Eine dreieckige Facette ist beispielsweise durch drei Punkte definiert, von denen zwei zu einem Umriß in einem Schnitt gehören, während ein dritter, dazwischen liegender Punkt zu einem Umriß in einem benachbarten Schnitt gehört. Die Stellung jeder Facette ist bekannt und man kann ihr im visualisierten Bild ein Oberflächenelement dieses Bilds zuordnen. Man errechnet ferner für diese Facetten die Lichtbeiträge, und konstruiert anschließend das Bild der Ansicht. Diese Technik besitzt - allerdings in einem geringeren Grad - die vorhergehenden Nachteile. Die Niveaulinienartefakte treten dennoch auf, wenn diese Niveaulinien sich in der Achse erstrecken, zu denen die benutzten Schnitte senkrecht sind.
- Außerdem besitzt diese Technik einen großen Nachteil: sie ist schwierig mit herkömmlichen Rechnern auszuführen. Sie kommt praktisch nur in Betracht, wenn die Anzahl der im Bild darzustellenden Facetten auf 5 000 oder 10 000 Facetten begrenzt ist. Nun beträgt jedoch die Zahl der darzustellenden Facetten bei medizinischen Bildern oder allgemein bei Bildern, die unbekannte Objekte, welche bekannt gemacht werden sollen, darstellen (und nicht symbolische Objekte, die für die Simulation verwendbar sind), etwa 500 000 bis 1 000 000. Die Berechnungszeiten bei dieser Technik sind nun nicht mehr akzeptabel.
- Ziel der Erfindung ist es, diese Nachteile zu beseitigen, indem eine Darstellung vorgeschlagen wird, bei der nicht mehr von der Oberfläche des segmentierten Objekts ausgegangen wird, wie es nach der Segmentierung bestimmt werden konnte. Bei der erfindungsgemäßen Darstellung betrachtet man vielmehr die Senkrechte auf die Oberfläche des tatsächlichen Objekts, die also tatsächlich durch den entsprechenden Teil des untersuchten Körpers bestimmt ist, um alle darzustellenden sichtbaren Oberflächen zu bilden. Wenn nun also das Segmentierungskriterium die Grenze bildet, um die Volumenelemente, die zum segmentierten Objekt gehören oder nicht gehören, zu diskriminieren, erhält man einen automatischen Effekt der Glättung der Darstellung an dieser Stelle, indem man beispielsweise den Gradienten des Werts der in diese Volumenelemente geladenen physikalischen Information heranzieht, da dieser Gradient nicht im Ja-Nein-System von einem Volumenelement zum anderen fluktuiert (abgesehen von den stark differenzierten Teilen des Körpers, beispielsweise den Knochen bezüglich der weichen Gewebe). Mit anderen Worten, die Darstellung der Formen von Geweben mit nahe beieinander liegenden physikalischen Merkmalen wird verbessert. Ferner verwendet man zur Verbesserung des mit den Niveauwechselproblemen verbundenen Artefakts einfach die Gradienten von physikalischen Informationen von Volumenelementen, die den segmentierten Volumenelementen an der Oberfläche des segmentierten Objekts benachbart sind.
- In einer IEEE-Schrift, Transactions on Medical Imaging, Band M1-5, Nr. 1, März 1986, Seiten 45-46, wird vorgeschlagen, Komponenten der Gradienten zu verwenden. Dies gestattet jedoch nicht die Vermeidung der Artefakte.
- Gegenstand der Erfindung ist ein Verfahren zur Darstellung des Bilds der Ansicht eines Objekts, das in einem digitalen Volumen zu diskriminieren ist, wobei dieses Volumen Volumenelemente umfaßt, die mit mindestens einer physikalischen Information geladen sind, wobei das Verfahren die folgenden Schritte umfaßt:
- - man segmentiert das digitale Volumen gemäß einem Segmentierungskriterium, das das Auswählen von Volumenelementen in Abhängigkeit von dem Wert der physikalischen Informationen gestattet, mit denen sie geladen sind, und zwar so, daß man auf diese Weise aus diesem digitalen Volumen ein segmentiertes Objekt herausholt,
- - man ordnet jedem gewählten, an der Oberfläche des segmentierten Objekts liegenden Volumenelement eine sichtbare Oberfläche zu,
- - man ermittelt den Beitrag dieser sichtbaren Oberfläche zu der darzustellenden Ansicht,
- - man bildet ein Leuchtbild mit den Oberflächenelementen, deren Standorte im Bild die Standorte der ausgewählten und an der Oberfläche des segmentierten Objekts liegenden Volumenelemente im segmentierten Objekt darstellen, und deren Helligkeit die Beiträge der sichtbaren, diesen Volumenelementen zugeordneten Oberflächen darstellen, und das dadurch gekennzeichnet ist, daß
- - man als sichtbare Fläche jedem ausgewählten, an der Oberfläche des segmentierten Objekts liegenden Volumenelement die Facetten dieses Elements zuordnet, die mit der inneren oder äußeren Umgebung dieser Oberfläche des segmentierten Objekts in Berührung sind, und daß man den Beitrag jeder dieser Facetten der ausgewählten und an der Oberfläche des segmentierten Objekts liegenden Volumenelemente in Abhängigkeit von dem wahren Eigengradienten der physikalischen Information an der Stelle der entsprechenden Volumenelemente auswertet, wobei dieser Gradient von einer Beleuchtungsrichtung der Facetten unabhängig ist.
- Es läßt sich zeigen, daß man auf diese Weise als sichtbare Fläche jedem ausgewählten Volumenelement alle sichtbaren Facetten dieses Volumenelements zuordnen kann, die im übrigen zu keinem anderen Volumenelement des segmentierten Objekts gehören. Bei einer Verbesserung wird die Ermittlung des Beitrags der sichtbaren Oberflächen eines Volumenelements sogar ausgehend von physikalischen Informationsgradienten an der Stelle der entsprechenden Volumenelemente sowie an der Stelle der in der Nähe dieser entsprechenden Volumenelemente gelegenen Volumenelemente vorgenommen.
- Zum besseren Verständnis der Erfindung dient die folgende Beschreibung, die sich auf die beiliegenden Zeichnungen bezieht. Diese dienen nur als Beispiel und schränken die Erfindung nicht ein. Insbesondere betreffen sie nur die wesentlichen Teile der Erfindung. Die Figuren zeigen:
- Fig. 1a und 1b ein digitales Volumen und die Oberfläche eines in diesem Volumen segmentierten Objekts;
- Fig. 2 ein Vergleich zwischen dem Profil des segmentierten Objekts und dem Profil der tatsächlichen Oberfläche;
- Fig. 3a bis 3d ein bevorzugtes Beispiel der Berechnung des Gradienten;
- Fig. 4, 5a und 5b die Einzelheiten der Berechnung des Gradienten unten Berücksichtigung der sichtbaren Facetten des segmentierten Objekts.
- Fig. 1a zeigt ein digitales Volumen 1 schematisch mit drei rechtwinkeligen Bezugsachsen X, Y, Z. Es symbolisiert einen Teil des Volumens eines untersuchten Körpers (nicht dargestellt), in dem die Erfassung von physikalischen Informationen vorgenommen worden war. Nach Segmentierung in bekannten Verfahren hat das digitale Volumen 1 einen binären Verlauf angenommen. Volumenelemente 2, in denen die geladene physikalische Information nicht dem Segmentierungskriterium entsprach, wurde mit einer bestimmten binären Gewichtung (im vorliegenden Fall 0) versehen, während andere Volumenelemente 3 dagegen mit einer anderen binären Gewichtung (im vorliegenden Fall 1) versehen wurden, da sie als Teile des im Körper zu diskriminierenden Objekts erkannt wurden. Fig. 1a zeigt außerdem in dicken unterbrochenen Linien einen Teil der tatsächlichen Oberfläche eines Teils des untersuchten Körpers, der zur Segmentierung geführt hat. Diese Oberfläche weist eine Erhebung 4 auf, die über eine ebene Fläche 5 hinausragt. Fig. 1b zeigt bei denselben Elementen die Art der Berechnung der Ausrichtungen der darstellenden Oberflächen, die durch die Segmentierung den ausgewählten Volumenelementen zugeordnet wurden. Mit diesen Ausrichtungen ermittelt man ihren Beitrag zum Bild. Es wird der besondere Fall der Volumenelemente 6 bis 9 untersucht, die sich an der Oberfläche des segmentierten Volumens befinden. Sie sind normalerweise von einem Blickpunkt aus sichtbar, der senkrecht zur Ebene der Figur gelegen ist, d. h. im wesentlichen an der Stelle, an der sich die Augen eines Beobachters befinden, der diese Figur betrachtet. Die Volumenelemente 6 und 9 sind von Volumenelementen umgeben, die bezüglich der Ebenen XZ oder XY zu ihnen symmetrisch sind. Infolgedessen führt die Berechnung der Senkrechten auf die sichtbare Oberfläche der Volumenelemente 6 und 9 zur Bestimmung von Normalvektoren 10 bzw. 11, die nur Komponenten in der Richtung X besitzen. Bei den Volumenelementen 7 und 8, die zu dem segmentierten Volumen zu beiden Seiten der Niveauänderung bezüglich der Ebene 5 gehören, kann man zeigen, daß die herkömmlichen Berechnungen, die auf dem Verlauf des segmentierten Volumens beruhen (d. h. so, wie es hier mit seiner Abstufung zu sehen ist) zur Bestimmung von zwei leicht geneigten Senkrechten 12 bzw. 13 führen. Man kann in erster Annäherung sagen, daß die Senkrechten 12 und 13 im wesentlichen parallel zueinander sind.
- Vom Volumenelement 6 zum Volumenelement 7, bei denen sich die Senkrechten einander nähern, hat man es mit einer sichtbaren Oberfläche mit konkavem Verlauf zu tun. Dagegen verläuft die Oberfläche vom Volumenelement 8 zum Volumenelement 9 konvex, wobei die Senkrechten 11 und 13 divergieren. Wenn man diese Volumenelemente 7 bis 9 (mathematisch) einer Beleuchtung aussetzt, die aus einer Richtung 14 kommt, und zwar beispielsweise mit der Ausrichtung (1, -1, -1), haben die konkave Oberfläche und die konvexe Oberfläche jeweils eine unterschiedliche Helligkeit. Aus diesem Helligkeitsunterschied, der sich längs der Front 15 des Absatzes der Erhebung 4 der Ebene 5 entlang windet, ergibt sich im visualisierten Bild ein Artefakt in Form einer Linie. Dagegen gibt es in dem Bild, das hätte gezeigt werden sollen und das zum Teil in Fig. 1a dargestellt ist, an dieser Stelle keine Unterbrechung der Neigung der Oberfläche des wahren Objekts, so daß an dieser Stelle keine Leuchtumrandung hätte gezeigt werden sollen, die in etwa wie eine Niveaulinie aussieht.
- Um diesen Nachteil zu beseitigen, ist erfindungsgemäß vorgesehen, nicht mehr die Senkrechten auf die Oberflächen der ausgewählten Volumenelemente durch den Verlauf dieser Oberflächen zu errechnen, sondern sie durch den Gradienten der physikalischen Information an der Stelle des ausgewählten Volumenelements zu ersetzen, über die die Segmentierung vorgenommen wird. Auf diese Weise dämpft man, wie Fig. 1a zeigt, die Wirkungen der Desorientierung der zu visualisierenden Oberflächen und nähert sich der Realität der tatsächlichen Oberfläche des segmentierten Objekts. Fig. 2 zeigt einen Schnitt in der Ebene X Z durch Fig. 1a in der Mitte der Volumenelemente 6 bis 9. Der Umriß 16 der Oberfläche des darzustellenden Objekts ist angegeben. Die Mittelpunkte der Volumenelemente sind mit einem Punkt versehen. Die Senkrechte auf die sichtbaren Oberfläche, die jedem Volumenelement der Oberfläche des segmentierten Objekts zugeteilt ist, ist mit der Richtung des Gradienten gleichgesetzt. Man ordnet dieser Ausrichtung des Gradienten eine hierzu senkrechte Ausrichtung einer bestimmten Einzelfläche zu. Mit anderen Worten, man ersetzt nun in Fig. 2 die unbekannte wahre Oberfläche 16 durch eine Oberflächeneinschätzung, die als senkrecht zum Gradienten der physikalischen Information bestimmt ist, die in die betreffenden Volumenelemente geladen ist. Man stellt fest, daß die Pfeile 17 bis 20, die die Richtungen dieser Gradienten darstellen, weniger stark voneinander abweichen als in dem in Fig. 1b dargestellten Fall. Insbesondere die Richtungen der Gradienten 17 und 20 tragen der Neigung der Oberfläche 16 an der Stelle des Volumenelements, zu dem sie gehören, Rechnung.
- Die Fig. 3a und 3d zeigen ein Beispiel der Berechnung des Gradienten der physikalischen Information, die in einem Volumenelement enthalten ist, das von 26 benachbarten Volumenelementen umgeben ist (3·9 = 27-1). Bei einem bevorzugten Beispiel werden diese Gradienten in der sogenannten ZUCKER-Methode errechnet. Gemäß dieser Methode berechnet man jede der Komponenten des Gradienten, indem man die Volumenelemente mit einbezieht, die sich in zu beiden Seiten dieses Volumenelements gelegenen Ebenen längs einer zur zu berechnenden Komponente parallelen Achse befinden. Beispielsweise möchte man (Fig. 3b bis 3d) die Komponente in der Achse Y errechnen und zieht die Volumenelemente heran, die sich vor dem betreffenden Volumenelement befinden (Fig. 3b: Y = -1) und man zieht ferner die Volumenelemente heran, die sich in einer hinter dem betreffenden Volumenelement liegenden Ebene befinden (Fig. 3d: Y = +1). Die Volumenelemente, die sich in dieser Hinsicht in derselben Ebene wie die betrachteten Volumenelemente befinden (Fig. 3c: Y = 0), werden nicht in Betracht gezogen. Außerdem wird jedes der Volumenelemente im Maße des Kehrwerts seines Abstands vom betrachteten Volumenelement in Betracht gezogen. Für die Berechnung der Komponenten der Gradienten multipliziert man jedes Mal die in den Fig. 3b bis 3d angegebenen Koeffizienten mit den Werten der in den jeweiligen Volumenelementen enthaltenen physikalischen Informationen. Man führt anschließend in jeder Ebene eine Addition der gewichteten Beiträge jedes der herangezogenen Volumenelemente durch. Anschließend subtrahiert man den für die vordere Ebene erhaltenen Wert von dem für die hintere Ebene erhaltenen Wert. Die Differenz legt nach Normierung die Komponente des Gradienten fest. Auf dieselbe Weise geht man mit den beiden anderen Komponenten X und Z des Gradienten vor, so daß die Ausrichtung dieses Gradienten im dreidimensionalen Raum bestimmt wird.
- Fig. 2 zeigt, daß der wahre Umriß 16 sich zwischen den Mittelpunkten der Volumenelemente hindurchschlängelt, die zu der Oberfläche des segmentierten Objekts gehören. Man muß nun daran denken, daß man es mit einer physikalischen Information zu tun hat. Die Information, über die die Segmentierung stattfindet, ist nicht eine physikalische Information, die sich an der Stelle des Übergangs von einem Medium in das andere plötzlich im untersuchten Körper ändert. Beispielsweise ist der Übergang von einem weichen Gewebe (im Falle des menschlichen Gehirns beispielsweise der Graumasse) zu einem anderen weichen Gewebe (der Weißmasse) nicht plötzlich. Im Fall einer Dichtemessung, sei es durch Röntgenstrahlen oder durch nukleare magnetische Resonanz, nähert man sich einer Definition der Oberfläche des segmentierten Objekts als einer Äquidensitätsfläche. Und an der Stelle, an der die Gradienten gemessen werden - in der Mitte der Volumenelemente -, befindet man sich selten auf der Äquidensitätsfläche, die einer Bezugsdichte entspricht, die dargestellt werden soll. Man ist zwar in der Lage die Volumenelemente (6 bis 9) zu zeigen, durch die diese Äquidensitätsfläche verläuft, man ist jedoch nicht in der Lage, mit Sicherheit die wahre Ausrichtung der Senkrechten auf diese Fläche zu errechnen. Man bringt lediglich eine Annäherung, die mit der Versetzung zwischen der Stellung der wahren Oberfläche und dem Ort verbunden ist, an den man schätzt, daß sie sich befindet (in der Mitte des Volumenelements).
- Auf eine besonders auffallende Weise läßt sich auf einem anderen Profil 21, das beispielsweise an die Stelle des Profils 16 in Fig. 2 tritt, zeigen, daß die geometrische Abweichung zwischen zwei Äquidensitätsflächen, die anstelle von einer einzigen in Betracht gezogen werdend gleich der Höhe eines ganzen Volumenelements sein kann. Dies zeigt sich durch die Lage der Mittelpunkte der Volumenelemente 7 und 8 sehr weit entfernt von dem Verlauf 21 der wahren Oberfläche. Wenn die Äquidensitätskurven alle zueinander parallel wären, wäre die Erscheinung wenig sichtbar. Dies ist jedoch nicht der Fall. Die Wahl im einen Fall (Volumenelement 6 oder 7) einer Äquidensitätskurve und die Wahl in einem anderen Fall (8 oder 9) einer anderen Äquidensitätskurve kann dazu führen, daß an der Stelle des Bruchs, an der Stelle, die die Volumenelemente 7 und 8 voneinander trennt, eine plötzliche Änderung der Ausrichtung der sichtbaren Fläche auftritt, die jedem der betrachteten Volumenelemente zugeordnet ist. Die oben beschriebene Erscheinung tritt nicht so stark auf, erscheint aber dennoch. Immer noch kann sich ein Niveaulinienartefakt zeigen.
- Um diesen Nachteil zu vermeiden, kam man auf die Idee, einen Mittelwert der Gradienten der Volumenelemente zu ermitteln, die in der Nähe der Oberfläche des segmentierten Volumens liegen. Beispielsweise betrachtet man nun auch die Volumenelemente 22 bis 25, die nicht zum segmentierten Objekt gehören, jedoch über den Volumenelementen 6 bis 9 liegen. Man errechnet auch für diese Volumenelemente die drei Komponenten des Gradienten ihrer physikalischen Information. Und anschließend führt man eine Gewichtung zwischen den Gradienten der Volumenelemente, die zum segmentierten Objekt gehören, und die Gradienten benachbarter Volumenelemente aus, die beispielsweise nicht zu ihm gehören, um die Komponenten der normalen auf die sichtbare Oberfläche zu bestimmen, die einem Volumenelement der Oberfläche des Objekts zugeordnet ist.
- Diese Vorgehensweise hat mehrere Konsequenzen. Die erste Konsequenz ist die, daß die Änderungen der Ausrichtungen der Gradienten gedämpft werden. Man neutralisiert endgültig den störenden Effekt der Berechnung der Gradienten bei Volumenelementen, die auf verschiedenen Äquidensitätskurven liegen. Dies ist das angestrebte Ziel. Wenn es weiterhin einleuchtet, daß man alle Volumenelemente verwenden kann, die außerhalb gelegen sind, jedoch direkt mit dem segmentierten Objekt in Kontakt sind, so ist es auch verständlich, daß man die Gewichtung hätte vornehmen können, indem Volumenelemente verwendet werden, die sich im Inneren des segmentierten Volumens befinden und ebenfalls direkt in Kontakt mit den Volumenelementen sind, die die Oberfläche dieses segmentierten Volumens bilden. Beide Lösungen sind möglich.
- Man kann die eine oder die andere dieser Lösungen wählen, in der Praxis und in der folgenden Beschreibung nimmt man jedoch eine Gewichtung der Gradienten der Volumenelemente der Oberfläche des segmentierten Objekts durch die Gradienten der Volumenelemente vor, die sich außerhalb dieses segmentierten Objekts befinden und direkt in Kontakt mit diesem sind. Fig. 4 zeigt unter denselben Bedingungen, wie sie für die Fig. 1a und 1b beschrieben wurden, was ein Beobachter sieht, der sich an der Stelle des Betrachters dieser Figur befindet. Man zeigt so, daß der Gradient des Volumenelements 6 durch den Gradient eines Volumenelements 22, das über ihm angeordnet ist, gewichtet werden müßte. Was das Volumenelement 8 anbelangt, so ist das Problem etwa komplizierter, da dieses Volumenelement zwei Facetten besitzt, die zur Oberfläche des segmentierten Objekts gehören. Es besitzt eine Facette, die in der Figur nach oben gerichtet ist, und eine Facette, die auf die rechte Seite diese Figur zu gerichtet ist. In einem noch allgemeineren Fall kann ein Volumenelement wie das Element 26 drei Facetten im Kontakt mit Volumenelementen haben, die nicht zum Volumen des segmentierten Objekts gehören. Theoretisch kann es sogar bis zu fünf haben. Dies ist auch der Fall bei einem Volumenelement 27, das sich links von der Erhebung 4 befindet. Dieses Element 27 besitzt jedoch die Besonderheit, daß von drei Facetten, die mit der äußeren Umgebung in Kontakt sind, nur zwei für den Beobachter sichtbar sind.
- In der Erfindung nutzt man das Vorhandensein dieser Facetten aus. Einerseits gibt man jeder der äußeren Facetten der Volumenelemente der Oberfläche eine darstellende Einzelbildfläche im aufzubauenden Bild. Man kann insbesondere einen Beobachtungspunkt (das Auge des Betrachters der Figur) berücksichtigen, um in einem aufzubauenden Bild drei einander benachbarte Bildflächenelemente dem Volumenelement 26 zuzuteilen, da man drei seiner Facetten sieht. Die Art der Erscheinung der drei Facetten des Elements 26 ist durch eine doppelte Linie betont. Man kann auch zwei Bildflächenelemente für das Volumenelement 27 vorsehen, da man nur zwei seiner Facetten sieht. Man kann schließlich nur ein Bildflächenelement für das Volumenelement 6 vorsehen, da man nur eine seiner Facetten sieht. Diese Art dieser Berechnung ist bekannt und ist beispielsweise in "schnelle Visualisierung von abgetasteten Objekten" von Yves TROUSSET und Francis SCHMITT im Bericht der Tagungen des zweiten "Colloque image" Niza, April 1986, veröffentlicht. Die Originalität der Erfindung besteht darin, daß diese sichtbaren Facetten herangezogen werden, um im dargestellten Bild sichtbare Flächen für jede von ihnen vorzusehen und die Ausrichtung dieser sichtbaren Oberflächen dagegen vom Wert der Gradienten der Volumenelemente abhängen zu lassen, die gerade über diese Facetten aneinander anliegen.
- So berechnet man für die Facette, die sich auf der Oberseite des Volumenelements 27 befindet, den Gradienten der physikalischen Information in diesem Element 27 sowie in einem Element 28, das über dem Element 27 liegt und an diesem über diese obere Facette anliegt. Für die vordere Facette des Volumenelements 27 zieht man ein Volumenelement 29 heran, das gerade über diese vordere Facette an diesem anliegt. Obwohl es nicht erforderlich wäre, da die hintere Facette in der Ansicht, die in der Richtung von Fig. 5 gezeigt ist, nicht sichtbar ist, kann man trotzdem die Ausrichtung einer der linken seitlichen Facette des Volumenelements 27 zugeordneten sichtbaren Fläche errechnen, indem man den Gradienten der physikalischen Information eines Volumenelements 30 ermittelt, das links vom Volumenelement 27 liegt.
- Zusammenfassend werden im erfindungsgemäßen Verfahren folgende Operationen ausgeführt. Man segmentiert. Man berechnet die Gradienten der Volumenelemente, die zur Oberfläche des segmentierten Objekts gehören. Man errechnet ferner die Gradienten der Volumenelemente, die beispielsweise nicht zum segmentierten Objekt gehören, jedoch an den Volumenelementen, die die Oberfläche dieses segmentierten Objekts bilden, über wenigstens eine äußere (oder innere) Facette dieser Volumenelemente anliegen. Und schließlich führt man die Gewichtung der Gradienten von zwei aneinander anliegenden betrachteten Volumenelementen durch, indem man den gewichteten Wert der Anlagefacette zuordnet. Die Darstellungsoperationen sind anschließend bekannt. Man bestimmt eine Beleuchtungsrichtung 14, man ermittelt die Helligkeit, die von einer Facette ausgesendet wird, die eine bestimmte Ausrichtung besäße, wobei diese Ausrichtung durch den gewichteten Gradienten definiert wird. Und schließlich baut man das Bild der Ansicht auf. In diesem Bild liegen die Oberflächenelemente des Bilds gegenüber dem Beobachter an der Stelle der Facetten der für den Beobachter sichtbaren Volumenelemente.
- In der Praxis kann die Berechnung des Gradienten einfacher vor sich gehen. Ausgehend vom segmentierten Objekt kann man von Anfang an durch eine bekannte Verarbeitung die Facetten kennen, die normalerweise auf den außerhalb des segmentierten Objekts befindlichen, nicht segmentierten Raum zu gerichtet sind. Unter diesen Bedingungen kann man direkt die Rechnung des Gradienten so ändern, daß man die Berechnung des gewichteten Gradienten nur in einem Mal durchführt. Betrachtet man noch einmal Fig. 3a und überträgt ihre Aussage auf Fig. 5a, so ergibt sich, daß die erste Reihe dieser Fig. 5a schematisch die Gewichtungen darstellt, die den dem Volumenelement 27 benachbarten Volumenelementen zuzuweisen sind, um die Komponente seines Gradienten in Y zu errechnen. Die zweite Reihe entspricht derselben Rechnung, die jedoch für das Volumenelement 29 durchgeführt wird, die an ihm über seine sichtbare obere Facette anliegt. In einer einfachen Gewichtung, in die jeder der Gradienten zur Hälfte eingeht, gilt, daß der Gradient der Facette gleich der halben Summe dieser beiden Gradienten ist. In den Quadraten stellt das Wurzelsymbol die Gewichtungen dar, die den physikalischen Informationen zugeordnet werden und die in den Fig. 3b bis 3d dargestellt sind. Die dritte Zeile von Fig. 5a zeigt schematisch die halbe Summe der der Facette zuzuordnenden Gradienten: Alle Volumenelemente müssen demselben Kombinationstyp unterliegen. Es ist nun möglich, im Rechner einen spezialisierten Operator vorzusehen, der diese Rechnung ausführt. Auf diese Weise spart man Zeit. Fig. 5b zeigt die Berechnung von Komponenten in X (oder Z) in Abhängigkeit von den betrachteten Volumenelementen 27 und 29. Die Symbole + oder - geben in Richtung der berechneten Komponente das Erscheinen der verschiedenen Volumenelementenebenen an: hinter oder vor dem betreffenden Volumenelement. Auch für diese Berechnungen kann ein anderer spezialisierter Operator in den Rechner einprogrammiert werden.
- Was die eigentliche Darstellung anbelangt, so beschränkt man sich in der folgenden Beschreibung auf einen Effekt der Lichtzerstreuung durch die sichtbaren Facetten der Volumenelemente, die erfindungsgemäß die sichtbaren Oberflächen dieser Volumenelemente darstellen. Eine Facette zerstreut Licht in alle Richtungen auf gleiche Weise, diese Zerstreuung ist jedoch mehr oder weniger stark in Abhängigkeit von der Ausrichtung dieser Facette bezüglich der Richtung, aus der das Licht kommt (14). Diese Vereinfachung ermöglicht es, den Blickpunkt der Beobachtung des segmentierten Objekts bei der Berechnung der Helligkeit der Facette nicht zu berücksichtigen. Indem man davon ausgeht, daß diese Zerstreuungfunktion proportional zum Cosinus des Einfallswinkels der Beleuchtungsrichtung mit der Senkrechten zu den Facetten ist, nähert man sich schnell der Helligkeit dieser Facette, indem man das Skalarprodukt eines Einheitsvektors, der die Beleuchtungsrichtung darstellt, mit dem dieser Facette zugeordneten Gradienten errechnet. Die Berechnung der Skalarprodukte in einem Rechner ist bekannt.
- Man könnte auch einen Effekt der Lichtreflektion betrachten, bei dem die Ausrichtung der Facette, die Richtung der Beleuchtung, aber auch die Stellung des Blickpunkts der Beobachtung eine Rolle spielen. Ein Auge, das sich an diesem Blickpunkt befindet, empfängt um so mehr von einer Facette kommendes reflektiertes Licht, je mehr sich die Senkrechte auf diese Facette einer Richtung nähert, die nahe der Winkelhalbierenden des Winkels ist, dem die Beobachtungsrichtung mit der Beleuchtungsrichtung bildet. Man kann auch einen Effekt der Nähe des Beobachters zum segmentierten Objekt berücksichtigen. Es ist nämlich bekannt, Bilder von Ansichten darzustellen, als würden sie aus einer Entfernung beobachtet, die gleich dem 1000fachen oder 1500fachen der Grundabmessung eines Volumenelements ist. Man versieht nun die Helligkeit, die für jede Facette oder, was auf dasselbe hinausläuft, für jede Einzelfläche des aufzubauenden Bilds errechnet wird, einen affinen Gewichtungskoeffizienten hinzu, d. h. der vom Abstand des Beobachters von jedem der dargestellten Volumenelemente abhängt. Es kann geschehen, daß das Skalarprodukt der Senkrechten mit der Beleuchtungsrichtung negativ ist. Das bedeutet, daß die Facette nicht durch die Beleuchtung beleuchtet werden dürfte, während diese Facette für den Betrachter sichtbar ist. Dies ist beispielsweise in Fig. 4 bei der für den Beobachter sichtbaren Front 31 der Fall, während diese von der Beleuchtung 14 nicht beleuchtet wird. Unter diesen Bedingungen kann man die Beleuchtung ein bißchen ändern, indem man sie nicht mehr nur aus der Richtung 14 kommen läßt, sondern ihr beispielsweise eine Umgebungslichtkomponente beigibt. Daraus ergibt sich, daß die jedem Oberflächenelement zugeteilte Helligkeit für jede Facette vom folgenden Typ sein kann:
- (1-N·L)p/2,
- worin N der Gradient (gewichtet oder nicht gewichtet), L die Beleuchtungsrichtung und p einen Koeffizient der Dämpfung der Härte von Kontrasteffekten darstellt, die bei einem solchen zu stark vereinfachten Zerstreuungsverlauf erzeugt werden. Die Präzision, die in der Berechnung der Senkrechten zur Oberfläche erreicht wird, gestattet es jedoch, zusätzlich zur Zerstreuungswirkung einen Reflexionseffekt zu verwenden und auf diese Weise durch die Wahl von Gewichtungsparametern die Erscheinung der visualisierten Materie zu ändern.
Claims (7)
1. Verfahren zur Sichtbarmachung von Ansichten eines Objektes (Figur
Ia), das innerhalb eines digitalen Volumens zu unterscheiden ist, wobei
dieses Volumen mit mindestens einer physikalischen Information beladene
Volumenelemente (3) umfaßt, wobei das Verfahren die folgenden Schritte
umfaßt:
- man segmentiert das digitale Volumen gemäß einem
Segmentierungskriterium, das das Auswählen von Volumenelementen in
Abhängigkeit von dem Wert der physikalischen Informationen zuläßt, mit
denen sie beladen sind und so, daß man auf diese Weise aus diesem
digitalen Volumen ein segmentiertes Objekt extrahiert,
- man ordnet jedem gewählten, an der Oberfläche des
segmentierten Objektes liegenden Volumenelement eine sichtbare
Oberfläche zu,
- man wertet den Beitrag (14) dieser sichtbaren Oberfläche der
darzustellenden Ansicht aus,
- man bildet ein Leuchtbild aus den Oberflächenelementen unter
Benutzung von Elementen, deren Orte im Bild die Orte im segmentierten
der ausgewählten, an der Oberfläche des segmentierten Objektes
liegenden Volumenelemente darstellen, und deren Helligkeiten die Beiträge
der sichtbaren, diesen Volumenelementen zugeordneten Oberflächen
darstellen, dadurch gekennzeichnet, daß
- als sichtbare Oberfläche man jedem ausgewählten, an der
Oberfläche des segmentierten Objektes liegenden Volumenelement die
Facetten dieses Elements bei der Berührung mit der inneren oder
äußeren Umgebung der Oberfläche dieses segmentierten Objekts zuordnet,
daß man den Beitrag jeder dieser Facetten der ausgewählten, und der
Oberfläche es Objekts liegenden Volumenelemente in Abhängigkeit von der
wahren unbezogenen Gradienten der physikalische Information am Ort der
entsprechenden Volumenelemente auswertet, wobei dieser Gradient von
der Richtung der Ausleuchtung der Facetten unabhängig ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß man jedem
ausgewählten, an der Oberfläche des segmentierten Objektes liegenden
Volumenelement als sichtbare Oberfläche die Gesamtheit der scheinbaren
Facetten dieses Volumenelements zuordnet, die sonst keinem anderen
Volumenelement des segmentierten Objekts gehören.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß man den
Beitrag einer sichtbaren Oberfläche eines Volumenelements in
Abhängigkeit von der wahren unbezogenen Gradienten der physikalischen
Information am Ort und in der Umgebung dieses Volumenelements
auswertet.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß bei der
Auszuwertung man den Beitrag jeder der scheinbaren Facetten in
Abhängigkeit von einer Messung der Ausrichtung dieser scheinbaren
Facetten mißt und daß man die Ausrichtung dieser scheinbaren Facetten
auswertet, indem man eine Senkrechte zu diesen Facetten auf Basis der
Werte der Gradienten des physikalischen Informationen ausrechnet, die
in die beidseits dieser Facette liegenden Volumenelemente geladen sind.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß man die
Ausrichtung dieser Facetten, mißt, indem man eine Senkrechte zu diesen
Facetten in Abhängigkeit von der physikalischen Informationen
ausrechnet,. die in die beidseits dieser Facetten liegenden
Volumenelemente geladen sind.
6. Verfahren nach einem der vorhergehenden Ansprüche 1 bis 5, dadurch
gekennzeichnet, daß für die Angleichung der scheinbaren Facetten man
die Gestalt des segmentierten Objekts (27) sowie die Position eines
Sichtpunkts (27) berücksichtigt, vom dem man annimmt, daß von dort aus
man das Objekt sieht.
7. Verfahren nach einem der vorhergehenden Ansprüche 1 bis 5, dadurch
gekennzeichnet, daß man für jede scheinbare Facette den Ort eines
Oberflächenelements berechnet, das im Bild und in der Helligkeit dieses
dem Beitrag dieser Facette entsprechenden Oberflächenelements ihm
entsprechen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR8705487A FR2614163B1 (fr) | 1987-04-17 | 1987-04-17 | Procede de representation d'images de vues d'un objet |
PCT/FR1988/000177 WO1988008169A1 (fr) | 1987-04-17 | 1988-04-12 | Procede de representation d'images de vues d'un objet |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3874889D1 DE3874889D1 (de) | 1992-10-29 |
DE3874889T2 true DE3874889T2 (de) | 1993-03-11 |
Family
ID=9350242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE8888903282T Expired - Lifetime DE3874889T2 (de) | 1987-04-17 | 1988-04-12 | Verfahren zur wiedergabe von sichtbildern eines objektes. |
Country Status (6)
Country | Link |
---|---|
US (1) | US5245538A (de) |
EP (1) | EP0348434B1 (de) |
JP (1) | JP3049289B2 (de) |
DE (1) | DE3874889T2 (de) |
FR (1) | FR2614163B1 (de) |
WO (1) | WO1988008169A1 (de) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5360811A (en) * | 1990-03-13 | 1994-11-01 | Hoechst-Roussel Pharmaceuticals Incorporated | 1-alkyl-, 1-alkenyl-, and 1-alkynylaryl-2-amino-1,3-propanediols and related compounds as anti-inflammatory agents |
JP2785636B2 (ja) * | 1993-02-25 | 1998-08-13 | 株式会社エス.エス.ビー | 生体組織多次元可視装置 |
US5368033A (en) * | 1993-04-20 | 1994-11-29 | North American Philips Corporation | Magnetic resonance angiography method and apparatus employing an integration projection |
US6694163B1 (en) | 1994-10-27 | 2004-02-17 | Wake Forest University Health Sciences | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
US5920319A (en) * | 1994-10-27 | 1999-07-06 | Wake Forest University | Automatic analysis in virtual endoscopy |
US5782762A (en) | 1994-10-27 | 1998-07-21 | Wake Forest University | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
US7194117B2 (en) * | 1999-06-29 | 2007-03-20 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US7486811B2 (en) | 1996-09-16 | 2009-02-03 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US6331116B1 (en) * | 1996-09-16 | 2001-12-18 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual segmentation and examination |
US6115048A (en) * | 1997-01-21 | 2000-09-05 | General Electric Company | Fast method of creating 3D surfaces by `stretching cubes` |
US8682045B2 (en) * | 1997-02-25 | 2014-03-25 | Wake Forest University Health Sciences | Virtual endoscopy with improved image segmentation and lesion detection |
US6130671A (en) * | 1997-11-26 | 2000-10-10 | Vital Images, Inc. | Volume rendering lighting using dot product methodology |
US7356367B2 (en) * | 2000-06-06 | 2008-04-08 | The Research Foundation Of State University Of New York | Computer aided treatment planning and visualization with image registration and fusion |
US7574024B2 (en) | 2000-10-02 | 2009-08-11 | The Research Foundation Of State University Of New York | Centerline and tree branch skeleton determination for virtual objects |
US6690820B2 (en) * | 2001-01-31 | 2004-02-10 | Magic Earth, Inc. | System and method for analyzing and imaging and enhanced three-dimensional volume data set using one or more attributes |
US7630750B2 (en) * | 2001-02-05 | 2009-12-08 | The Research Foundation For The State University Of New York | Computer aided treatment planning |
US7324104B1 (en) | 2001-09-14 | 2008-01-29 | The Research Foundation Of State University Of New York | Method of centerline generation in virtual objects |
US7596256B1 (en) | 2001-09-14 | 2009-09-29 | The Research Foundation For The State University Of New York | Computer assisted detection of lesions in volumetric medical images |
US7671342B2 (en) * | 2005-01-11 | 2010-03-02 | Siemens Medical Solutions Usa, Inc. | Multi-layer detector and method for imaging |
WO2007064980A2 (en) * | 2005-11-30 | 2007-06-07 | The Research Foundation Of State University Of New York | Electronic colon cleansing method for virtual colonoscopy |
WO2007064981A2 (en) * | 2005-11-30 | 2007-06-07 | The Research Foundation Of State University Of New York | Reducing false positives of polyp in cad |
BR112012014173A2 (pt) | 2009-12-15 | 2016-05-17 | Koninkl Philips Electronics Nv | método e compensador de dados |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4737921A (en) * | 1985-06-03 | 1988-04-12 | Dynamic Digital Displays, Inc. | Three dimensional medical image display system |
US4729098A (en) * | 1985-06-05 | 1988-03-01 | General Electric Company | System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body |
US4866612A (en) * | 1986-03-05 | 1989-09-12 | Hitachi Medical Corporation | Imaging system including means to provide a display image with shadows and three dimensional perspectives by a combination of voxel and surface method |
US4751643A (en) * | 1986-08-04 | 1988-06-14 | General Electric Company | Method and apparatus for determining connected substructures within a body |
US4907152A (en) * | 1986-09-25 | 1990-03-06 | The Boeing Company | Method of improving CT resolution |
US4821210A (en) * | 1987-04-02 | 1989-04-11 | General Electric Co. | Fast display of three-dimensional images |
FR2613509B1 (fr) * | 1987-04-03 | 1989-06-09 | Thomson Cgr | Procede de calcul et de representation d'images de vues d'un objet |
-
1987
- 1987-04-17 FR FR8705487A patent/FR2614163B1/fr not_active Expired
-
1988
- 1988-04-12 DE DE8888903282T patent/DE3874889T2/de not_active Expired - Lifetime
- 1988-04-12 EP EP88903282A patent/EP0348434B1/de not_active Expired - Lifetime
- 1988-04-12 WO PCT/FR1988/000177 patent/WO1988008169A1/fr active IP Right Grant
- 1988-04-12 US US07/425,192 patent/US5245538A/en not_active Expired - Lifetime
- 1988-04-12 JP JP63503493A patent/JP3049289B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP3049289B2 (ja) | 2000-06-05 |
WO1988008169A1 (fr) | 1988-10-20 |
FR2614163A1 (fr) | 1988-10-21 |
FR2614163B1 (fr) | 1989-06-09 |
US5245538A (en) | 1993-09-14 |
DE3874889D1 (de) | 1992-10-29 |
EP0348434A1 (de) | 1990-01-03 |
EP0348434B1 (de) | 1992-09-23 |
JPH03500695A (ja) | 1991-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3874889T2 (de) | Verfahren zur wiedergabe von sichtbildern eines objektes. | |
DE3872031T2 (de) | Verfahren zum berechnen und zur wiedergabe von sichtbildern eines objektes. | |
DE69312257T2 (de) | Strahlungsfelderkennungsverfahren | |
DE69429743T2 (de) | Verfahren und Gerät zur Bestimmung einer Kontur in einem durch eine Dichteverteilung gekennzeichneten Raum | |
DE69822590T2 (de) | System zur Flächendarstellung mit volumetrischen Abstandskarten | |
DE3789650T2 (de) | Verfahren und System zur Festkörpermodellierung. | |
DE69425594T2 (de) | Rechnergestützte Erkennung von Mikroverkalkungen in der Mammographie | |
DE69635906T2 (de) | Anatomisches visualisierungs- und messsystem | |
DE68928979T2 (de) | System und Verfahren zur Anzeige von windschiefen Schnittebenen im Innern eines massiven Körpers | |
DE69819557T2 (de) | Volumendarstellungsleuchten mit punktkodemethodologie | |
DE102006009255B4 (de) | Bildverarbeitungsverfahren und Bildverarbeitungsgerät | |
DE3650169T2 (de) | Anlage und Verfahren zur Anzeige von im Inneren eines Festkörpers eingeschlossenen Oberflächenstrukturen. | |
DE69916450T2 (de) | Verfahren zum suchen von bildern, basierend auf einer invarianten indizierung der bilder | |
DE69924699T2 (de) | Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten | |
DE69917829T2 (de) | Bildverarbeitungsverfahren mit multidimensionalen Bildsegmentationsstufen und medizinische Vorrichtung die diese verwendet | |
DE102008050049B4 (de) | Verfahren zur Bestimmung einer die Objektgrenze eines Objekts in einem digitalen 3D-Datensatz annähernden 3D-Oberfläche | |
EP2284795A2 (de) | Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen | |
DE19955690A1 (de) | System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation | |
DE102007026803A1 (de) | Verfahren zur Verarbeitung von radiologischen Bildern bei der Tomosynthese zur Erfassung radiologischer Auffälligkeiten | |
DE102005036875A1 (de) | System und Verfahren zur 3-D Visualisierung der Lungenperfusion oder -dichte und ihre statistische Auswertung | |
DE102012107529A1 (de) | Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes | |
DE60306511T2 (de) | Medizinisches darstellungssystem und bildverarbeitungsverfahren zur visualisierung von gefalteten anatomischen bereichen von objektoberflächen | |
DE102011076930A1 (de) | Verfahren und Vorrichtung zur Anpassung der Darstellung von Volumendaten eines Objektes | |
DE69924230T2 (de) | Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten | |
EP1882232B1 (de) | Verfahren und vorrichtung zum bestimmen von materialgrenzen eines prüfobjekts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |