DE3874889T2 - Verfahren zur wiedergabe von sichtbildern eines objektes. - Google Patents

Verfahren zur wiedergabe von sichtbildern eines objektes.

Info

Publication number
DE3874889T2
DE3874889T2 DE8888903282T DE3874889T DE3874889T2 DE 3874889 T2 DE3874889 T2 DE 3874889T2 DE 8888903282 T DE8888903282 T DE 8888903282T DE 3874889 T DE3874889 T DE 3874889T DE 3874889 T2 DE3874889 T2 DE 3874889T2
Authority
DE
Germany
Prior art keywords
volume
facets
elements
volume elements
segmented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE8888903282T
Other languages
English (en)
Other versions
DE3874889D1 (de
Inventor
Olivier Lis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric CGR SA
Original Assignee
General Electric CGR SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric CGR SA filed Critical General Electric CGR SA
Publication of DE3874889D1 publication Critical patent/DE3874889D1/de
Application granted granted Critical
Publication of DE3874889T2 publication Critical patent/DE3874889T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Shielding Devices Or Components To Electric Or Magnetic Fields (AREA)
  • Compositions Of Macromolecular Compounds (AREA)
  • Polyoxymethylene Polymers And Polymers With Carbon-To-Carbon Bonds (AREA)
  • Image Processing (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zur Darstellung von Bildern von Ansichten eines Objekts. Dieses Objekt ist in einem digitalen Volumen zu diskriminieren. Ein digitales Volumen erhält man durch die Erfassung und Speicherung von Informationen, die physikalische Merkmale von inneren Teilen eines untersuchten Körpers betreffen. Die bekannteste Art der Erfassung dieser Informationen ist die Tomographie. Diese kann insbesondere im Bereich der Medizin mit verschiedenen Mitteln durchgeführt werden: nukleare magnetische Resonanz, Tomodensitometrie durch Röntgenstrahlen oder Tomographie durch Gammastrahlenphotographie oder Ultraschall. Die Art der Erfassung ist beliebig, sie muß nur zu einer Sammlung von physikalischen Informationen führen, die man virtuell zueinander in drei rechtwinkeligen Bezugsachsen anordnen kann und die als Darstellung der physikalischen Merkmale von entsprechenden Teilen in einem untersuchten Körper in der virtuellen Stellung, die sie einnehmen, gelten. Jedes Volumenelement dieses digitalen Volumens umfaßt also mindestens zwei Typen von Informationen. Ein erster Typ betrifft die Koordinaten einer entsprechenden Stelle im Körper (die eindeutig einer Adresse in einem Speicher eines Rechners entspricht). Der andere Typ stellt den Wert der physikalischen Information dar, die dieser Stelle zugeordnet ist und die beispielsweise durch eine der obengenannten Tomographietechniken gemessen worden war.
  • Verfahren zur Darstellung von Bildern von Ansichten eines in digitalen Volumen zu diskriminierenden Objekts sind bereits bekannt. Es gibt von ihnen vor allem zwei. Eine erste Technik, die hauptsächlich von G. T. HERMAN und seinem Team entwickelt wurde, besteht aus den folgenden Operationen. Ausgehend von einem bestimmten digitalen Volumen, das ggf. umformatiert ist, damit die Auflösung in den drei Dimensionen des Raums gleich ist, wird zunächst eine Segmentierung vorgenommen. Das Prinzip der Segmentierung besteht darin, daß die Werte der physikalischen Informationen, die in jedes der Volumenelemente geladen sind, mit einem Bezugswert verglichen werden und von diesen Volumenelementen diejenigen festgehalten werden, deren Wert der physikalischen Information beispielsweise zu einem Wertebereich gehört, der um diesen Bezugswert herum liegt. In der Tomodensitometrie beispielsweise gestattet eine Dichtemessung es, im digitalen Volumen die Volumenelemente zu unterscheiden, die Knochen entsprechen (hohe Dichte), und die Volumenelemente, die weichen Geweben entsprechen (geringe Dichte). Man kann auf diese Weise über eine Sammlung von Speicherstellenadressen verfügen, die ausgewählten Volumenelementen entsprechen, die zusammen das auf diese Weise segmentierte Objekt definieren.
  • Das Prinzip der Darstellung besteht anschließend darin, daß jedem der ausgewählten Volumenelemente (die sich jedoch an der Oberfläche des segmentierten Objekts befinden) eine sichtbare Fläche zugeteilt wird, die Richtung dieser Fläche berechnet wird (die Richtung der Senkrechten auf sie ermittelt wird) und der Lichtbeitrag dieser Fläche zu einem Ansichtsbild ermittelt wird, wenn diese Fläche einer bestimmten Beleuchtung ausgesetzt ist (d. h. einer Beleuchtung, die beispielsweise von einem genauen Punkt in dem außerhalb des segmentierten Objekts befindlichen Bereich kommt). Kennt man die Standorte der ausgewählten Volumenelemente und damit die entsprechenden sichtbaren Flächen, kann man ihnen im Bild der darzustellenden Ansicht Flächenelemente dieses Bilds zuordnen, deren Koordinaten im Bild von dem Blickpunkt abhängen, von dem aus man das segmentierte Objekt betrachtet. Man stattet nun diese Oberflächenelemente mit einer Helligkeit aus, die repräsentativ sind für die Beiträge der sichtbaren Flächen, denen sie zugeteilt sind. Alle diese Oberflächenelemente des Bilds bilden zusammen das Bild der Ansicht des Objekts.
  • Diese Methode besitzt Nachteile, insbesondere ist die Schattierung nicht befriedigend. Das erhaltene Bild weist nämlich Linien- oder Kreisartefakte auf, die Niveaulinien des segmentierten Objekts ähneln, und zwar unabhängig von der Richtung der Beleuchtung und unabhängig von dem Punkt, von dem aus dieses Objekt beobachtet wird. Diese Niveaukurvenartefakte sind besonderes bei der Darstellung von Oberflächen mit wenig Relief feststellbar. Wenn es hierbei genügen mag, daß man sie bei der Betrachtung der Ansicht sich wegdenkt, kann man nicht leugnen, daß dieselben Fehler in problematischeren Teilen der dargestellen Ansichten mit mehr Relief auch auftreten. In diesen Teilen wird es nun unmöglich, im Bild zu unterscheiden, was wahre Darstellung und was Artefakt ist.
  • Diese Methode besitzt ferner einen anderen Nachteil, der mit der Berechnung der Ausrichtung der sichtbaren Flächen verbunden ist. Die Segmentierung führt nämlich dazu, daß den ausgewählten Volumenelementen und den ausgeschiedenen Volumenelementen eine binäre Information zugewiesen wird, und zwar beispielsweise 1 bzw. 0. Die Berechnung der Richtung der einem ausgewählten Volumenelement zugeordneten sichtbaren Oberfläche wird gewöhnlich vorgenommen, indem die Verteilung von 1 und 0 in den dem ausgewählten Volumenelement direkt benachbarten Volumenelementen betrachtet wird. Dies führt einerseits zu einer begrenzten Anzahl von Ausrichtungsmöglichkeiten dieser Fläche (81 mögliche Ausrichtungen, wenn man die 26 Elemente nimmt, die dem ausgewählten Volumenelement direkt benachbart sind), und zwar vor allem dann, wenn diese Zahl von Möglichkeiten aufgrund des Beobachtungspunkts durch zwei geteilt wird. Andererseits führt diese Berechnung in manchen Grenzfällen zu einem Flimmern im Bild. Wenn nämlich die physikalische Information, die bei einer Gruppe von benachbarten Volumenelementen gemessen wird, sehr nahe bei der Grenze des Segmentierungsbereich liegt, werden manche dieser Elemente ausgewählt und andere nicht. Dies kann zu einem ausgezackten Profil des segmentierten Objekts an dieser Stelle führen, während sein wahrer Verlauf glatt sein kann, jedoch bezüglich des physikalischen Informationswerts wegen des für die Segmentierung herangezogenen Kriteriums auf einer schwierigen Höhe liegt. Und dieses ausgezackte Profil verursacht das Flimmern des Bilds.
  • Eine andere Darstellungstechnik, die von den Techniken der Bildsynthese und rechnergestützten Konzeption abgeleitet ist, besteht aus einer Segmentierung des Speichervolumens in Speicherebenen, die Schnitten des digitalen Volumens entsprechen. Beispielsweise werden alle zu einer bestimmten Achse (eine Achse Z) senkrechten Schnitte segmentiert. In allen diesen Schnitten kann man durch Korrelationsmethoden einen "glatten" Umriß des Schnitts des segmentierten Objekts zeichnen. In einem nachfolgenden Arbeitsgang verbindet man die zu jedem der benachbarten Schnitte gehörenden Umrisse so, daß im allgemeinen dreieckige Facetten mit gewählten Abmessungen bestimmt werden. Eine dreieckige Facette ist beispielsweise durch drei Punkte definiert, von denen zwei zu einem Umriß in einem Schnitt gehören, während ein dritter, dazwischen liegender Punkt zu einem Umriß in einem benachbarten Schnitt gehört. Die Stellung jeder Facette ist bekannt und man kann ihr im visualisierten Bild ein Oberflächenelement dieses Bilds zuordnen. Man errechnet ferner für diese Facetten die Lichtbeiträge, und konstruiert anschließend das Bild der Ansicht. Diese Technik besitzt - allerdings in einem geringeren Grad - die vorhergehenden Nachteile. Die Niveaulinienartefakte treten dennoch auf, wenn diese Niveaulinien sich in der Achse erstrecken, zu denen die benutzten Schnitte senkrecht sind.
  • Außerdem besitzt diese Technik einen großen Nachteil: sie ist schwierig mit herkömmlichen Rechnern auszuführen. Sie kommt praktisch nur in Betracht, wenn die Anzahl der im Bild darzustellenden Facetten auf 5 000 oder 10 000 Facetten begrenzt ist. Nun beträgt jedoch die Zahl der darzustellenden Facetten bei medizinischen Bildern oder allgemein bei Bildern, die unbekannte Objekte, welche bekannt gemacht werden sollen, darstellen (und nicht symbolische Objekte, die für die Simulation verwendbar sind), etwa 500 000 bis 1 000 000. Die Berechnungszeiten bei dieser Technik sind nun nicht mehr akzeptabel.
  • Ziel der Erfindung ist es, diese Nachteile zu beseitigen, indem eine Darstellung vorgeschlagen wird, bei der nicht mehr von der Oberfläche des segmentierten Objekts ausgegangen wird, wie es nach der Segmentierung bestimmt werden konnte. Bei der erfindungsgemäßen Darstellung betrachtet man vielmehr die Senkrechte auf die Oberfläche des tatsächlichen Objekts, die also tatsächlich durch den entsprechenden Teil des untersuchten Körpers bestimmt ist, um alle darzustellenden sichtbaren Oberflächen zu bilden. Wenn nun also das Segmentierungskriterium die Grenze bildet, um die Volumenelemente, die zum segmentierten Objekt gehören oder nicht gehören, zu diskriminieren, erhält man einen automatischen Effekt der Glättung der Darstellung an dieser Stelle, indem man beispielsweise den Gradienten des Werts der in diese Volumenelemente geladenen physikalischen Information heranzieht, da dieser Gradient nicht im Ja-Nein-System von einem Volumenelement zum anderen fluktuiert (abgesehen von den stark differenzierten Teilen des Körpers, beispielsweise den Knochen bezüglich der weichen Gewebe). Mit anderen Worten, die Darstellung der Formen von Geweben mit nahe beieinander liegenden physikalischen Merkmalen wird verbessert. Ferner verwendet man zur Verbesserung des mit den Niveauwechselproblemen verbundenen Artefakts einfach die Gradienten von physikalischen Informationen von Volumenelementen, die den segmentierten Volumenelementen an der Oberfläche des segmentierten Objekts benachbart sind.
  • In einer IEEE-Schrift, Transactions on Medical Imaging, Band M1-5, Nr. 1, März 1986, Seiten 45-46, wird vorgeschlagen, Komponenten der Gradienten zu verwenden. Dies gestattet jedoch nicht die Vermeidung der Artefakte.
  • Gegenstand der Erfindung ist ein Verfahren zur Darstellung des Bilds der Ansicht eines Objekts, das in einem digitalen Volumen zu diskriminieren ist, wobei dieses Volumen Volumenelemente umfaßt, die mit mindestens einer physikalischen Information geladen sind, wobei das Verfahren die folgenden Schritte umfaßt:
  • - man segmentiert das digitale Volumen gemäß einem Segmentierungskriterium, das das Auswählen von Volumenelementen in Abhängigkeit von dem Wert der physikalischen Informationen gestattet, mit denen sie geladen sind, und zwar so, daß man auf diese Weise aus diesem digitalen Volumen ein segmentiertes Objekt herausholt,
  • - man ordnet jedem gewählten, an der Oberfläche des segmentierten Objekts liegenden Volumenelement eine sichtbare Oberfläche zu,
  • - man ermittelt den Beitrag dieser sichtbaren Oberfläche zu der darzustellenden Ansicht,
  • - man bildet ein Leuchtbild mit den Oberflächenelementen, deren Standorte im Bild die Standorte der ausgewählten und an der Oberfläche des segmentierten Objekts liegenden Volumenelemente im segmentierten Objekt darstellen, und deren Helligkeit die Beiträge der sichtbaren, diesen Volumenelementen zugeordneten Oberflächen darstellen, und das dadurch gekennzeichnet ist, daß
  • - man als sichtbare Fläche jedem ausgewählten, an der Oberfläche des segmentierten Objekts liegenden Volumenelement die Facetten dieses Elements zuordnet, die mit der inneren oder äußeren Umgebung dieser Oberfläche des segmentierten Objekts in Berührung sind, und daß man den Beitrag jeder dieser Facetten der ausgewählten und an der Oberfläche des segmentierten Objekts liegenden Volumenelemente in Abhängigkeit von dem wahren Eigengradienten der physikalischen Information an der Stelle der entsprechenden Volumenelemente auswertet, wobei dieser Gradient von einer Beleuchtungsrichtung der Facetten unabhängig ist.
  • Es läßt sich zeigen, daß man auf diese Weise als sichtbare Fläche jedem ausgewählten Volumenelement alle sichtbaren Facetten dieses Volumenelements zuordnen kann, die im übrigen zu keinem anderen Volumenelement des segmentierten Objekts gehören. Bei einer Verbesserung wird die Ermittlung des Beitrags der sichtbaren Oberflächen eines Volumenelements sogar ausgehend von physikalischen Informationsgradienten an der Stelle der entsprechenden Volumenelemente sowie an der Stelle der in der Nähe dieser entsprechenden Volumenelemente gelegenen Volumenelemente vorgenommen.
  • Zum besseren Verständnis der Erfindung dient die folgende Beschreibung, die sich auf die beiliegenden Zeichnungen bezieht. Diese dienen nur als Beispiel und schränken die Erfindung nicht ein. Insbesondere betreffen sie nur die wesentlichen Teile der Erfindung. Die Figuren zeigen:
  • Fig. 1a und 1b ein digitales Volumen und die Oberfläche eines in diesem Volumen segmentierten Objekts;
  • Fig. 2 ein Vergleich zwischen dem Profil des segmentierten Objekts und dem Profil der tatsächlichen Oberfläche;
  • Fig. 3a bis 3d ein bevorzugtes Beispiel der Berechnung des Gradienten;
  • Fig. 4, 5a und 5b die Einzelheiten der Berechnung des Gradienten unten Berücksichtigung der sichtbaren Facetten des segmentierten Objekts.
  • Fig. 1a zeigt ein digitales Volumen 1 schematisch mit drei rechtwinkeligen Bezugsachsen X, Y, Z. Es symbolisiert einen Teil des Volumens eines untersuchten Körpers (nicht dargestellt), in dem die Erfassung von physikalischen Informationen vorgenommen worden war. Nach Segmentierung in bekannten Verfahren hat das digitale Volumen 1 einen binären Verlauf angenommen. Volumenelemente 2, in denen die geladene physikalische Information nicht dem Segmentierungskriterium entsprach, wurde mit einer bestimmten binären Gewichtung (im vorliegenden Fall 0) versehen, während andere Volumenelemente 3 dagegen mit einer anderen binären Gewichtung (im vorliegenden Fall 1) versehen wurden, da sie als Teile des im Körper zu diskriminierenden Objekts erkannt wurden. Fig. 1a zeigt außerdem in dicken unterbrochenen Linien einen Teil der tatsächlichen Oberfläche eines Teils des untersuchten Körpers, der zur Segmentierung geführt hat. Diese Oberfläche weist eine Erhebung 4 auf, die über eine ebene Fläche 5 hinausragt. Fig. 1b zeigt bei denselben Elementen die Art der Berechnung der Ausrichtungen der darstellenden Oberflächen, die durch die Segmentierung den ausgewählten Volumenelementen zugeordnet wurden. Mit diesen Ausrichtungen ermittelt man ihren Beitrag zum Bild. Es wird der besondere Fall der Volumenelemente 6 bis 9 untersucht, die sich an der Oberfläche des segmentierten Volumens befinden. Sie sind normalerweise von einem Blickpunkt aus sichtbar, der senkrecht zur Ebene der Figur gelegen ist, d. h. im wesentlichen an der Stelle, an der sich die Augen eines Beobachters befinden, der diese Figur betrachtet. Die Volumenelemente 6 und 9 sind von Volumenelementen umgeben, die bezüglich der Ebenen XZ oder XY zu ihnen symmetrisch sind. Infolgedessen führt die Berechnung der Senkrechten auf die sichtbare Oberfläche der Volumenelemente 6 und 9 zur Bestimmung von Normalvektoren 10 bzw. 11, die nur Komponenten in der Richtung X besitzen. Bei den Volumenelementen 7 und 8, die zu dem segmentierten Volumen zu beiden Seiten der Niveauänderung bezüglich der Ebene 5 gehören, kann man zeigen, daß die herkömmlichen Berechnungen, die auf dem Verlauf des segmentierten Volumens beruhen (d. h. so, wie es hier mit seiner Abstufung zu sehen ist) zur Bestimmung von zwei leicht geneigten Senkrechten 12 bzw. 13 führen. Man kann in erster Annäherung sagen, daß die Senkrechten 12 und 13 im wesentlichen parallel zueinander sind.
  • Vom Volumenelement 6 zum Volumenelement 7, bei denen sich die Senkrechten einander nähern, hat man es mit einer sichtbaren Oberfläche mit konkavem Verlauf zu tun. Dagegen verläuft die Oberfläche vom Volumenelement 8 zum Volumenelement 9 konvex, wobei die Senkrechten 11 und 13 divergieren. Wenn man diese Volumenelemente 7 bis 9 (mathematisch) einer Beleuchtung aussetzt, die aus einer Richtung 14 kommt, und zwar beispielsweise mit der Ausrichtung (1, -1, -1), haben die konkave Oberfläche und die konvexe Oberfläche jeweils eine unterschiedliche Helligkeit. Aus diesem Helligkeitsunterschied, der sich längs der Front 15 des Absatzes der Erhebung 4 der Ebene 5 entlang windet, ergibt sich im visualisierten Bild ein Artefakt in Form einer Linie. Dagegen gibt es in dem Bild, das hätte gezeigt werden sollen und das zum Teil in Fig. 1a dargestellt ist, an dieser Stelle keine Unterbrechung der Neigung der Oberfläche des wahren Objekts, so daß an dieser Stelle keine Leuchtumrandung hätte gezeigt werden sollen, die in etwa wie eine Niveaulinie aussieht.
  • Um diesen Nachteil zu beseitigen, ist erfindungsgemäß vorgesehen, nicht mehr die Senkrechten auf die Oberflächen der ausgewählten Volumenelemente durch den Verlauf dieser Oberflächen zu errechnen, sondern sie durch den Gradienten der physikalischen Information an der Stelle des ausgewählten Volumenelements zu ersetzen, über die die Segmentierung vorgenommen wird. Auf diese Weise dämpft man, wie Fig. 1a zeigt, die Wirkungen der Desorientierung der zu visualisierenden Oberflächen und nähert sich der Realität der tatsächlichen Oberfläche des segmentierten Objekts. Fig. 2 zeigt einen Schnitt in der Ebene X Z durch Fig. 1a in der Mitte der Volumenelemente 6 bis 9. Der Umriß 16 der Oberfläche des darzustellenden Objekts ist angegeben. Die Mittelpunkte der Volumenelemente sind mit einem Punkt versehen. Die Senkrechte auf die sichtbaren Oberfläche, die jedem Volumenelement der Oberfläche des segmentierten Objekts zugeteilt ist, ist mit der Richtung des Gradienten gleichgesetzt. Man ordnet dieser Ausrichtung des Gradienten eine hierzu senkrechte Ausrichtung einer bestimmten Einzelfläche zu. Mit anderen Worten, man ersetzt nun in Fig. 2 die unbekannte wahre Oberfläche 16 durch eine Oberflächeneinschätzung, die als senkrecht zum Gradienten der physikalischen Information bestimmt ist, die in die betreffenden Volumenelemente geladen ist. Man stellt fest, daß die Pfeile 17 bis 20, die die Richtungen dieser Gradienten darstellen, weniger stark voneinander abweichen als in dem in Fig. 1b dargestellten Fall. Insbesondere die Richtungen der Gradienten 17 und 20 tragen der Neigung der Oberfläche 16 an der Stelle des Volumenelements, zu dem sie gehören, Rechnung.
  • Die Fig. 3a und 3d zeigen ein Beispiel der Berechnung des Gradienten der physikalischen Information, die in einem Volumenelement enthalten ist, das von 26 benachbarten Volumenelementen umgeben ist (3·9 = 27-1). Bei einem bevorzugten Beispiel werden diese Gradienten in der sogenannten ZUCKER-Methode errechnet. Gemäß dieser Methode berechnet man jede der Komponenten des Gradienten, indem man die Volumenelemente mit einbezieht, die sich in zu beiden Seiten dieses Volumenelements gelegenen Ebenen längs einer zur zu berechnenden Komponente parallelen Achse befinden. Beispielsweise möchte man (Fig. 3b bis 3d) die Komponente in der Achse Y errechnen und zieht die Volumenelemente heran, die sich vor dem betreffenden Volumenelement befinden (Fig. 3b: Y = -1) und man zieht ferner die Volumenelemente heran, die sich in einer hinter dem betreffenden Volumenelement liegenden Ebene befinden (Fig. 3d: Y = +1). Die Volumenelemente, die sich in dieser Hinsicht in derselben Ebene wie die betrachteten Volumenelemente befinden (Fig. 3c: Y = 0), werden nicht in Betracht gezogen. Außerdem wird jedes der Volumenelemente im Maße des Kehrwerts seines Abstands vom betrachteten Volumenelement in Betracht gezogen. Für die Berechnung der Komponenten der Gradienten multipliziert man jedes Mal die in den Fig. 3b bis 3d angegebenen Koeffizienten mit den Werten der in den jeweiligen Volumenelementen enthaltenen physikalischen Informationen. Man führt anschließend in jeder Ebene eine Addition der gewichteten Beiträge jedes der herangezogenen Volumenelemente durch. Anschließend subtrahiert man den für die vordere Ebene erhaltenen Wert von dem für die hintere Ebene erhaltenen Wert. Die Differenz legt nach Normierung die Komponente des Gradienten fest. Auf dieselbe Weise geht man mit den beiden anderen Komponenten X und Z des Gradienten vor, so daß die Ausrichtung dieses Gradienten im dreidimensionalen Raum bestimmt wird.
  • Fig. 2 zeigt, daß der wahre Umriß 16 sich zwischen den Mittelpunkten der Volumenelemente hindurchschlängelt, die zu der Oberfläche des segmentierten Objekts gehören. Man muß nun daran denken, daß man es mit einer physikalischen Information zu tun hat. Die Information, über die die Segmentierung stattfindet, ist nicht eine physikalische Information, die sich an der Stelle des Übergangs von einem Medium in das andere plötzlich im untersuchten Körper ändert. Beispielsweise ist der Übergang von einem weichen Gewebe (im Falle des menschlichen Gehirns beispielsweise der Graumasse) zu einem anderen weichen Gewebe (der Weißmasse) nicht plötzlich. Im Fall einer Dichtemessung, sei es durch Röntgenstrahlen oder durch nukleare magnetische Resonanz, nähert man sich einer Definition der Oberfläche des segmentierten Objekts als einer Äquidensitätsfläche. Und an der Stelle, an der die Gradienten gemessen werden - in der Mitte der Volumenelemente -, befindet man sich selten auf der Äquidensitätsfläche, die einer Bezugsdichte entspricht, die dargestellt werden soll. Man ist zwar in der Lage die Volumenelemente (6 bis 9) zu zeigen, durch die diese Äquidensitätsfläche verläuft, man ist jedoch nicht in der Lage, mit Sicherheit die wahre Ausrichtung der Senkrechten auf diese Fläche zu errechnen. Man bringt lediglich eine Annäherung, die mit der Versetzung zwischen der Stellung der wahren Oberfläche und dem Ort verbunden ist, an den man schätzt, daß sie sich befindet (in der Mitte des Volumenelements).
  • Auf eine besonders auffallende Weise läßt sich auf einem anderen Profil 21, das beispielsweise an die Stelle des Profils 16 in Fig. 2 tritt, zeigen, daß die geometrische Abweichung zwischen zwei Äquidensitätsflächen, die anstelle von einer einzigen in Betracht gezogen werdend gleich der Höhe eines ganzen Volumenelements sein kann. Dies zeigt sich durch die Lage der Mittelpunkte der Volumenelemente 7 und 8 sehr weit entfernt von dem Verlauf 21 der wahren Oberfläche. Wenn die Äquidensitätskurven alle zueinander parallel wären, wäre die Erscheinung wenig sichtbar. Dies ist jedoch nicht der Fall. Die Wahl im einen Fall (Volumenelement 6 oder 7) einer Äquidensitätskurve und die Wahl in einem anderen Fall (8 oder 9) einer anderen Äquidensitätskurve kann dazu führen, daß an der Stelle des Bruchs, an der Stelle, die die Volumenelemente 7 und 8 voneinander trennt, eine plötzliche Änderung der Ausrichtung der sichtbaren Fläche auftritt, die jedem der betrachteten Volumenelemente zugeordnet ist. Die oben beschriebene Erscheinung tritt nicht so stark auf, erscheint aber dennoch. Immer noch kann sich ein Niveaulinienartefakt zeigen.
  • Um diesen Nachteil zu vermeiden, kam man auf die Idee, einen Mittelwert der Gradienten der Volumenelemente zu ermitteln, die in der Nähe der Oberfläche des segmentierten Volumens liegen. Beispielsweise betrachtet man nun auch die Volumenelemente 22 bis 25, die nicht zum segmentierten Objekt gehören, jedoch über den Volumenelementen 6 bis 9 liegen. Man errechnet auch für diese Volumenelemente die drei Komponenten des Gradienten ihrer physikalischen Information. Und anschließend führt man eine Gewichtung zwischen den Gradienten der Volumenelemente, die zum segmentierten Objekt gehören, und die Gradienten benachbarter Volumenelemente aus, die beispielsweise nicht zu ihm gehören, um die Komponenten der normalen auf die sichtbare Oberfläche zu bestimmen, die einem Volumenelement der Oberfläche des Objekts zugeordnet ist.
  • Diese Vorgehensweise hat mehrere Konsequenzen. Die erste Konsequenz ist die, daß die Änderungen der Ausrichtungen der Gradienten gedämpft werden. Man neutralisiert endgültig den störenden Effekt der Berechnung der Gradienten bei Volumenelementen, die auf verschiedenen Äquidensitätskurven liegen. Dies ist das angestrebte Ziel. Wenn es weiterhin einleuchtet, daß man alle Volumenelemente verwenden kann, die außerhalb gelegen sind, jedoch direkt mit dem segmentierten Objekt in Kontakt sind, so ist es auch verständlich, daß man die Gewichtung hätte vornehmen können, indem Volumenelemente verwendet werden, die sich im Inneren des segmentierten Volumens befinden und ebenfalls direkt in Kontakt mit den Volumenelementen sind, die die Oberfläche dieses segmentierten Volumens bilden. Beide Lösungen sind möglich.
  • Man kann die eine oder die andere dieser Lösungen wählen, in der Praxis und in der folgenden Beschreibung nimmt man jedoch eine Gewichtung der Gradienten der Volumenelemente der Oberfläche des segmentierten Objekts durch die Gradienten der Volumenelemente vor, die sich außerhalb dieses segmentierten Objekts befinden und direkt in Kontakt mit diesem sind. Fig. 4 zeigt unter denselben Bedingungen, wie sie für die Fig. 1a und 1b beschrieben wurden, was ein Beobachter sieht, der sich an der Stelle des Betrachters dieser Figur befindet. Man zeigt so, daß der Gradient des Volumenelements 6 durch den Gradient eines Volumenelements 22, das über ihm angeordnet ist, gewichtet werden müßte. Was das Volumenelement 8 anbelangt, so ist das Problem etwa komplizierter, da dieses Volumenelement zwei Facetten besitzt, die zur Oberfläche des segmentierten Objekts gehören. Es besitzt eine Facette, die in der Figur nach oben gerichtet ist, und eine Facette, die auf die rechte Seite diese Figur zu gerichtet ist. In einem noch allgemeineren Fall kann ein Volumenelement wie das Element 26 drei Facetten im Kontakt mit Volumenelementen haben, die nicht zum Volumen des segmentierten Objekts gehören. Theoretisch kann es sogar bis zu fünf haben. Dies ist auch der Fall bei einem Volumenelement 27, das sich links von der Erhebung 4 befindet. Dieses Element 27 besitzt jedoch die Besonderheit, daß von drei Facetten, die mit der äußeren Umgebung in Kontakt sind, nur zwei für den Beobachter sichtbar sind.
  • In der Erfindung nutzt man das Vorhandensein dieser Facetten aus. Einerseits gibt man jeder der äußeren Facetten der Volumenelemente der Oberfläche eine darstellende Einzelbildfläche im aufzubauenden Bild. Man kann insbesondere einen Beobachtungspunkt (das Auge des Betrachters der Figur) berücksichtigen, um in einem aufzubauenden Bild drei einander benachbarte Bildflächenelemente dem Volumenelement 26 zuzuteilen, da man drei seiner Facetten sieht. Die Art der Erscheinung der drei Facetten des Elements 26 ist durch eine doppelte Linie betont. Man kann auch zwei Bildflächenelemente für das Volumenelement 27 vorsehen, da man nur zwei seiner Facetten sieht. Man kann schließlich nur ein Bildflächenelement für das Volumenelement 6 vorsehen, da man nur eine seiner Facetten sieht. Diese Art dieser Berechnung ist bekannt und ist beispielsweise in "schnelle Visualisierung von abgetasteten Objekten" von Yves TROUSSET und Francis SCHMITT im Bericht der Tagungen des zweiten "Colloque image" Niza, April 1986, veröffentlicht. Die Originalität der Erfindung besteht darin, daß diese sichtbaren Facetten herangezogen werden, um im dargestellten Bild sichtbare Flächen für jede von ihnen vorzusehen und die Ausrichtung dieser sichtbaren Oberflächen dagegen vom Wert der Gradienten der Volumenelemente abhängen zu lassen, die gerade über diese Facetten aneinander anliegen.
  • So berechnet man für die Facette, die sich auf der Oberseite des Volumenelements 27 befindet, den Gradienten der physikalischen Information in diesem Element 27 sowie in einem Element 28, das über dem Element 27 liegt und an diesem über diese obere Facette anliegt. Für die vordere Facette des Volumenelements 27 zieht man ein Volumenelement 29 heran, das gerade über diese vordere Facette an diesem anliegt. Obwohl es nicht erforderlich wäre, da die hintere Facette in der Ansicht, die in der Richtung von Fig. 5 gezeigt ist, nicht sichtbar ist, kann man trotzdem die Ausrichtung einer der linken seitlichen Facette des Volumenelements 27 zugeordneten sichtbaren Fläche errechnen, indem man den Gradienten der physikalischen Information eines Volumenelements 30 ermittelt, das links vom Volumenelement 27 liegt.
  • Zusammenfassend werden im erfindungsgemäßen Verfahren folgende Operationen ausgeführt. Man segmentiert. Man berechnet die Gradienten der Volumenelemente, die zur Oberfläche des segmentierten Objekts gehören. Man errechnet ferner die Gradienten der Volumenelemente, die beispielsweise nicht zum segmentierten Objekt gehören, jedoch an den Volumenelementen, die die Oberfläche dieses segmentierten Objekts bilden, über wenigstens eine äußere (oder innere) Facette dieser Volumenelemente anliegen. Und schließlich führt man die Gewichtung der Gradienten von zwei aneinander anliegenden betrachteten Volumenelementen durch, indem man den gewichteten Wert der Anlagefacette zuordnet. Die Darstellungsoperationen sind anschließend bekannt. Man bestimmt eine Beleuchtungsrichtung 14, man ermittelt die Helligkeit, die von einer Facette ausgesendet wird, die eine bestimmte Ausrichtung besäße, wobei diese Ausrichtung durch den gewichteten Gradienten definiert wird. Und schließlich baut man das Bild der Ansicht auf. In diesem Bild liegen die Oberflächenelemente des Bilds gegenüber dem Beobachter an der Stelle der Facetten der für den Beobachter sichtbaren Volumenelemente.
  • In der Praxis kann die Berechnung des Gradienten einfacher vor sich gehen. Ausgehend vom segmentierten Objekt kann man von Anfang an durch eine bekannte Verarbeitung die Facetten kennen, die normalerweise auf den außerhalb des segmentierten Objekts befindlichen, nicht segmentierten Raum zu gerichtet sind. Unter diesen Bedingungen kann man direkt die Rechnung des Gradienten so ändern, daß man die Berechnung des gewichteten Gradienten nur in einem Mal durchführt. Betrachtet man noch einmal Fig. 3a und überträgt ihre Aussage auf Fig. 5a, so ergibt sich, daß die erste Reihe dieser Fig. 5a schematisch die Gewichtungen darstellt, die den dem Volumenelement 27 benachbarten Volumenelementen zuzuweisen sind, um die Komponente seines Gradienten in Y zu errechnen. Die zweite Reihe entspricht derselben Rechnung, die jedoch für das Volumenelement 29 durchgeführt wird, die an ihm über seine sichtbare obere Facette anliegt. In einer einfachen Gewichtung, in die jeder der Gradienten zur Hälfte eingeht, gilt, daß der Gradient der Facette gleich der halben Summe dieser beiden Gradienten ist. In den Quadraten stellt das Wurzelsymbol die Gewichtungen dar, die den physikalischen Informationen zugeordnet werden und die in den Fig. 3b bis 3d dargestellt sind. Die dritte Zeile von Fig. 5a zeigt schematisch die halbe Summe der der Facette zuzuordnenden Gradienten: Alle Volumenelemente müssen demselben Kombinationstyp unterliegen. Es ist nun möglich, im Rechner einen spezialisierten Operator vorzusehen, der diese Rechnung ausführt. Auf diese Weise spart man Zeit. Fig. 5b zeigt die Berechnung von Komponenten in X (oder Z) in Abhängigkeit von den betrachteten Volumenelementen 27 und 29. Die Symbole + oder - geben in Richtung der berechneten Komponente das Erscheinen der verschiedenen Volumenelementenebenen an: hinter oder vor dem betreffenden Volumenelement. Auch für diese Berechnungen kann ein anderer spezialisierter Operator in den Rechner einprogrammiert werden.
  • Was die eigentliche Darstellung anbelangt, so beschränkt man sich in der folgenden Beschreibung auf einen Effekt der Lichtzerstreuung durch die sichtbaren Facetten der Volumenelemente, die erfindungsgemäß die sichtbaren Oberflächen dieser Volumenelemente darstellen. Eine Facette zerstreut Licht in alle Richtungen auf gleiche Weise, diese Zerstreuung ist jedoch mehr oder weniger stark in Abhängigkeit von der Ausrichtung dieser Facette bezüglich der Richtung, aus der das Licht kommt (14). Diese Vereinfachung ermöglicht es, den Blickpunkt der Beobachtung des segmentierten Objekts bei der Berechnung der Helligkeit der Facette nicht zu berücksichtigen. Indem man davon ausgeht, daß diese Zerstreuungfunktion proportional zum Cosinus des Einfallswinkels der Beleuchtungsrichtung mit der Senkrechten zu den Facetten ist, nähert man sich schnell der Helligkeit dieser Facette, indem man das Skalarprodukt eines Einheitsvektors, der die Beleuchtungsrichtung darstellt, mit dem dieser Facette zugeordneten Gradienten errechnet. Die Berechnung der Skalarprodukte in einem Rechner ist bekannt.
  • Man könnte auch einen Effekt der Lichtreflektion betrachten, bei dem die Ausrichtung der Facette, die Richtung der Beleuchtung, aber auch die Stellung des Blickpunkts der Beobachtung eine Rolle spielen. Ein Auge, das sich an diesem Blickpunkt befindet, empfängt um so mehr von einer Facette kommendes reflektiertes Licht, je mehr sich die Senkrechte auf diese Facette einer Richtung nähert, die nahe der Winkelhalbierenden des Winkels ist, dem die Beobachtungsrichtung mit der Beleuchtungsrichtung bildet. Man kann auch einen Effekt der Nähe des Beobachters zum segmentierten Objekt berücksichtigen. Es ist nämlich bekannt, Bilder von Ansichten darzustellen, als würden sie aus einer Entfernung beobachtet, die gleich dem 1000fachen oder 1500fachen der Grundabmessung eines Volumenelements ist. Man versieht nun die Helligkeit, die für jede Facette oder, was auf dasselbe hinausläuft, für jede Einzelfläche des aufzubauenden Bilds errechnet wird, einen affinen Gewichtungskoeffizienten hinzu, d. h. der vom Abstand des Beobachters von jedem der dargestellten Volumenelemente abhängt. Es kann geschehen, daß das Skalarprodukt der Senkrechten mit der Beleuchtungsrichtung negativ ist. Das bedeutet, daß die Facette nicht durch die Beleuchtung beleuchtet werden dürfte, während diese Facette für den Betrachter sichtbar ist. Dies ist beispielsweise in Fig. 4 bei der für den Beobachter sichtbaren Front 31 der Fall, während diese von der Beleuchtung 14 nicht beleuchtet wird. Unter diesen Bedingungen kann man die Beleuchtung ein bißchen ändern, indem man sie nicht mehr nur aus der Richtung 14 kommen läßt, sondern ihr beispielsweise eine Umgebungslichtkomponente beigibt. Daraus ergibt sich, daß die jedem Oberflächenelement zugeteilte Helligkeit für jede Facette vom folgenden Typ sein kann:
  • (1-N·L)p/2,
  • worin N der Gradient (gewichtet oder nicht gewichtet), L die Beleuchtungsrichtung und p einen Koeffizient der Dämpfung der Härte von Kontrasteffekten darstellt, die bei einem solchen zu stark vereinfachten Zerstreuungsverlauf erzeugt werden. Die Präzision, die in der Berechnung der Senkrechten zur Oberfläche erreicht wird, gestattet es jedoch, zusätzlich zur Zerstreuungswirkung einen Reflexionseffekt zu verwenden und auf diese Weise durch die Wahl von Gewichtungsparametern die Erscheinung der visualisierten Materie zu ändern.

Claims (7)

1. Verfahren zur Sichtbarmachung von Ansichten eines Objektes (Figur Ia), das innerhalb eines digitalen Volumens zu unterscheiden ist, wobei dieses Volumen mit mindestens einer physikalischen Information beladene Volumenelemente (3) umfaßt, wobei das Verfahren die folgenden Schritte umfaßt:
- man segmentiert das digitale Volumen gemäß einem Segmentierungskriterium, das das Auswählen von Volumenelementen in Abhängigkeit von dem Wert der physikalischen Informationen zuläßt, mit denen sie beladen sind und so, daß man auf diese Weise aus diesem digitalen Volumen ein segmentiertes Objekt extrahiert,
- man ordnet jedem gewählten, an der Oberfläche des segmentierten Objektes liegenden Volumenelement eine sichtbare Oberfläche zu,
- man wertet den Beitrag (14) dieser sichtbaren Oberfläche der darzustellenden Ansicht aus,
- man bildet ein Leuchtbild aus den Oberflächenelementen unter Benutzung von Elementen, deren Orte im Bild die Orte im segmentierten der ausgewählten, an der Oberfläche des segmentierten Objektes liegenden Volumenelemente darstellen, und deren Helligkeiten die Beiträge der sichtbaren, diesen Volumenelementen zugeordneten Oberflächen darstellen, dadurch gekennzeichnet, daß
- als sichtbare Oberfläche man jedem ausgewählten, an der Oberfläche des segmentierten Objektes liegenden Volumenelement die Facetten dieses Elements bei der Berührung mit der inneren oder äußeren Umgebung der Oberfläche dieses segmentierten Objekts zuordnet, daß man den Beitrag jeder dieser Facetten der ausgewählten, und der Oberfläche es Objekts liegenden Volumenelemente in Abhängigkeit von der wahren unbezogenen Gradienten der physikalische Information am Ort der entsprechenden Volumenelemente auswertet, wobei dieser Gradient von der Richtung der Ausleuchtung der Facetten unabhängig ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß man jedem ausgewählten, an der Oberfläche des segmentierten Objektes liegenden Volumenelement als sichtbare Oberfläche die Gesamtheit der scheinbaren Facetten dieses Volumenelements zuordnet, die sonst keinem anderen Volumenelement des segmentierten Objekts gehören.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß man den Beitrag einer sichtbaren Oberfläche eines Volumenelements in Abhängigkeit von der wahren unbezogenen Gradienten der physikalischen Information am Ort und in der Umgebung dieses Volumenelements auswertet.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß bei der Auszuwertung man den Beitrag jeder der scheinbaren Facetten in Abhängigkeit von einer Messung der Ausrichtung dieser scheinbaren Facetten mißt und daß man die Ausrichtung dieser scheinbaren Facetten auswertet, indem man eine Senkrechte zu diesen Facetten auf Basis der Werte der Gradienten des physikalischen Informationen ausrechnet, die in die beidseits dieser Facette liegenden Volumenelemente geladen sind.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß man die Ausrichtung dieser Facetten, mißt, indem man eine Senkrechte zu diesen Facetten in Abhängigkeit von der physikalischen Informationen ausrechnet,. die in die beidseits dieser Facetten liegenden Volumenelemente geladen sind.
6. Verfahren nach einem der vorhergehenden Ansprüche 1 bis 5, dadurch gekennzeichnet, daß für die Angleichung der scheinbaren Facetten man die Gestalt des segmentierten Objekts (27) sowie die Position eines Sichtpunkts (27) berücksichtigt, vom dem man annimmt, daß von dort aus man das Objekt sieht.
7. Verfahren nach einem der vorhergehenden Ansprüche 1 bis 5, dadurch gekennzeichnet, daß man für jede scheinbare Facette den Ort eines Oberflächenelements berechnet, das im Bild und in der Helligkeit dieses dem Beitrag dieser Facette entsprechenden Oberflächenelements ihm entsprechen.
DE8888903282T 1987-04-17 1988-04-12 Verfahren zur wiedergabe von sichtbildern eines objektes. Expired - Lifetime DE3874889T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR8705487A FR2614163B1 (fr) 1987-04-17 1987-04-17 Procede de representation d'images de vues d'un objet
PCT/FR1988/000177 WO1988008169A1 (fr) 1987-04-17 1988-04-12 Procede de representation d'images de vues d'un objet

Publications (2)

Publication Number Publication Date
DE3874889D1 DE3874889D1 (de) 1992-10-29
DE3874889T2 true DE3874889T2 (de) 1993-03-11

Family

ID=9350242

Family Applications (1)

Application Number Title Priority Date Filing Date
DE8888903282T Expired - Lifetime DE3874889T2 (de) 1987-04-17 1988-04-12 Verfahren zur wiedergabe von sichtbildern eines objektes.

Country Status (6)

Country Link
US (1) US5245538A (de)
EP (1) EP0348434B1 (de)
JP (1) JP3049289B2 (de)
DE (1) DE3874889T2 (de)
FR (1) FR2614163B1 (de)
WO (1) WO1988008169A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5360811A (en) * 1990-03-13 1994-11-01 Hoechst-Roussel Pharmaceuticals Incorporated 1-alkyl-, 1-alkenyl-, and 1-alkynylaryl-2-amino-1,3-propanediols and related compounds as anti-inflammatory agents
JP2785636B2 (ja) * 1993-02-25 1998-08-13 株式会社エス.エス.ビー 生体組織多次元可視装置
US5368033A (en) * 1993-04-20 1994-11-29 North American Philips Corporation Magnetic resonance angiography method and apparatus employing an integration projection
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US7486811B2 (en) 1996-09-16 2009-02-03 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US6115048A (en) * 1997-01-21 2000-09-05 General Electric Company Fast method of creating 3D surfaces by `stretching cubes`
US8682045B2 (en) * 1997-02-25 2014-03-25 Wake Forest University Health Sciences Virtual endoscopy with improved image segmentation and lesion detection
US6130671A (en) * 1997-11-26 2000-10-10 Vital Images, Inc. Volume rendering lighting using dot product methodology
US7356367B2 (en) * 2000-06-06 2008-04-08 The Research Foundation Of State University Of New York Computer aided treatment planning and visualization with image registration and fusion
US7574024B2 (en) 2000-10-02 2009-08-11 The Research Foundation Of State University Of New York Centerline and tree branch skeleton determination for virtual objects
US6690820B2 (en) * 2001-01-31 2004-02-10 Magic Earth, Inc. System and method for analyzing and imaging and enhanced three-dimensional volume data set using one or more attributes
US7630750B2 (en) * 2001-02-05 2009-12-08 The Research Foundation For The State University Of New York Computer aided treatment planning
US7324104B1 (en) 2001-09-14 2008-01-29 The Research Foundation Of State University Of New York Method of centerline generation in virtual objects
US7596256B1 (en) 2001-09-14 2009-09-29 The Research Foundation For The State University Of New York Computer assisted detection of lesions in volumetric medical images
US7671342B2 (en) * 2005-01-11 2010-03-02 Siemens Medical Solutions Usa, Inc. Multi-layer detector and method for imaging
WO2007064980A2 (en) * 2005-11-30 2007-06-07 The Research Foundation Of State University Of New York Electronic colon cleansing method for virtual colonoscopy
WO2007064981A2 (en) * 2005-11-30 2007-06-07 The Research Foundation Of State University Of New York Reducing false positives of polyp in cad
BR112012014173A2 (pt) 2009-12-15 2016-05-17 Koninkl Philips Electronics Nv método e compensador de dados

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4737921A (en) * 1985-06-03 1988-04-12 Dynamic Digital Displays, Inc. Three dimensional medical image display system
US4729098A (en) * 1985-06-05 1988-03-01 General Electric Company System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body
US4866612A (en) * 1986-03-05 1989-09-12 Hitachi Medical Corporation Imaging system including means to provide a display image with shadows and three dimensional perspectives by a combination of voxel and surface method
US4751643A (en) * 1986-08-04 1988-06-14 General Electric Company Method and apparatus for determining connected substructures within a body
US4907152A (en) * 1986-09-25 1990-03-06 The Boeing Company Method of improving CT resolution
US4821210A (en) * 1987-04-02 1989-04-11 General Electric Co. Fast display of three-dimensional images
FR2613509B1 (fr) * 1987-04-03 1989-06-09 Thomson Cgr Procede de calcul et de representation d'images de vues d'un objet

Also Published As

Publication number Publication date
JP3049289B2 (ja) 2000-06-05
WO1988008169A1 (fr) 1988-10-20
FR2614163A1 (fr) 1988-10-21
FR2614163B1 (fr) 1989-06-09
US5245538A (en) 1993-09-14
DE3874889D1 (de) 1992-10-29
EP0348434A1 (de) 1990-01-03
EP0348434B1 (de) 1992-09-23
JPH03500695A (ja) 1991-02-14

Similar Documents

Publication Publication Date Title
DE3874889T2 (de) Verfahren zur wiedergabe von sichtbildern eines objektes.
DE3872031T2 (de) Verfahren zum berechnen und zur wiedergabe von sichtbildern eines objektes.
DE69312257T2 (de) Strahlungsfelderkennungsverfahren
DE69429743T2 (de) Verfahren und Gerät zur Bestimmung einer Kontur in einem durch eine Dichteverteilung gekennzeichneten Raum
DE69822590T2 (de) System zur Flächendarstellung mit volumetrischen Abstandskarten
DE3789650T2 (de) Verfahren und System zur Festkörpermodellierung.
DE69425594T2 (de) Rechnergestützte Erkennung von Mikroverkalkungen in der Mammographie
DE69635906T2 (de) Anatomisches visualisierungs- und messsystem
DE68928979T2 (de) System und Verfahren zur Anzeige von windschiefen Schnittebenen im Innern eines massiven Körpers
DE69819557T2 (de) Volumendarstellungsleuchten mit punktkodemethodologie
DE102006009255B4 (de) Bildverarbeitungsverfahren und Bildverarbeitungsgerät
DE3650169T2 (de) Anlage und Verfahren zur Anzeige von im Inneren eines Festkörpers eingeschlossenen Oberflächenstrukturen.
DE69916450T2 (de) Verfahren zum suchen von bildern, basierend auf einer invarianten indizierung der bilder
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE69917829T2 (de) Bildverarbeitungsverfahren mit multidimensionalen Bildsegmentationsstufen und medizinische Vorrichtung die diese verwendet
DE102008050049B4 (de) Verfahren zur Bestimmung einer die Objektgrenze eines Objekts in einem digitalen 3D-Datensatz annähernden 3D-Oberfläche
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE19955690A1 (de) System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation
DE102007026803A1 (de) Verfahren zur Verarbeitung von radiologischen Bildern bei der Tomosynthese zur Erfassung radiologischer Auffälligkeiten
DE102005036875A1 (de) System und Verfahren zur 3-D Visualisierung der Lungenperfusion oder -dichte und ihre statistische Auswertung
DE102012107529A1 (de) Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes
DE60306511T2 (de) Medizinisches darstellungssystem und bildverarbeitungsverfahren zur visualisierung von gefalteten anatomischen bereichen von objektoberflächen
DE102011076930A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Volumendaten eines Objektes
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
EP1882232B1 (de) Verfahren und vorrichtung zum bestimmen von materialgrenzen eines prüfobjekts

Legal Events

Date Code Title Description
8364 No opposition during term of opposition