DE3855040T2 - Bildverarbeitungsverfahren und -gerät - Google Patents
Bildverarbeitungsverfahren und -gerätInfo
- Publication number
- DE3855040T2 DE3855040T2 DE3855040T DE3855040T DE3855040T2 DE 3855040 T2 DE3855040 T2 DE 3855040T2 DE 3855040 T DE3855040 T DE 3855040T DE 3855040 T DE3855040 T DE 3855040T DE 3855040 T2 DE3855040 T2 DE 3855040T2
- Authority
- DE
- Germany
- Prior art keywords
- interest
- boundary
- region
- viewing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title description 3
- 238000000034 method Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 36
- 238000002591 computed tomography Methods 0.000 claims description 17
- 238000005520 cutting process Methods 0.000 claims description 17
- 230000000704 physical effect Effects 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000013213 extrapolation Methods 0.000 claims 4
- 238000013507 mapping Methods 0.000 claims 1
- 238000005192 partition Methods 0.000 claims 1
- 238000000638 solvent extraction Methods 0.000 claims 1
- 239000010410 layer Substances 0.000 description 32
- 230000006870 function Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 238000002595 magnetic resonance imaging Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000011835 investigation Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- KUFRQPKVAWMTJO-LMZWQJSESA-N alvespimycin Chemical compound N1C(=O)\C(C)=C\C=C/[C@H](OC)[C@@H](OC(N)=O)\C(C)=C\[C@H](C)[C@@H](O)[C@@H](OC)C[C@H](C)CC2=C(NCCN(C)C)C(=O)C=C1C2=O KUFRQPKVAWMTJO-LMZWQJSESA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 210000004705 lumbosacral region Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Analysis (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Algebra (AREA)
- Computer Graphics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Image Processing (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Input (AREA)
- Image Analysis (AREA)
Description
- Die Erfindung betrifft Bildverarbeitungsverfahren und -geräte.
- Insbesondere betrifft die Erfindung ein solches Verfahren und eine solche Vorrichtung, die dreidimensionale Bilder erzeugen.
- Die Erfindung ist auf Computertomographie-Bildverarbeitungsverfahren und -geräte anwendbar und wird unter spezieller Bezugnahme hierauf erläutert, obgleich zu beachten ist, daß die Erfindung auch die Anwendung auf andere Abbildungsverfahren und -geräte wie Magnetresonanz- Bildverarbeitungsverfahren und -geräte beinhaltet.
- Die Computertomographie (CT) und die Magnetresonanz- Bildverarbeitung (MRI von magnetic resonance imaging) ermöglichen die Erzeugung von Querschnittsdaten der menschlichen Anatomie. Die durch die CT oder MRI gewonnenen Daten werden zusammengestellt bzw. assembliert, und es wird entsprechend der von einem speziellen Abschnitt der Daten gewonnenen Daten eine Grauskala zugewiesen.
- Da jedoch Organe in der Realität dreidimensional sind, muß eine Serie von Schichten oder Abtastungen aufgenommen werden, und es ist eine mentale Integration erforderlich, um die tatsächliche Anatomie sichtbar zu machen. Es besteht die Notwendigkeit, eine Folge derartiger rekonstruierter planarer Bilder in ein vertrauteres Formal umzusetzen. Die Art der Bildreformatierung hilft den Ärzten bei ihrer im Kopf auszuführenden mentalen Integration. Sie unterstützt auch das Auffüllen der Kommunikationslücke zwischen Radiologen, überweisenden Ärzten, Mitarbeitern und deren Patienten. Aus dieser Art von Bildverarbeitung resultiert eine bessere Planung der medizinischen Behandlung oder chirurgischen Operationen.
- Im letzten Jahrzehnt sind zahlreiche Verfahren zur Reformatierung von Querschnittsbildern und zu deren Präsentierung als dreidimensionales Bild aus irgendeiner beliebigen Betrachtung vorgeschlagen worden. Insbesondere sind fünf verschiedene Lösungswege ausprobiert und untersucht worden. Diese umfassen die Cuberille-Lösung, die Octree-Lösung, die Strahlabtast-Lösung (Ray-Tracing Lösung), die Triangulations-Lösung und die Contour-Lösung. Jede dieser Lösungen beinhaltet jedoch ihr eigentümliche Nachteile.
- Damit ein dreidimensionaler Bildverarbeitungsprozessor in der Praxis nutzbar wird, muß die Systemantwort extrem schnell sein und idealerweise weniger als eine Sekunde pro Bild bzw. Frame betragen, wenn sie nicht Echtzeitverarbeitung entsprechen muß. In den bekannten Systemen konnte eine Implementierung mit derartigen Geschwindigkeiten nur unter der Verwendung hierfür speziell vorgesehener Hardware erreicht werden. Eine derartige spezielle zweckbezogene Hardware ist außerordentlich teuer und ist generell nicht kosteneffektiv. Eine solche speziell zugewiesene Hardware ist n&cht für andere Prozeßoperationen außer für ihre spezielle dreidimensionale Reformatierung verwendbar.
- Ein weiterer Nachteil des Standes der Technik findet sich speziell in der Cuberille-Lösung. In derartigen Systemen ist die Vorverarbeitung von ursprünglichen Bilddaten erforderlich, da das zugrundeliegende Modell dieser Lösung voraussetzt, daß das dreidimensionale Objekt aus Hexaedern oder Kubussen derselben Abmessung aufgebaut ist. Da in der Tat die Eingangsdaten eines CT oder MRI Scanners typischerweise nicht kubisch sind, da die Distanz zwischen aufeinanderfolgenden Schichten gemeinhin sehr viel größer als die Pixelschicht oder die rekonstruierten Bilder sind, werden Auflösung und Genauigkeit verwirkt.
- Die vorliegende Erfindung beabsichtigt die Schaffung eines neuen und verbesserten Bildverarbeitungsverfahrens und -geräts, die sämtliche der oben erwähnten Probleme und auch weitere überwinden, und sieht ein System vor, das dreidimensionale Bilder erzeugt und einfach, ökonomisch und auf Prozessoreinrichtungen für einen allgemeinen Zweck einfach adaptierbar ist.
- Gemäß einem ersten Aspekt der Erfindung wird ein Bildverarbeitungsgerät vorgesehen, das ein dreidimensionales Bild einer Probe erzeugt und aufweist: eine Akquisitionseinrichtung zur Erfassung von Schichtdaten, die eine physikalische Eigenschaft mehrerer im wesentlichen planarer Regionen der Probe anzeigen, wobei jede planare Region in mehrere Teilregionen unterteilt ist, die durch für den diese betreffenden Anteil von Schichtdaten repräsentative Teilregiondaten repräsentiert sind, d.h. durch Teilregiondaten, die für den Anteil der Schichtdaten repräsentativ sind, welcher nur diese betrifft bzw. eindeutig diese Teilregionen wiedergibt; eine Einrichtung, die im wesentlichen sämtlichen Teilregionen zumindest einer der mehreren im wesentlichen planarer Schichten einen Betrachtungswert oder Sichtwert zuordnet, wobei der Betrachtungswert entsprechend der Teilregiondaten hierfür (die Teilregionen) zugewiesen wird; eine Einrichtung, die zumindest eine erste der planaren Regionen zur Bildung einer interessierenden Region auf- oder verteilt bzw. portioniert oder zumißt; eine Einrichtung, die eine interessierende Abgrenzung innerhalb der interessierenden Region definiert; eine Einrichtung, die eine Position einer zugeordneten Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion der interessierenden Abgrenzung definiert; eine Einrichtung, die Abgrenzungsbilddaten, die repräsentativ für im wesentlichen sämtliche Abgrenzungsteilregionen von Interesse sind, als eine Funktion von diese betreffenden Teilregiondaten zusammenstellt oder assembliert, d.h. als eine Funktion von Teilregiondaten, die nur diese betreffen oder eindeutig hierfür (die interessierenden Abgrenzungsteilregionen) sind; und eine Einrichtung zur Projektion der Bilddaten auf die Betrachtungsfläche, dadurch gekennzeichnet, daß das Gerät ferner eine Skalierungseinrichtung umfaßt, die die Betrachtungswerte zumindest eines Teils der Abgrenzungsbilddaten entsprechend der Verschiebung oder Versetzung der Abgrenzungsteilregionen von der Betrachtungsfläche skaliert.
- Gemäß einem zweiten Aspekt der Erfindung ist ein Verfahren zum Erzeugen eines dreidimensionalen Bildes einer Probe vorgesehen, aufweisend die Schritte: Erfassen von Schichtdaten, die eine physikalische Eigenschaft mehrerer im wesentlichen planarer Regionen der Probe anzeigen, wobei jede planare Region in mehrere Teilregionen unterteilt ist, die durch Teilregiondaten repräsentiert sind, welche durch für den diese betreffenden Anteil von Schichtdaten repräsentative Teilregiondaten repräsentiert sind; Zuweisen eines Betrachtungswerts zu im wesentlichen sämtlichen Teilregionen zumindest einer der mehreren planaren Schichten, wobei der Betrachtungswert oder Sichtwert entsprechend den Teilregiondaten hierfür zugewiesen wird; Aufteilen zumindest einer ersten der planaren Regionen zur Bildung einer interessierenden Region; Definieren einer interessierenden Abgrenzung innerhalb der interessierenden Region; Definieren einer Position einer zugeordneten Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion der interessierenden Abgrenzung; Zusammenstellen oder Assemblieren von Teilregionbilddaten, die im wesentlichen für sämtliche Teilregionen der interessierenden Abgrenzung repräsentativ sind, als eine Funktion von nur diese betreffende Teilregiondaten; Projizieren von Bilddaten auf die Betrachtungsoberfläche; und gekennzeichnet durch Skalieren der Betrachtungswerte zumindest eines Teils der Abgrenzungsbilddaten entsprechend der Verschiebung oder Versetzung der Abgrenzungsteilregionen von der Betrachtungsfläche.
- Ein Vorteil der vorliegenden Erfindung besteht darin, daß ein Verfahren und ein Gerät angegeben werden, in welchen ein dreidimensionales Bild aus einer Serie von Schichtabtastungen erzeugt wird, die mit konventionellen Abbildungsgeräten oder Bildverarbeitungsgeräten gewinnbar sind.
- Ein weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und eines Geräts zum Erzeugen von dreidimensionalen Bildern mit gesteigerter Wiedergabetreue und Auflösung.
- Ein weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und eines Geräts zur Erzeugung dreidimensionaler Abbildungen, welche keine spezialisierte Hardware erfordern.
- Ein weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und Geräts, mit denen die Oberflächendichte eines dreidimensionalen Bildes sichtbar gemacht werden kann.
- Ein noch weiterer Vorteil der vorliegenden Erfindung besteht in der Bereitstellung eines Verfahrens und Geräts, mit denen Querschnitts-Schnitte eines dreidimensionalen Bildes selektiert und betrachtet werden können.
- Die US- A-4 674 046 offenbart ein Abtastplanungsverfahren zur Gewinnung eines Tomographiebildes in einem Computertomographiesystem. Es werden Projektionsdaten mehrerer paralleler Schichten durch eine Computertomographie-Abtastvorrichtung akquiriert. Die Tomographiebilder werden entsprechend den akquirierten bzw. erfaßten Daten interpoliert, um hierdurch dreidimensionale Bilddaten vorzusehen, und ein dreidimensionales Objektbild entsprechend dieser dreidimensionalen Daten wird zur Anzeige gebracht. Gemäß manuell eingegebener Koordinateninformation werden der Betrachtungspunkt für das Objektbild die Orientierung des Objektbildes geändert. Entsprechend der Koordinateninformation wird ein Schichtpositionsbild, das die designierte Position und den Winkel der Schicht repräsentiert, dreidimensional dargestellt. Die Computertomographie-Abtastvorrichtung wird entsprechend der Position und dem Winkel des Schichtpositionsbildes bezüglich des Objektbildes gesteuert.
- Die JP-A-59 060 680 offenbart die Abbildung oder Bildverarbeitung eines dreidimensionalen Objekts, wobei die betrachtete Oberfläche ein zweidimensionaler Querschnitt des dreidimensionalen Bildes ist. Ein zu betrachtender gewünschter Schnitt des Bildes wird selektiert, indem ein Joy-Stick bei Betrachtung eines Fernsehmonitors betätigt wird. Auf diese Weise wird der gewünschte Querschnitt des dreidimensionalen Objekts vor der Betrachtung selektiert, oder es wird Schicht um Schicht des Bildes weggeschnitten, bis das gewünschte Schnittbild sichtbar wird. Ein dreidimensionales Bild wird dann durch Aufeinanderschichten mehrerer Tomographieschichten gebildet, jedoch wird nur ein zweidimensionales Querschnittsbild dargestellt.
- Ein Verfahren und ein Gerät gemäß der Erfindung werden nun beispielhalber unter Bezugnahme auf die beiliegenden Zeichnungen erläutert, in denen:
- FIG. 1 ein Blockschaltbild des Geräts ist;
- FIG. 2 eine schematische Darstellung ist, die ein dreidimensionales Bild zeigt, das durch das Gerät erzeugt worden ist;
- FIG. 3 ein segmentiertes Objekt und dessen Projektion auf eine Betrachtungsoberfläche zeigt;
- FIG. 4 ein Schema für eine dreidimensionale Bilddatenprojektion auf einen Betrachtungsbereich darstellt;
- FIG. 5 ein Flußdiagramm zur Erleichterung der Erzeugung der dreidimensionalen Abbildung ist;
- FIG. 6 ein Flußdiagramm für Betrachtungsoperationen des Geräts ist;
- FIG. 7 ein Flußdiagramm zur Verdeutlichung einer Erweiterung des Verfahrens und Geräts ist, die es gestattet, Oberflächendichte-Information auf dem erzeugten dreidimensionalen Bild darzustellen;
- FIG. 8 ein Fortsetzungs-Flußdiagramm der FIG. 7 ist;
- FIG. 9 ein Probenbild zum Schneiden und Betrachten unter Verwendung des Geräts zeigt;
- FIG. 10 eine Prozedur zum Schneiden eines Bildes unter Verwendung des Geräts zeigt;
- FIG. 11 ein Flußdiagramm für den Schneidvorgang unter Verwendung des Geräts ist; und
- FIG. 12 einen alternativen Schneidvorgang zu dem an Hand FIG. 11 Erläuterten zeigt.
- In der Fig. 1 ist ein Blockschaltbild mit einer schematischen Darstellung eines Diagnose-Bildverarbeitungsgeräts gezeigt, welches eine dreidimensionale Repräsentation einer Probe liefert. Eine Akquisitionseinrichtung, die Schichtdaten (sogenannte Slice-Daten) A akquiriert bzw. erfaßt, ist interfacemäßig mit einer Datenprozessor/ Steuerschaltung B verbunden. Wie dargestellt, umfaßt die Akquisitionseinrichtung A einen CT-Scanner und wird speziell mit Bezug hierauf erläutert. Es ist jedoch zu beachten, daß ähnliche Schichtdaten auch ohne weiteres durch irgendeine andere geeignete Schichtabbildungsvorrichtung wie beispielsweise eine MRI-Vorrichtung erfaßbar sind.
- Der CT-Scanner umfaßt eine Röntgenquelle 10, die ein fächerförmiges Röntgenstrahlbündel durch einen Abbildungskreis 12 auf eine Detektoranordnung 14 projiziert. Es sind mehrere im wesentlichen paralleler Scheiben oder Schichten durch inkrementelles Bewegen eines Objekts durch den Abbildungskreis 12 zwischen aufeinanderfolgenden Abtastvorgängen mit Hilde von Einrichtungen wie z.B. dem dargestellten Zahnradgetriebe 18 gewinnbar. Ein Frozessor 22 ist interfacemäßig an eine Röntgenröhrensteuerschaltung 24 angeschlossen, die eine Beschleunigungs/Abbrems-Steuerung einer rotierenden Anode der Röntgenröhre 10 sowie eine Steuerung der Erzeugung des Röntgenstrahlfächers erleichtert. Ein Feldrechner (sogenannter Array-Prozessor) 26 arbeitet unter der Steuerung eines in einer Speichereinrichtung 28 gespeicherten Programms. Der Feldrechner arbeitet in Verbindung mit dem Prozessor 22 und unter einer weiter unten dargelegten Programmierung. Die Verwendung eines Feldrechners ist für eine schnelle Verarbeitung der dreidimensionalen Bilddaten des vorliegenden Systems von Vorteil.
- Die Schichtdaten werden von der Akquisitionseinrichtung A über eine Datenakquisitionsschaltung 30 erfaßt. Vom Feldrechner 22 erzeugte Bilder werden durch die Bildrekonstruktionsschaltung 32 rekonstruiert. Ferner ermöglicht ein Bedienungsfeld 20 den Eingriff eines Menschen in bzw. den Dialog mit dem Prozessor 22. Schließlich gestattet eine Display-Einrichtung 34 die Betrachtung einer resultierenden Abbildung.
- Im bevorzugten Ausführungsbeispiel umfaßt der Feldrechner 26 drei Prozessorelemente zur Erleichterung einer sehr schnellen Berechnung. Es ist jedoch zu beachten, daß andere Verarbeitungseinheiten adäquat funktionieren werden, wenn die zu verarbeitenden Bilder gemäß der Lehre des vorliegenden Systems verarbeitet werden.
- Der Prozessor nimmt einen Satz Bilder aufeinanderfolgender oder fortlaufender Schichten eines dreidimensionalen Objekts auf, die durch die Akquisitionseinrichtung A erzeugt werden, und liefert räumlich codierte Schichtdaten, die eine physikalische Eigenschaft hiervon anzeigen. Ferner ist eine Einrichtung vorgesehen, die einen Betrachtungswert oder Sichtwert (sogenannten Viewing-Wert) im wesentlichen sämtlichen Teilregionen zumindest einer der im wesentlichen planaren Schichten zuweist. Dieser Betrachtungswert ist zweckmäßigerweise ein Grauskalenwert. Diese Bilder fortlaufender Schichten werden in ein Format umgesetzt, das ähnlich dem eines konventionellen CT- oder MRI-Scanners ist.
- Die gegenstandsmäßige Prozedur zur Erzeugung der dreidimensionalen Abbildungen gestaltet eine solche Erzeugung als insbesondere anpaßbar und anwendbar auf konventionelle Prozessoren, wie den gegenstandsmäßigen Feldrechner. Die dreidimensionalen untersuchten Objekte wie Knochen oder Organe erstrecken sich gewöhnlich durch zahlreiche aufeinanderfolgende Querschnitts-Bildschichten. Beispielsweise wäre ein Satz Querschnitts-CT-Abbildungen erforderlich, um die lumbale Wirbelsäule zu untersuchen, da sich die Wirbelsäule über eine Schichtdicke hinaus erstreckt. Um das dreidimensionale Objekt effizient aus einer Schicht zu extrahieren, wird zu Anfang eine dreidimensionale Box ausgewählt, die groß genug ist, um das der Untersuchung unterzogene dreidimensionale Objekt einzuschließen. Diese dreidimensionale Box, die hier als die interessierende Box ("BOI") bezeichnet wird, ist kleiner als ein Gesamtvolumen, welches durch einen Schichtsatz repräsentiert wird, reduziert die zur Verarbeitung erforderliche Gesamtinformation und reduziert damit auch die Verarbeitungszeit. Die BOI funktioniert so, daß sie jede Bildschicht in eine zweidimensionale Region von dieser aufteilt bzw. portioniert. Jede Region, die als interessierende Region oder Region von Interesse bezeichnet wird ("ROI"), setzt sich wiederum aus mehreren Teilregionen zusammen, die durch Daten repräsentiert werden, welche von der Datenakquisitionseinrichtung geliefert werden. Die ROI wird vorzugsweise aus einem einzelnen Schichtbild selektiert und aus praktischen Gründen auffolgende Schichten projiziert oder extrapoliert. Es ist jedoch zu beachten, daß in bestimmten Situationen es vorzuziehen ist, eine ROI aus zwei oder mehr Regionen zu selektieren, um hierdurch ein bestimmtes Volumen einzuschließen. Beispielsweise könnte eine erste ROI selektiert werden, die einen ersten Satz Dimensionen aufweist, und es könnte eine zweite ROI mit einem zweiten Satz Dimensionen ausgewählt werden, welche größer oder geringer als die des ersten sind, wobei die dazwischenliegenden Schichten funktionell mit den Dimensionen der beiden Dimensionssätze in Beziehung gesetzt werden. Für die meisten Zwecke ist jedoch eine einzelne ROI mit einem gegebenen Satz Dimensionen adäquat, die auffolgende Schichten extrapoliert oder projiziert werden.
- Nach Definition einer interessierenden Region wird hieraus ein Gegenstand oder eine interessierende Grenze oder Umgrenzung eines Gegenstandes selektiert. Wiederum wird ein solcher Gegenstand zweckmäßigerweise aus einer einzelnen ROI von einer einzelnen Schicht selektiert und auffolgende ROI's der interessierenden Box projiziert. In speziellen Situationen ist jedoch zu beachten, daß die interessierende Grenze auch von zwei oder mehr interessierenden Regionen selektiert werden könnte.
- Die Selektion der interessierenden Grenze oder Abgrenzung kann beispielsweise durch eine manuelle Selektion an Hand eines Displays erfolgen, wie beispielsweise das Bewegen eines Cursors auf dieser Abgrenzung oder durch Isolieren einer speziellen Abgrenzung mit einem vorgegebenen Grauskalenwert. Im bevorzugten Ausführungsbeispiel wird eine Kombination von beidem implementiert. Die interessierende Region wird zu Anfang als ein planares Bild erzeugt. Ein selektierter Bereich von Grauskalen (Werten) wird dieser interessierenden Region zugeordnet, und nur diejenigen Bereiche, die in diesen Bereich hineinfallen, werden beleuchtet. Eine Bedienungsperson oder ein Techniker selektiert dann über das Bedienungsfeld 20 (FIG. 1) diejenigen Oberflächen oder Abgrenzungen innerhalb dieses Bereiches, die heranzuziehen sind. Diese werden dann wiederum auffolgende Regionen der interessierenden Box projiziert.
- In FIG. 2 ist ein Probengegenstand in einer interessierenden Box 37 dargestellt, die wiederum aus aufeinanderfolgenden Schichten zusammengesetzt ist. Der Gegenstand oder die Probe 34 ist in seiner Gesamtheit durch zwei Schichten sektioniert. Die interessierenden Regionen 36, 38 werden aus jeder Schicht selektiert. Jede interessierende Region 36, 38 selbst umfaßt Teilregiondaten 40, die als Bildelement oder Pixel bezeichnet werden können. Das Pixel wird deshalb so genannt, weil es dazu verwendet wird, ein darauffolgendes Bild dadurch zu erzeugen, daß ihm ein eindeutiger, d.h. ihn betreffender individueller Betrachtungswert oder Grauskalenwert zugewiesen wird, welcher eine Funktion der physikalischen Eigenschaft dieses speziellen Elementes ist, wie es vom Schichtbildverarbeitungsgerät oder Schichtabbildungsgerät aufgeklaubt oder zusammengetragen ist.
- Wenn die Pixel 40 von jeder Region von Interesse 36, 38 derart plaziert sind, ist ein Volumenelement ("VOXEL") definierbar, das eine Volumeneigenschaft der Gegenstandsprobe anzeigt.
- Generell muß ein der Untersuchung unterzogener Gegenstand von der dreidimensionalen ihn einschließenden Box weiterer Verarbeitung unterzogen werden. In der vorliegenden Erfindung wird diese Verarbeitung mit Segmentation bezeichnet. Die Segmentation besteht aus zahlreichen Computergraphik- und Bildverarbeitungstechniken, die im Verbund genutzt werden. Diese Techniken umfassen eine Schwellwertbildung, eine Konturgebung und ein Bereichs- oder Regionswachstum. Der Segmentationsprozeß ermöglicht, daß die Bildverarbeitung auf einem Standardprozessor bewerkstelligt werden kann. Bei der Segmentation wird, sobald das interessierende Objekt aus der dreidimensionalen Box in der oben verdeutlichten Weise extrahiert worden ist, dieses Objekt in einer knappen, prägnanten Weise repräsentiert. Im vorliegenden System wird die Abtastzeilen-Repräsentationstechnik implementiert. In dieser Technik wird ein Gegenstand oder Objekt durch einen Satz Segmente repräsentiert, die das Objektvolumen vollständig füllen. Jedes Segment ist wiederum durch zwei Endpunkte, die Schichtnummer, in die das Segment hineingehört, und die Reihennummer des Segments innerhalb der Schicht repräsentiert. Wendet man sich speziell FIG. 2B zu, ist ersichtlich, daß die Bildung zweier derartiger Segmente dort verdeutlicht ist. Das Segment 46 wird aus den Endpunkten (Pixeln) 48, 50 gebildet, während das Segment 56 aus den Endpunkten 58, 60 gebildet wird.
- Gemäß FIG. 3 ist das gegenwärtig beschriebene dreidimensionale Reformatierungsverfahren imstande, jeweilige perspektivische dreidimensionale Bilder eines Objektes 66 in einer beliebigen gegebenen Betrachtungsrichtung zu erzeugen. Jede Sicht- oder Betrachtungsrichtung ist mit einer rechtwinkligen oder quadratischen Betrachtungsoberfläche, wie die durch 68 angedeutete, verknüpft, auf der entsprechende perspektivische dreidimensionale Bilder erzeugt werden. Dieses Rechteck oder die Betrachtungsfläche wird deshalb als Bildschirm (Screen) bezeichnet, weil das erzeugte dreidimensionale Bild dadurch betrachtet wird, daß es auf eine zweidimensionale Betrachtungsfläche verschoben wird, wie diejenige, die in der Display-Konsole 34 (FIG. 1) ausgeführt ist.
- Eine perspektivische dreidimensionale Ansicht eines dreidimensionalen Objekts kann so betrachtet werden, als wäre sie aus orthogonalen Projektionen auf den Schirm von Punkten auf der Oberfläche des Objekts auf diesem Schirm zusammengesetzt. Um einen Tiefen-Cue-Effekt bei der Betrachtung des erzeugten Bildes zu gewährleisten, werden die Grauskalenwert-Betrachtungswerte entsprechend den projizierten Punkten auf dem Schirm durch eine Skalierungseinrichtung skaliert. Jeder resultierende Grauskalenwert ist invers proportional zu einer kürzesten Distanz von einem entsprechenden Punkt auf der Oberfläche des Objekts längs einer Normalen zum Schirm. Die Betrachtungsrichtung wird als normal zum Schirm vorausgesetzt. Projizieren in dieser Rahmenkonstruktion zwei Punkte auf einer Oberfläche des Objekts auf denselben Punkt des Schirms, ist nur ein Punkt, der dem Schirm am nächsten liegt, sichtbar. Ferner erscheinen Punkte auf der Oberfläche des Objekts, die näher am Schirm liegen, weißer gefärbt, und Punkte auf der Oberfläche, die weiter weg vom Schirm sind, werden abgedunkelt, um ein pseudo-dreidimensionales Bild leichter darstellen zu können.
- Um die Krümmung der Oberfläche des Objekts an einem sichtbaren Punkt darzustellen, kann die Skalierungseinrichtung alternativ oder zusätzlich eine Einrichtung umfassen, die einen entsprechenden Grauwert oder Graupegel multipliziert mit einer Wichtung, die eine Funktion des Kosinus eines Winkels der Normalen zum Schirm und der Normalen zur Oberfläche des Objekts ist, diesem speziellen betrachteten Punkt zuordnet. Für eine effiziente Realisierung im Hinblick auf Berechnungszeit und Rechnerspeicherung, wird dieser Winkel aus der Distanz der umgebenden Punkte im Schirm zu entsprechenden sichtbaren Punkten auf der Oberfläche des Objekts abgeschätzt. Explizit ist die Formel, die dazu verwendet wird, einen Grauwert zuzuordnen, im folgenden aufgeführt:
- g = SCALE * cosm Maximum (AVERD, CUTOFF) * (K * (d-DMAX) + GMIN)
- Formel (1),
- worin: g = zugeordneter Grauwert
- d = zugeordnete Distanz zur Betrachtungsfläche
- K = (GMAX - GMIN) / (DMIN - DMAX)
- DMIN = 0,5 * DIAG
- DMAG = 1,5 I DIAG
- DIAG = Diagonale der interessierenden Box
- AVERD = Summe von vier Zahlen, wobei jede Zahl das Minimum zwischen MAXA und dem Absolutwert der Differenz zwischen den Distanzen ist, die einem der vier entgegengesetzten Paare von Pixeln zugewiesen sind, die das gerade betrachtete Pixel umgeben,
- GMAX, GMIN, m, MAXA, CUTOFF und SCALE willkürliche Werte sind, die von den gewünßchten Betrachtungscharakteristiken abhängen; im bevorzugten Beispiel sind hierfür geeignete Werte: GMAX = 255, GMIN = -255, m = 20, MAXA = 25, CUTOFF = 0,9919 und SCALE (Maßstab) = 1/200.
- Wird gemäß Darstellung in FIG. 3 eine Oberflächendarstellung von den Prozessoren ausgeführt, wird ein rechtwinkliger Schirm 68 in kleine Quadrate aufgeteilt, die Schirmpixel genannt werden. Für eine gute Auflösung der dreidimensionalen Ansichten des Objekts ist es von Vorteil, einen Schirm zu betrachten, der gerade groß genug ist, um eine Projektion des Objektes zu enthalten. Um dieses Ziel zu erreichen, wird die Diagonale der Box von Interesse vorteilhafterweise so ausgewählt, daß sie der seitlichen Abmessung des Schirms entspricht.
- Der Vergrößerungsfaktor des dreidimensionalen Bildes wird zweckmäßigerweise dadurch gewonnen, daß ein Schirm kleinerer Größe gewählt wird, wenn die Anzahl von Pixeln, die den Schirm unterteilen, konstant bleibt. Beispielsweise werden zweckmäßigerweise Werte von 256 x 256 Pixeln oder 512 x 512 Pixeln gewählt. Die Anzahl von Pixeln eines Schirms wird im folgenden als Schirmauflösung bezeichnet. Eine Änderung der dreidimensioanalen Ansichten des Objekts wird zweckmäßigerweise dadurch realisiert, daß eine Position des Schirms geändert wird, statt das Objekt selbst zu drehen. Eine derartige Positionierung der Betrachtungsfläche 68 ist in FIG. 3 in Relation zum Objekt 66 dargestellt. Wie oben erwähnt, wird das dreidimensionale Objekt durch einen Segmentsatz repräsentiert. In einer solchen Repräsentation repräsentiert ein zum Objekt gehörendes Liniensegment einen Teil von diesem. Für den Fall, daß sämtliche Schichten parallel zueinander sind, und wenn die Aufteilung einer Schicht in Pixel durch rechtwinklige Flächenmuster gemäß Darstellung in FIG. 2C erleichtert ist, repräsentiert jedes Segment ein Parallelepipedon, welches es enthält. Die Dimensionen des Parallelepipedons 90 sind wie folgt:
- - Die Länge des Liniensegments 46 entspricht L;
- - Die gemeinsame Seite der Pixel in einer axialen Ebene der Schicht entspricht W; und
- - Die Distanz zwischen der das Liniensegment enthaltenden Schicht und der folgenden Schicht entspricht H.
- Aus praktischer Sicht wird vorausgesetzt, daß die Vereinigung sämtlicher Parallelepipedons, die mit den Segmenten in der Objektrepräsentation verknüpft sind, dem dreidimensionalen darzustellenden Objekt entsprechen. Diese Voraussetzung wird um so genauer, wenn die Distanz zwischen zwei aufeinanderfolgenden Schichten kleiner gemacht wird und die Anzahl von Pixeln, die jede Schicht aufbauen, größer wird.
- Es wird ferner vorausgesetzt, daß die Abtastung des untersuchten Gegenstandes gleichförmig oder gleichmäßig ist, d.h. die gesamte dreidimensionale interessierende Box ist in nicht überlappende kleine Parallelepipedons oder Voxel 74 (FIG. 3) gleicher Größe und Form unterteilt. Diese Voraussetzung wird für den Fall erfüllt, daß sämtliche Schichten durch kleine Pixel gleicher Größe unterteilt sind und eine Distanz zwischen aufeinanderfolgenden Schichten über die gesamte dreidimensionale Box hinweg konstant ist. Die sechs Seitenflächen eines Voxels bestehen aus zwei Flächen in den beiden Schichten, die das Voxel sandwichartig einschließen, und vier weiteren Flächen, die die beiden Pixel verbinden. Bei geeigneter Auswahl des Koordinatensystems wird zweckmäßigerweise vorausgesetzt, daß die Flächen sämtlicher Voxel senkrecht zu einer Achse des Koordinatensystems liegen.
- Gemäß FIG. 4 ist eine elementare Fläche oder Seite eines Voxel als die in einer Unterteilung der dreidimensionalen Box definiert. In der Figur sind Segmente aus vier Schichten 80, 82, 84 und 86 dargestellt. Jede elementare Fläche wird vorteilhafterweise als ein Rechteck definiert, das senkrecht zu einer Achse des Koordinatensystems steht.
- Aus der Voraussetzung, daß das darzustellende Objekt durch eine Gesamtheit sämtlicher Parallelepipedons approximiert wird, die dem Linienelement zugeordnet sind, welches den Gegenstand repräsentiert, ist es hinreichend, nur die elementaren Flächen zu betrachten, die die Parallelepipedons abdecken (d.h. die Deckflächen), um eine dreidimensionale Oberfläche, die das Objekt zeigt, zu konstruieren. In der Figur sind Konzepte, die sich auf potentiell sichtbare Elementarflächen beziehen, nicht sichtbare Elementarflächen und eine Klassifikation von potentiell sichtbaren Flächen dargestellt. Zwei Arten von Elementarflächen stehen senkrecht auf einer Bezugsachse. Eine Art besteht aus Flächen, die in eine positive Richtung der Achse blicken, und die andere besteht aus Flächen, die zur negativen Richtung orientiert sind. Beispielsweise ist eine sichtbare Elementarfläche 92 senkrecht zur Y-Achse. Insgesamt gibt es sechs Typen oder Arten von Elementarflächen.
- Eine Elementarfläche ist als sichtbar definiert, wenn sie einen sichtbaren Punkt enthält. Für eine gegebene Ansicht oder Betrachtung sind einige Elementarflächen sichtbar und einige sind es nicht. Eine Elementarfläche kann für eine Betrachtung sichtbar sein, kann jedoch für eine andere Betrachtung nicht sichtbar sein.
- Um die Informationsgeschwindigkeit des dreidimensionalen perspektivischen Bildes vom Objekt in der gegebenen Richtung zu steigern, um das System adaptierbar zur Verwendung in Verbindung mit einem Standardprozessor zu gestalten, werden die meisten der nicht sichtbaren Elementarflächen aus der Liste von zu verarbeitenden Flächen ausgeschlqssen. Es werden Kriterien aufgegriffen, um nicht sichtbare Flächen für das Ausschließungsverfahren zu erkennen.
- Eine Elementarfläche ist nicht sichtbar, wenn sie eine gemeinsame Elementarfläche zweier Parallelepipedons ist, die zum Objekt gehören. Für eine gegebene Ansicht existieren nur drei Arten von Flächen, die nicht sichtbar sein können. Elementarflächen, die nicht durch diese Kriterien ausgeschlossen werden, werden als potentiell sichtbare Flächen bezeichnet. Da die Elementarflächen in sechs unterschiedliche Klassen klassifiziert sind, werden zweckmäßigerweise zunächst diejenigen Flächen, welche nicht sichtbar sind und gleichzeitig das erste Kriterium erfüllen, eliminiert.
- Im Beispiel der FIG. 4 ist ein zweites Eliminationskriterium erkennbar. Nur zwei Elementarflächen eines Parallelepipedons senkrecht zur X-Achse sind potentiell sichtbar. Beide dieser Flächen entsprechen Endpunkten eines entsprechenden Segments der Objektrepräsentation, und beide sind in zwei verschiedenen Listen aufgelistet. Es wird vorausgesetzt, daß innerhalb einer Abbildungsschicht Liniensegmente, die ein dreidimensionales Objekt repräsentieren, parallel zur Y-Achse sind.
- Eine Elementarfläche senkrecht zur Y-Achse, die in die positive Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons ist, das gerade vor ihr liegt. Eine Elementarfläche, die senkrecht zur Y-Achse liegt und in die negative Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons unmittelbar hinter ihr ist.
- Eine Elementarfläche senkrecht zur X-Achse, die in die positive Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons unmittelbar aufgesetzt aufihre Oberseite ist. Eine Elementarfläche senkrecht zur Z-Achse, die in die negative Richtung blickt, ist eine potentiell sichtbare Fläche, falls sie nicht eine Elementarfläche eines Parallelepipedons unmittelbar unter ihr ist.
- Falls Elementarflächen, die zur positiven Richtung orientiert sind, potentiell sichtbar sind, dann sind die Elementarflächen der entgegengesetzten Richtung dies nicht, und umgekehrt.
- Potentiell sichtbare Elementarflächen, die senkrecht zu einer Achse liegen, werden in-zwei verschiedenen Listen gruppiert. Eine Liste besteht aus Flächen, die in die positive Richtung der Achse zeigen, und die andere besteht aus Flächen, die in die negative Richtung zeigen. Folglich sind die potentiellen Elementarflächen der dreidimensionalen Objekte in unterschiedlichen Listen klassifiziert und gruppiert.
- Für eine gegebene Betrachtung wird jede Elementarfläche auf eine Betrachtungsfläche oder einen Schirm als Parallelogramm projiziert. Da die Größe der Elementarfläche dieselbe für sämtliche Elementarflächen desselben Typs ist, bleibt die Größe ihrer Projektionen auf dem Schirm unveränderlich. Jedem Punkt des Parallelogramms wird seine Distanz zum Punkt der Elementarfläche längs der Betrachtungsrichtung zugewiesen.
- Falls mehr als zwei Punkte von verschiedenen Elementarflächen auf denselben Punkt des Schirms projiziert werden, wird dem projizierten Punkt die kürzeste Distanz zugeordnet.
- Bei der Verarbeitung sämtlicher potentiell sichtbarer Flächen in obiger Weise kann die Schattierung des Bildes des Objekts auf dem Schirm dadurch bewerkstelligt werden, daß jeder Punkt auf dem Schirm der folgenden Zuordnung unterzogen wird:
- - Der Punkt ist ein Hintergrundpunkt, falls kein Punkt auf einer Elementarfläche aufihn projiziert ist, wobei der zugeordnete Grauwert eine negative Zahl, beispielsweise -1000 ist;
- - Andererseits entspricht der Punkt einem sichtbaren Punkt der Oberfläche des Objekts.
- Hinsichtlich der Formel (1), die weiter oben aufgeführt wurde, ist der diesem Punkt zugewiesene Grauwert invers proportional zum Abstand des entsprechenden sichtbaren Punktes auf dem Schirm und ist proportional zu einer Potenz des Kosinus des Maximums zweier Zahlen CUTOFF und AVERD. Die Zahl CUTOFF ist fixiert und wird ein für allemal ausgewählt. Die Zahl AVERD ist die Summe virer anderer Zahlen, wobei jede Zahl dadurch gewonnen wird, daß das Minimum zwischen einer Zahl MAXA und dem Absolutwert der Differenz zwischen den Distanzen genommen wird, die einem der vier entgegengesetzten Pixelpaare zugeordnet sind, die das gerade betrachtete Pixel umgeben. In der folgenden Implementierung wird der zugewiesene Grauwert g als Funktion der zugewiesenen Distanz d durch die oben dargelegte Formel (1) berechnet.
- In den FIG. 5 und 6 ist eine Darstellung des Erzeugungsprozesses für das dreidimensionale Bild gemäß Offenbarung in Form eines Flußdiagramms zusammengefaßt worden.
- Die vorausgehende Beschreibung lehrt ein System zum Erzeugen eines dreidimensionalen Bildes einer Gegenstandsprobe. Obgleich sie eine gute Repräsentation der Probendimensionen ergibt, wären auch häufig Oberflächendichte- Eigenschaften bei der Analyse der Probe von Vorteil. Hierbei wird in Erinnerung gerufen, daß die ursprünglich gewonnenen Schichtdaten durch Mittel wie z.B. einen CT- Scanner oder einen MRI-Scanner gewonnen wurden. Wenn beispielsweise die Daten durch einen CT-Scanner gewonnen werden, gehen die Schichtdaten funktionell in Beziehung zu einer Röntgenstrahldichte der Probe, In den FIG. 7 und 3 ist ein System zusammengefaßt. das diese zur Verfügung stehenden Daten zur Erzielung einer Oberflächendichte Repräsentation auf einem dreidimensionalen Bild handhabt, wobei nun hieraufim folgenden speziell Bezug genommen wird.
- Die folgende Routine wird für die Erzeugung eines dreidimensionalen Bildes mit darin codierter Oberflächendichteinformation herangezogen. Sie stellt in einem bevorzugten Ausführungsbeispiel eine Softwareroutine dar, die im Speicher 24 gespeichert ist.
- Der Ausdruck "Dichte", so wie er hier verwendet wird, bezieht sich im Beispiel eines CT-Scanners auf die CT- Zahl oder auf T&sub1;, T&sub2;, IR, ... (gewichtet oder nicht gewichtet), im Fall des MRI-Scanners.
- Um ein dreidimensionales Bild mit Dichteinformation aus einer Serie axialer Schichten zu erzeugen, müssen eine Serie von Aufgaben erfüllt werden, die erforderlich sind, um ein dreidimensionales Bild (nur mit Oberflächeninformation) zu bilden. Darüber hinaus müssen Koordinaten von Punkten auf der Oberfläche des Objekts, die bei der zugrundegelegten Betrachtung sichtbar sind, während der Ausführung dieser Aufgaben aufgezeichnet werden. Die Koordinaten potentiell sichtbarer Punkte bei der oben be schriebenen konditionellen Zuweisung werden unter Verwendung von drei zweidimensionalen Arrays oder Anordnungen aufgezeichriet, deren Größe der Größe des Schirms entspricht. Ist beispielsweise relativ zu einem Betrachtungsschirm (m, n) die Stelle eines Pixels in der Projektion einer Elementarfläche, werden die Koordinaten des potentiell sichtbaren Punktes in der geeigneten Anordnung an der Stelle (m, n) aufgezeichnet. Falls dem Pixel (m, n) eine neue Distanz zugewiesen wird, werden die zuvor aufgezeichneten Koordinaten durch Koordinaten des entsprechenden neuen potentiell sichtbaren Punktes ersetzt.
- Nachdem ein schattiertes dreidimensionales zu der Oberfläche eines dreidimensionalen Objektes gehörendes Bild erzeugt worden ist, muß ein neuer Satz Aufgaben ausgeführt werden, um:
- (1) die Dichteinformation aus den Schichtdaten zu extrahieren, die vom Gegenstand an den sichtbaren Punkten gewinnbar sind, wobei Koordinaten verwendet werden, die zuvor während der dreidimensionalen Ansichtbildung aufgezeichnet wurden;
- (2) die notwendige Dichteinterpolation der Dichte geeigneter Pixel oder Teilregionen von Interesse aus zwei verschiedenen interessierenden Regionen auszuführen;
- (3) diesen berechneten Dichtewert mit dem Grauwert zu kombinieren, der die Oberfläche des Objekts am sichtbaren Punkt repräsentiert;
- (4) das obige Produkt an der orthogonalen Projektion des sichtbaren Punktes auf dem Schirm zu speichern, auf dem das dreidimensionale Bild erzeugt ist.
- In einem ersten Schritt werden die drei zweidimensionalen Strahlen von Koordinaten oder sichtbaren Punkte der Koordinatendarstellung in eine Spaltenzahl, eine Reihenzahl und eine Interesseregionzahl ("ROI")-Zahl umgesetzt, so daß die Dichtezahl aus den ursprünglichen Schichtdaten einer geeigneten ROI wiedergewonnen werden kann. Eine Anordnung oder ein Feld, das die Spaltenzahl, Reihenzahl und die ROI-Zahl sichtbarer Pixel enthält, wird jeweils als das X-Feld, das Y-Feld und das Z-Feld bezeichnet. Da die Auflösung der dritten Dimension der ursprünglichen Schichtbilder im allgemeinen schlecht ist, ist eine Interpolation über die Schichten hinweg erforderlich. Um Rechnerspeicherkapazität bzw. -arbeit einzusparen, wird ein Interpolationscode im Z-Feld gespeichert. Während einer derartigen Umsetzung und Speicherung wird auch eine Gesamtzahl von P Pixeln innerhalb einer ROI, die in den X, Y, und Z Feldern aufgefunden werden, für jede ROI gespeichert.
- In einem zweiten Schritt wird ein weiteres zweidimensionales Feld oder Array mit einer Größe gleich der der Schirmfläche erzeugt. Dieses Feld wird dazu verwendet, ein endgültiges dreidimensionales Bild mit Dichteinformation zu erzeugen und wird als der dreidimensionale Bilddichteschirm bezeichnet. Der Bildschirm, der das dreidimensionale Bild enthält, das gemäß weiter vorne liegender Beschreibung ohne das Vorhandensein von Dichteinformation hergestellt wurde, wird als der dreidimensionale Oberflächenbildschirm bezeichnet.
- In einem dritten Schritt wird zu Beginn der dreidimensionale Bilddichteschirm auf Null gesetzt.
- In einem vierten Schritt wird eine ROI mit einer Gesamtzahl ungleich Null P gelesen, und es erfolgen dann die folgenden Funktionsschritte:
- (a) Es erfolgt eine Abtastung durch das Z-Feld, um Pixel, die POI-Nummern, welche mit betrachteten ROI- Nummern übereinstimmen, festzustellen und nachzuprüfen. Beispielsweise kann (m, n) als die Stelle eines derartigen Pixels voraus gesetzt werden.
- (b) Es werden eine Spaltenzahl und eine Reihenzahl aus den X- und Y-Feldern an der Stelle (m, n) ermittelt. (x,y) wird als die Spalten- bzw. Reihenzahl angenommen.
- (c) Die Dichteinformation d wird aus Schichtdaten der ROI bei der Stelle (x,y) ausgelesen. Unter Verwendung von d als Adresse, wird eine Zahl D durch eine Nachschlagetabelle hindurch gelesen, die ein für allemal in einem frühen Stadium gerade nach der Auflistung sämtlicher potentiell sichtbarer elementarer Flächen eingerichtet wurde. Dieselbe Nachschlagetabelle kann als Identitäts-Nachschlagetabelle funktionieren. In diesem Fall wird, falls der Wert D und der Wert d übereinstimmen, eine nicht modifizierter Dichtewert gewonnen.
- In einigen Fällen liefern jedoch nicht modifizierte Dichtewerte keine gute Bildqualität, insbesondere, wenn der dynamische Bereich von d groß ist und das dreidimensionale Objekt eine komplexe Oberflächenbegrenzung aufweist. In einer solchen Situation geht Oberflächenstruktur in einigen Abschnitten des Bildes infolge der geringen Dynamikbereichskapazität (0 bis 255) von der Displaymonitorvorrichtung verloren.
- Um dieses Problem zu umgehen, kann eine nichtlineare Nachschlagetabelle verwendet werden. Ein Beispiel einer derartigen Nachschlagetabelle findet sich für den Fall, daß sie in zwei Bereiche unterteilt ist. Der untere Bereich, der den Weichgewebebereichen entspricht, dient als eine Identitäts-Nachschlagetabelle. Ein oberer Bereich, der Knochenbereichen entspricht, ist eine Nachschlagetabelle mit Neigung oder Schräge, die nahe Null vom unteren Rand des unteren Teiles der Nachschlagetabelle beginnt.
- (d) Die Zahl D wird einem Wichtungswert w zwischen O und 1 multipliziert. Diese Wichtungszahl wird in einer Nachschlagetabelle aufgefunden, die Codes verwendet, die im Z-Feld bei der Stelle (m,n) eingebettet sind.
- (e) Das Produkt w * D wird dem dreidimensionalen Bilddichtefeld bei der Stelle (m,n) hinzugefügt.
- (f) Die Gesamtzahl P wird mit 1 dekrementiert.
- (g) Die Schritte (a) bis (g) werden wiederholt, bis die Zahl P Null wird.
- Im Schritt 5 werden die Operationen des Schritts 4 für sämtliche ROI's mit einem P ungleich Null wiederholt.
- Im Schritt 6 wird für sämtliche Pixel, die einen sichtbaren Punkt auf dem dreidimensionalen Objekt entsprechen, der dreidimensionale Dichtegehalt mit deren dreidimensionalem Oberflächengehalt multipliziert, und das Produkt dieser Gehalte oder Inhalte wird durch den Maximalwert des dreidimensionalen Bildoberflächenfeldes dividiert. Der Inhalt der verbleibenden Pixel wird auf eine negative Zahl wie beispielsweise -1000 gesetzt. Diese Division ist nur dann erforderlich, wenn ein Oberflächenfeld nicht normiert ist, d.h. der schattierte Wert nicht im Gleitpunktformat (einer Zahl zwischen 0 und 1) vorliegt. Diese sechs Schritte bilden die Implikation oder Inklusion der Dichteinformation von FIG. 8.
- Die zuvor erwähnten Prozeduren sind im Flußdiagramm für die Realisierung auf dem Prozessor der FIG. 7 und 8 zusammengestellt.
- Gemäß der vorgehenden Beschreibung ist das System zur Erzeugung eines dreidimensionalen Bildes aus einer Serie von Schichtabtastungen einer konventionellen Prozessoreinrichtung vorgesehen. Das System beinhaltet ferner die Fähigkeit einer selektiyen Hinzufügung von Oberflächendichteinformation im erzeugten dreidimensionalen Objekt. Häufig ist es auch wünschenswert, selektiv einen ausgewählten Abschnitt eines erzeugten dreidimensionalen Objekts zu betrachten. Ist beispielsweise die Wirbelsäule abgebildet worden, kann es der Arzt wünschen, die Wirbelsäule längs einer oder mehrerer Ebenen "aufzuspalten", um die Betrachtung deren Innenseite zu erleichtern. Gemäß FIG. 9 repräsentiert beispielsweise ein dreidimensionales Bild eines Gegenstandes oder einer Probe 100 eine dreidimensionale Darstellung. Es kann wünschenswert sein, das Bild 100 in einen oder mehrere Abschnitte zu zerschneiden. Dabei sind zwei Abschnitte längs einer Oberfläche geschnitten dargestellt, und zwar so, daß sie durch Ebenen 102, 104 gebildet sind.
- Im gegenstandsmäßigen System existieren drei Mittel zur Definition einer Schnittfläche für ein dreidimensionales Bild. In einem ersten Mittel bzw. einer ersten Maßname weisen zwei Kurven einen gemeinsamen Scheitelpunkt oder Vertex auf. Die erste Kurve wird als Primärkurve bezeichnet und die zweite Kurve als direktionale Kurve oder Richtungskurve. Beim zweiten Fall dient eine Kurve dazu, die Oberfläche zu schneiden. Im dritten Fall werden zwei Kurven zur Definition einer Schnittfläche verwendet, wobei die Kurven in diesem Fall jedoch keinen gemeinsamen Vertex aufweisen.
- Eine Kurve wird im folgenden durch eine endliche Anzahl von Kontrollpunkten definiert. Jeder Punkt, der auf dem Schirm identifiziert ist, liefert einen Punkt im dreidimensionalen Raum der dreidimensionalen Objektabbildung. Es wird eine Kurve gewonnen, indem zwei Punkte des dreidimensionalen Raumes verbunden werden, die zwei aufeinanderfolgenden Kontrollpunkten zugeordnet sind.
- Der erste Fall ist am schwierigsten sichtbar zu machen und wird in Verbindung mit FIG. 10 erläutert. In diesem Fall teilen sich eine primäre Kurve und eine sekundäre Kurve einen gemeinsamen Vertex. Die Schnittfläche wird gemäß Darstellung in FIG. 10 gewonnen.
- Im Block I der FIG. 10 ist die Primärkurve mit 110 angegeben und die Richtungskurve mit 112 angezeigt. Diese Kurven treffen sich an einem gemeinsamen Vertexpunkt oder Scheitelpunkt V.
- Im Block IIsind beide Enden der Primärkurve so verlängert, bis sie die dreidimensionale Box BOI überschreiten. Der Vektor 114, der den gemeinsamen Scheitelpunkt v und den Endpunkt einer rückwärtigen Verlängerung der Primärkurve verbindet, wird als deren rückwärtiger Verlängerungsvektor bezeichnet.
- Im Block III sind beide Enden der Richtungskurve so weit verlängert, bis sie die dreidimensionale Box wieder überschreiten. Der Verlängerungsvektor 118, der vom gemeinsamen Scheitelpunkt aus startet, wird als rückwärtige Verlängerung bezeichnet. Der Vektor 118, der den gemeinsamen Scheitelpunkt und den Endpunkt der rückwärtigen Verlängerung der Richtungskurve verbindet, wird entsprechend als rückwärtiger Verlängerungsvektor bezeichnet. Die Verlängerungen 116 und 120 sind Verlängerungen, die zur Überschreitung der BOI erforderlich sind.
- In IV ist die Primärkurve mit einem Translationsvektor, der gleich dem rückwärtigen Verlängerungsvektor der Richtungskurve ist, verschoben worden.
- Im Block V ist die Richtungskurve mit dem Translationsvektor, der gleich dem rückwärtigen Verlängerungsvektor der Primärkurve ist, einer Translation unterzogen worden. (Es ist anzumerken, daß nach Abschluß der vorgenannten beiden Schritte dafür gesorgt wird, daß die der Translation unterworfenen Kurven wiederum einen gemeinsamen Endpunkt haben, der als neuer gemeinsamer Vertex V' bezeichnet ist).
- Im Block VI ist eine Schnittfläche durch ein Verfahren der Vervollständigung eines Parallelogramms erzeugt, wobei hierzu vom gemeinsamen neuen Vertex V' der verlängerten primären Kurve und Richtungskurve ausgegangen wird. Beim Beginn von drei nicht linearen Punkten wie dem gemeinsamen Vertex V', einem Punkt P&sub1; (auf der verschobenen primären Kurve) nächstgelegen zu V' und einem Punkt D&sub1; (auf der verschobenen Richtungskurve) wird ein weiterer Punkt C&sub1; erzeugt, welcher den vierten Vertex des Parallelogramms P&sub1;, V', D&sub1;, C&sub1; darstellt. Die Vervollständigung des nächsten Parallelogramms geht jeweils von den drei Punkten P&sub2;, P&sub1; und C&sub1; aus, wobei ein neuer Punkt C&sub2; erzeugt wird. Die Parallelogrammvervollständigung erfolgt längs der primären Kurve, bis das letzte Parallelogramm außerhalb der dreidimensionalen Box liegt.
- In der zweiten Situation des oben beschriebenen zweiten Falls wird nur eine Kurve dazu verwendet, das dreidimensionale Objekt in zwei Hälften zu zerteilen, wobei hier im wesentlichen die gleichen Schritte befolgt werden, ausgenommen, daß die Richtungskurve als in einer Linie oder Geraden senkrecht zu Schirm liegend vorausgesetzt wird.
- Gemäß FIG. 12 ist die dritte Situation des obigen Falls 3 dargestellt. In diesem Fall sind zwei Kurven ohne gemeinsamen Vertex realisiert. Die Schnittfläche wird wie folgt erzeugt.
- Zunächst wird eine Kurve 200 isoliert, die einer Kurve entspricht, die auf dem dreidimensionalen Bild 202 gezogen ist.
- Da zumeist ein Schnittpunkt zwischen einer beliebigen interessierenden Region mit der dreidimensionalen Kurve vorliegt, gibt es zweitens zumeist zwei Schnittpunkte zwischen jeder beliebigen interessierenden Region mit zwei Kurven. Vergleiche beispielsweise die Punkte 204 und 206 der Figur.
- Drittens werden auf einer interessierenden Region mit zwei Schnittpunkten die Punkte mit einer Linie 208 verbunden. Diese Linie wird als die Schnittpunktlinie einer Schnittfläche mit einer interessierenden Region betrachtet.
- Viertens wird auf einer interessierenden Region mit einem Schnittpunkt die Schnittpunktlinie der Schnittfläche als die Linie vorausgesetzt, die durch den Punkt hindurchgeht und parallel zu der Schnittpunktlinie der Schnittfläche mit der darüberliegenden Schicht ist. Gibt es keine darüberliegende Schicht, wird vorausgesetzt, daß die Richtung senkrecht zum Schirm liegt.
- Fünftens wird auf einer interessierenden Region ohne Schnittpunkt die Schnittpunktlinie der Schnittfläche mit einer interessierenden Region als die Orthogonalprojektion auf die interessierende Region von einer Schnittpunktlinie der Schnittfläche mit der vorhergehenden interessierenden Region angenommen. Falls diese interessierende Region die erste interessierende Region ist, wird angenommen, daß die Schnittpunktlinie außerhalb der interessierenden Region liegt.
- Schließlich werden zuletzt die Schnittpunktlinien der Schnittfläche mit sämtlichen interessierenden Regionen der dreidimensionalen Box dazu verwendet, das tatsächliche dreidimensionale Objekt zu schneiden. Das Schneiden kann von den Schnittpunktlinien aus ausgeführt werden, da das Objekt nur mit den Schichten definiert ist.
- Die drei Fälle ermöglichen das Schneiden eines dreidimensionalen Objekts längs irgendeiner Ebene oder interessierenden Ebenen auf einfache und effiziente Weise. Hierdurch wird den Ärzten und Technikern bei der Untersuchungsprozedur eine Hilfestellung geliefert.
- Der Ablauf des zuvor dargelegten Schnittvorgangs ist wie folgt:
- 1. Selektieren eines dreidimensionalen Bildes;
- 2. Ziehen von einer oder zwei Kurven auf dem dreidimensionalem Bild zur Definition einer Schnittfläche; 3. Selektieren des Abschnitts zur Anfertigung des dreidimensionalen Bildes durch Selektion eines Punktes auf dem dreidimensionalen Bild;
- 4. Ausführen der Stückwerkbildung der Schnittfläche (des sogenannten Patchings) auf der Grundlage der zuvor auf dem Schirm gezogenen Kurven;
- 5. Die Patchwork-Oberfläche teilt die interessierende Box (oder dreidimensionale Box) in zwei Teile. Identifizierung des Teils, der den Punkt enthält, der in Schritt 3 selektiert worden ist;
- 6. Ausführen des tatsächlichen Schneidvorgangs des dreidimensionalen Objekts und Aufgreifen oder Zusammenstellen des Teils, der den in Schritt 3 selektierten Punkt enthält; und
- 7. Ausführen der dreidimensionalen Bildneuformatierung oder Reformatierung des aufgegriffenen oder zusammengestellten Teils.
- Die Erfindung wurde an Hand des bevorzugten Ausführungsbeispiels erläutert. Offensichtliche Modifikationen und Änderungen werden Anderen beim Lesen und Verstehen dieser Beschreibung einfallen. Es ist beabsichtigt, daß derartige Modifikationen und Änderungen insofern mit eingeschlossen sind, als sie innerhalb des Schutzumfangs der beiliegenden Ansprüche oder deren Äquivalente fallen.
Claims (30)
1. Bildverarbeitungsgerät zur Erzeugung eines
dreidimensionalen Bildes einer Probe, aufweisend: eine
Akquisitionseinrichtung zur Erfassung von Schichtdaten, die eine
physikalische Eigenschaft mehrerer im wesentlichen planarer
Regionen der Probe anzeigen, wobei jede planare Region in
mehrere Teilregionen unterteilt ist, die durch für den
diese betreffenden Anteil von Schichtdaten repräsentative
Teilregiondaten repräsentiert sind; eine Einrichtung, die
im wesentlichen sämtlichen Teilregionen zumindest einer der
mehreren im wesentlichen planaren Schichten einen
Betrachtungswert zuweist, wobei der Betrachtungswert entsprechend
von Teilregiondaten hiervon zugewiesen wird; eine
Einrichtung, die zumindest eine erste der planaren Regionen zur
Bildung einer interessierenden Region aufteilt; eine
Einrichtung, die eine interessierende Abgrenzung innerhalb
der interessierenden Region definiert; eine Einrichtung,
die eine Position einer zugeordneten Betrachtungsfläche in
Relation zu im wesentlichen jeder Teilregion der
interessierenden Abgrenzung definiert; eine Einrichtung, die
Abgrenzungsbilddaten, die repräsentativ für im wesentlichen
sämtliche Teilregionen der interessierenden Abgrenzung
sind, als eine Funktion von diese betreffenden
Teilregiondaten zusammenstellt; und eine Einrichtung, die die
Bilddaten auf die Betrachtungsfläche projiziert,
dadurch gekennzeichnet,
daß das Gerät eine Skalierungseinrichtung umfaßt, die die
Betrachtungswerte zumindest eines Teils der
Abgrenzungsbilddaten entsprechend der Verschiebung der
Abgrenzungsteilregionen von der Betrachtungsfläche skaliert.
2.Bildverarbeitungsgerät nach Anspruch 1, in welchem die
Skalierungseinrichtung ferner eine Einrichtung umfaßt, die
mehrere der skalierten Betrachtungswerte entsprechend einem
Winkel einer Normalen auf der interessierenden Abgrenzung
in Relation zur Betrachtungsfläche einstellt.
3. Bildverarbeitungsgerät nach Anspruch 1 oder 2, aufweisend
eine Einrichtung zur Extrapolation der interessierenden
Region auf zumindest eine zweite planare Region zur Bildung
zumindest einer extrapolierten interessierenden Region.
4. Bildverarbeitungsgerät nach einem der vorhergehenden
Ansprüche, ferner aufweisend eine Einrichtung zur
Extrapolation der interessierenden Abgrenzung auf zumindest eine
zweite interessierende Region.
5. Bildverarbeitungsgerät nach Anspruch 4 unter
Rückbeziehung auf Anspruch 3, in welchem die zweite interessierende
Region diese zumindest eine extrapolierte interessierende
Region ist.
6. Bildverarbeitungsgerät nach einem der vorhergehenden
Ansprüche, ferner aufweisend eine Einrichtung zum Variieren
einer Position der Betrachtungsfläche in Relation zu den
Bilddaten.
7. Bildverarbeitungsgerät nach einem der vorhergehenden
Ansprüche, in welchem die Akquisitionseinrichtung eine
Magnetresonanzvorrichtung oder eine
Computertomographievorrichtwig umfaßt.
8. Verfahren zur Erzeugung eines dreidimensionalen Bildes
einer Probe, aufweisend die Schritte: Erfassen von
Schichtdaten, die eine physikalische Eigenschaft mehrerer im
wesentlichen planarer Regionen der Probe anzeigen, wobei Jede
planare Region in mehrere Teilregionen aufgeteilt wird, die
durch für den diese betreffenden Anteil von Schichtdaten
repräsentative Teilregiondaten repräsentiert werden; Zuweisen
eines Betrachtungswerts zu im wesentlichen sämtlichen
Teilregionen von zumindest einer der mehreren planaren
Schichten, wobei der Betrachtungswert entsprechend Teilregiondaten
hiervon zugewiesen wird; Aufteilen zumindest einer ersten der
planaren Regionen zur Bildung einer interessierenden Region;
Definieren einer interessierenden Abgrenzung innerhalb der
interessierenden Region; Definieren einer Position einer
zugeordneten Betrachtungsfläche in Relation zu im wesentlichen
Jeder Teilregion der interessierenden Abgrenzung;
Zusammenstellen von Abgrenzungsbilddaten, die repräsentativ für im
wesentlichen sämtliche Teilregionen der interessierenden
Abgrenzungsfunktion sind, als eine Funktion von diese
betreff enden Teilregiondaten; Projizieren von Bilddaten auf
die Betrachtungsoberfläche;
gekennzeichnet durch
Skalieren der Betrachtungswerte zumindest eines Teils der
Abgrenzungsbilddaten entsprechend der Verschiebung der
Abgrenzungsteilregionen von der Betrachtungsfläche.
9. Verfahren nach Anspruch 8, ferner umfassend die
Schritte der Bestimmung eines Winkels einer Normalen auf der
interessierenden Abgrenzung zur Betrachtungsfläche und
Einstellens mehrerer der skalierten Werte entsprechend hierzu.
10. Verfahren nach Anspruch 8 oder 9, ferner umfassend:
die Extrapolation der interessierenden Region auf zumindest
eine zweite planare Region zur Bildung zumindest einer
extrapolierten interessierenden Region; und Extrapolieren
der interessierenden Abgrenzung auf zumindest die eine
extrapolierte interessierende Region.
11. Verfahren nach einem der Ansprüche 8 bis 10, ferner
umfassend den Schritt der Variation einer Position der
Betrachtungsfläche in Relation zu den Bilddaten.
12. Bildverarbeitungsgerät nach Anspruch 1, in welchem:
die Zuweisungseinrichtung einen Betrachtungswert im
wesentlichen sämtlichen Teilregionen Jeder der mehreren planaren
Schichten zuweist und die zugewiesenen Betrachtungswerte
keine Information hinsichtlich der Dichte der Teilregionen
etnhalten, welchen sie zugewiesen sind; die Einrichtung zum
Aufteilen zumindest erste und zweite planare Teilregionen
aufteilt, um jeweils zumindest erste und zweite
interessierende Regionen zu bilden; die Einrichtung zur Definition
einer Abgrenzung zumindest erste und zweite interessierende
Abgrenzungen jeweils innerhalb zumindest der ersten und
zweiten interessierenden Region definiert; die Einrichtung
zur Definition einer Position die Position der
Betrachtungsfläche in Relation zu im wesentlichen jeder Teilregion von
zumindest der ersten und zweiten interessierenden Abgrenzung
definiert; die Einrichtung zur Zusammenstellung von
Abgrenzungsbilddaten Bilddaten, die repräsentativ für im
wesentlichen sämtliche Teilregionen zumindest der ersten und
zweiten interessierenden Abgrenzung sind, als eine Funktion
diese betreffenden Teilregiondaten zusammenstellt; und
das Gerät ferner eine Einrichtung zur Modifikation im
wesentlichen jedes skalierten Betrachtungswerts entsprechend
der Dichte der Teilregion, der er zugewiesen war, gemäß
Anzeige durch die Teilregiondaten aufweist.
13. Bildverarbeitungsgerät nach Anspruch 12, ferner
umfassend eine Einrichtung zur Definition jeder
interessierenden Abgrenzung als eine Mehrzahl im wesentlichen
paralleler, linearer Datensegmente.
14. Bildverarbeitungsgerät nach Anspruch 13, ferner
umfassend eine Einrichtung zur Bestimmung potentiell sichtbarer
Flächenabschnitte jedes der Datenelementsegmente, wobei
ein sichtbarer Flächenabschnitt als der Abschnitt eines
Datensegments definiert ist, der direkt auf die
Betrachtungsfläche projizierbar ist, ohne ein anderes der Datensegmente
zu kreuzen.
15. Bildverarbeitungsgerät nach einem der Ansprüche 12
bis 14, in welchem die Aufteilungseinrichtung eine
Einrichtung umfaßt, die die zweite interessierende Region als
eine Extrapolation einer Aufteilung von der ersten
interessierenden Region bildet.
16. Bildverarbeitungsgerät nach einem der Ansprüche 12
bis 15, in welchem die Abgrenzungseinrichtung eine
Einrichtung zur Definition der zweiten interessierenden
Abgrenzung als eine Extrapolation der ersten
interessierenden Abgrenzung definiert.
17, Verfahren nach Anspruch 8, in welchem: der Schritt
der Zuweisung einen Betrachtungswert im wesentlichen
sämtlichen Teilregionen jeder der mehreren planaren
Schichten zuweist und die zugewiesenen Betrachtungswerte keine
Information hinsichtlich der Dichte der Teilregionen
enthalten, denen sie zugewiesen sind; der Schritt der
Aufteilung zumindest erste und zweite planare Regionen
aufteilt, um jeweils eine erste und-zweite interessierende
Teilregion zu bilden; der Schritt der Definition einer
Abgrenzung zumindest erste und zweite interessierende
Teilregionen jeweils innerhalb der ersten und zweiten
interessierenden Region definiert; der Schritt der
Definition einer Position die Position der Betrachtungsfläche
in Relation zu im wesentlichen jeder Teilregion der
zumindest ersten und zweiten interessierenden Abgrenzung
definiert; der Schritt der Zusammenstellung von
Abgrenzungsbilddaten, die repräsentativ für im wesentlichen
sämtliche Teilregionen der zumindest ersten und zweiten
interessierenden Abgrenzungen sind, als Funktion von
diese betreffenden Teilregiondaten zusammenstellt; und
das Verfahren ferner zwischen dem Schritt der Skalierung
und Projektion den Schritt der Modifikation im
wesentlichen jedes skalierten Betrachtungswerts entsprechend der
Dichte der Teilregion umfaßt, der er zugewiesen war,
gemäß Anzeige durch die Teilregiondaten.
18. Verfahren nach Anspruch 17, ferner umfassend den
Schritt der Definition jeder interessierenden Abgrenzung
als eine Mehrzahl im wesentlichen paralleler, linearer
Datensegmente.
19. Verfahren nach Anspruch 18, ferner umfassend den
Schritt der Bestimmung potentiell sichtbarer
Flächenabschnitte jedes der Datensegmente, wobei ein sichtbarer
Flächenabschnitt als der Abschnitt eines Datensegments
definiert ist, welcher, ohne andere der Datensegmente zu
kreuzen, direkt auf die Betrachtungsfläche projizierbar
ist.
20. Verfahren nach einem der Ansprüche 17 bis 19,
umfassend den Schritt der Abbildung der zweiten
interessierenden Region als eine Extrapolation des Schritts der
Aufteilung einer ersten der planaren Regionen zur Bildung
einer ersten interessierenden Region.
21. Verfahren nach einem der Ansprüche 17 bis 20,
umfassend den Schritt der Definition der zweiten
interessierenden Abgrenzung als eine Extrapolation der ersten
interess ierenden Abgrenzung.
22. Bildverarbeitungsgerät nach Anspruch 1, ferner
aufweisend: eine Einrichtung zur Definition einer
Schnittfläche; eine Einrichtung zur Projektion der Schnittfläche
auf die Betrachtungsfläche; eine Einrichtung zur Aufteilung
der Schichtbilddaten in zumindest einen ersten Anteil und
zweiten Anteil entsprechend der Schnittfläche; eine
Einrichtung zum Erzeugen modifizierter Bilddaten, die
repräsentativ für die aufgeteilten Bilddaten sind; und eine
Einrichtung zur Projektion der modifizierten Bilddaten auf die
Betrachtungsfläche.
23. Bildverarbeitungsgerät nach Anspruch 22, ferner
umfassend eine Einrichtung zur Selektion einer der Anteile,
und in welchem die modifizierten Bilddaten vom
selektierten Anteil umfaßt sind.
24. Bildverarbeitungsgerät nach Anspruch 22 oder 23, ferner
aufweisend eine Einrichtung zur Variation einer Position
der Betrachtungsfläche in Relation zu den modifizierten
Bilddaten.
25. Bildverarbeitungsgerät nach Anspruch 22, in welchem
die Skalierungseinrichtung ferner eine Einrichtung umfaßt,
die mehrere der skalierten Werte entsprechend einem Winkel
einer Normalen auf der interessierenden Abgrenzung in
Relation zur Betrachtungsfläche einstellt.
26. Bildverarbeitungsgerät nach Anspruch 22, in welchem
die Akquisitionseinrichtung einen
Computertomographiescanner oder eine
Magnetresonanz-Bildverarbeitungsvorrichtung umfaßt.
27. Verfahren nach Anspruch 8, ferner umfassend die
Schritte: Definieren einer Schnittfläche; Projizieren der
Schnittfläche auf die Betrachtungsfläche; Aufteilen der
Schichtbilddaten in zumindest einen ersten Anteil und einen
zweiten Anteil entsprechend der Schnittfläche; Erzeugen
modifizierter Bilddaten, die für die Aufteilungsbilddaten
repräsentativ sind; und Projizieren der modifizierten
Bilddaten auf die Betrachtungsfläche.
28. Verfahren nach Anspruch 27, ferner umfassend den
Schritt der Selektion eines der Anteile, und in welchem
der Schritt der Erzeugung modifizierter Bilddaten sich auf
Bilddaten richtet, die den selektierten Anteil umfassen.
29. Verfahren nach Anspruch 27 oder 28, ferner umfassend
den Schritt der Variation einer Position der
Betrachtungsfläche in Relation zu den modifizierten Bilddaten.
30. Verfahren nach Anspruch 27, ferner umfassend den
Schritt der Einstellung mehrerer der skalierten Werte
entsprechend einem Winkel einer Normalen auf der
interessierenden Abgrenzung in Relation zur Betrachtungsfläche.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/126,368 US4882679A (en) | 1987-11-27 | 1987-11-27 | System to reformat images for three-dimensional display |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3855040D1 DE3855040D1 (de) | 1996-04-04 |
DE3855040T2 true DE3855040T2 (de) | 1996-07-11 |
Family
ID=22424454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3855040T Expired - Fee Related DE3855040T2 (de) | 1987-11-27 | 1988-11-09 | Bildverarbeitungsverfahren und -gerät |
Country Status (4)
Country | Link |
---|---|
US (1) | US4882679A (de) |
EP (1) | EP0318176B1 (de) |
JP (1) | JP2981506B2 (de) |
DE (1) | DE3855040T2 (de) |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5165410A (en) * | 1987-05-15 | 1992-11-24 | Medical & Scientific Enterprises, Inc. | Position indicating system for a multidiagnostic scanner |
US5079699A (en) * | 1987-11-27 | 1992-01-07 | Picker International, Inc. | Quick three-dimensional display |
JPH02173878A (ja) * | 1988-12-27 | 1990-07-05 | Toshiba Corp | 3次元断面表示装置 |
JP2952673B2 (ja) * | 1989-06-19 | 1999-09-27 | 株式会社日立メディコ | 関心領域抽出方法及び切り出し方法 |
JP2845995B2 (ja) * | 1989-10-27 | 1999-01-13 | 株式会社日立製作所 | 領域抽出手法 |
JPH0454682A (ja) * | 1990-06-22 | 1992-02-21 | Toshiba Corp | 立体画像処理方法及びその装置 |
US5201035A (en) * | 1990-07-09 | 1993-04-06 | The United States Of America As Represented By The Secretary Of The Air Force | Dynamic algorithm selection for volume rendering, isocontour and body extraction within a multiple-instruction, multiple-data multiprocessor |
GB2246689A (en) * | 1990-08-04 | 1992-02-05 | David John Winter | Creating a 3-D image from a plurality of cross-sections |
ES2048034B1 (es) * | 1991-07-25 | 1995-08-01 | Ibermatica S A | Procedimiento de obtencion de informacion e imagenes de organos vitales. |
US5734384A (en) * | 1991-11-29 | 1998-03-31 | Picker International, Inc. | Cross-referenced sectioning and reprojection of diagnostic image volumes |
US5371778A (en) * | 1991-11-29 | 1994-12-06 | Picker International, Inc. | Concurrent display and adjustment of 3D projection, coronal slice, sagittal slice, and transverse slice images |
US5379370A (en) * | 1992-07-17 | 1995-01-03 | International Business Machines Corporation | Method and apparatus for drawing lines, curves, and points coincident with a surface |
US5684937A (en) * | 1992-12-14 | 1997-11-04 | Oxaal; Ford | Method and apparatus for performing perspective transformation on visible stimuli |
DE4307956C2 (de) * | 1993-03-12 | 1996-04-11 | Siemens Ag | Verfahren zur Segmentierung einer Struktur |
US5431161A (en) * | 1993-04-15 | 1995-07-11 | Adac Laboratories | Method and apparatus for information acquistion, processing, and display within a medical camera system |
US5592663A (en) * | 1993-12-17 | 1997-01-07 | Nagamori; Nobuhiko | Graphing method and apparatus for data base retrieval |
US6166740A (en) * | 1994-04-15 | 2000-12-26 | Hewlett Packard Company | Method and system for viewing three-dimensional data for a tracked structure |
JPH10504692A (ja) * | 1994-08-19 | 1998-05-06 | ライカ アクチエンゲゼルシャフト | 立体ビデオ画像を表示装置上に表示する方法及び装置 |
US5765561A (en) | 1994-10-07 | 1998-06-16 | Medical Media Systems | Video-based surgical targeting system |
US5737506A (en) * | 1995-06-01 | 1998-04-07 | Medical Media Systems | Anatomical visualization system |
US6151404A (en) | 1995-06-01 | 2000-11-21 | Medical Media Systems | Anatomical visualization system |
US5776050A (en) | 1995-07-24 | 1998-07-07 | Medical Media Systems | Anatomical visualization system |
US6702736B2 (en) * | 1995-07-24 | 2004-03-09 | David T. Chen | Anatomical visualization system |
US5682886A (en) * | 1995-12-26 | 1997-11-04 | Musculographics Inc | Computer-assisted surgical system |
US5825908A (en) * | 1995-12-29 | 1998-10-20 | Medical Media Systems | Anatomical visualization and measurement system |
US5701404A (en) * | 1996-05-31 | 1997-12-23 | Softimage | Method and system for efficiently trimming a nurbs surface with a projected curve |
CA2200659A1 (en) * | 1996-04-12 | 1997-10-12 | Softimage Inc. | Method and system for efficiently trimming a nurbs surface with a projected curve |
AU3718497A (en) * | 1996-06-28 | 1998-01-21 | Resolution Technologies, Inc. | Fly-through computer aided design method and apparatus |
US5895439A (en) * | 1996-10-15 | 1999-04-20 | Southwest Research Institute | Method for generating and displaying complex data derived from non-destructive evaluation scanning |
US6246784B1 (en) | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
US6369812B1 (en) | 1997-11-26 | 2002-04-09 | Philips Medical Systems, (Cleveland), Inc. | Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks |
EP1079756B1 (de) | 1998-05-28 | 2004-08-04 | Orthosoft, Inc. | Interaktives und rechnerunterstüztes chirurgisches system |
US6396939B1 (en) * | 1998-05-28 | 2002-05-28 | Orthosoft Inc. | Method and system for segmentation of medical images |
US6310620B1 (en) * | 1998-12-22 | 2001-10-30 | Terarecon, Inc. | Method and apparatus for volume rendering with multiple depth buffers |
US6535623B1 (en) * | 1999-04-15 | 2003-03-18 | Allen Robert Tannenbaum | Curvature based system for the segmentation and analysis of cardiac magnetic resonance images |
GB2375212B (en) * | 1999-04-29 | 2003-06-11 | Mitsubishi Electric Inf Tech | Method and apparatus for searching for an object using shape |
US6907281B2 (en) * | 2000-09-07 | 2005-06-14 | Ge Medical Systems | Fast mapping of volumetric density data onto a two-dimensional screen |
US6690960B2 (en) * | 2000-12-21 | 2004-02-10 | David T. Chen | Video-based surgical targeting system |
US6975897B2 (en) | 2001-03-16 | 2005-12-13 | Ge Medical Systems Global Technology Company, Llc | Short/long axis cardiac display protocol |
DE10149556A1 (de) * | 2001-10-08 | 2003-04-24 | Siemens Ag | Verfahren zur Erzeugung eines zweidimensionalen Bildes aus einem 3D-Datensatz eines Tomographie-Geräts und medizinisches Tomographie-Gerät |
US7260250B2 (en) * | 2002-09-30 | 2007-08-21 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Computer-aided classification of anomalies in anatomical structures |
EP1653858B1 (de) | 2003-08-04 | 2016-05-25 | Koninklijke Philips N.V. | Aufzeichnung der koronararterien auf einer kugel |
DE10338145B4 (de) * | 2003-08-15 | 2022-02-24 | "Stiftung Caesar" (Center Of Advanced European Studies And Research) | Verfahren zur Darstellung von 3D Bilddaten |
US7197170B2 (en) * | 2003-11-10 | 2007-03-27 | M2S, Inc. | Anatomical visualization and measurement system |
US20050113664A1 (en) * | 2003-11-26 | 2005-05-26 | Laurent Stefani | Cardiac display methods and apparatus |
US20060098010A1 (en) * | 2004-03-09 | 2006-05-11 | Jeff Dwyer | Anatomical visualization and measurement system |
JP4224425B2 (ja) * | 2004-05-11 | 2009-02-12 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | Ct画像生成方法およびx線ct装置 |
DE102004026616B4 (de) * | 2004-06-01 | 2007-09-20 | Siemens Ag | Verfahren zum Messen eines Untersuchungsbereichs mit einem Magnetresonanzgerät |
US7702137B2 (en) | 2004-11-10 | 2010-04-20 | M2S, Inc. | Anatomical visualization and measurement system |
US20060119622A1 (en) * | 2004-11-23 | 2006-06-08 | General Electric Company | Method and apparatus for volume rendering display protocol |
US20070049817A1 (en) * | 2005-08-30 | 2007-03-01 | Assaf Preiss | Segmentation and registration of multimodal images using physiological data |
US7822254B2 (en) * | 2006-04-21 | 2010-10-26 | Siemens Medical Solutions Usa, Inc. | Automatic positioning of matching multi-planar image reformatting (MPR) views of multiple 3D medical images |
US8150128B2 (en) | 2006-08-30 | 2012-04-03 | The Trustees Of Columbia University In The City Of New York | Systems and method for composite elastography and wave imaging |
WO2010014977A1 (en) * | 2008-08-01 | 2010-02-04 | The Trustees Of Columbia University In The City Of New York | Systems and methods for matching and imaging tissue characteristics |
JP5637653B2 (ja) * | 2008-08-18 | 2014-12-10 | 株式会社東芝 | 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム |
EP2480144B1 (de) | 2009-09-21 | 2024-03-06 | The Trustees of Columbia University in the City of New York | Systeme zur öffnung einer gewebebarriere |
US20110176711A1 (en) * | 2010-01-21 | 2011-07-21 | Radu Catalin Bocirnea | Methods, apparatuses & computer program products for facilitating progressive display of multi-planar reconstructions |
CN102222352B (zh) * | 2010-04-16 | 2014-07-23 | 株式会社日立医疗器械 | 图像处理方法和图像处理装置 |
GB2479784B (en) | 2010-04-23 | 2012-11-07 | Nds Ltd | Image scaling |
JP5641503B2 (ja) * | 2010-10-15 | 2014-12-17 | 国立大学法人 筑波大学 | マルチステップ・ラティス・ボクセル法 |
DE102011003135B4 (de) * | 2011-01-25 | 2018-04-05 | Siemens Healthcare Gmbh | Bildgebungsverfahren zum Rotieren eines Gewebebereichs |
US9320491B2 (en) | 2011-04-18 | 2016-04-26 | The Trustees Of Columbia University In The City Of New York | Ultrasound devices methods and systems |
WO2012162664A1 (en) | 2011-05-26 | 2012-11-29 | The Trustees Of Columbia University In The City Of New York | Systems and methods for opening of a tissue barrier in primates |
WO2014059170A1 (en) | 2012-10-10 | 2014-04-17 | The Trustees Of Columbia University In The City Of New York | Systems and methods for mechanical mapping of cardiac rhythm |
US9247921B2 (en) | 2013-06-07 | 2016-02-02 | The Trustees Of Columbia University In The City Of New York | Systems and methods of high frame rate streaming for treatment monitoring |
US10322178B2 (en) | 2013-08-09 | 2019-06-18 | The Trustees Of Columbia University In The City Of New York | Systems and methods for targeted drug delivery |
US10028723B2 (en) | 2013-09-03 | 2018-07-24 | The Trustees Of Columbia University In The City Of New York | Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1547566A (en) * | 1975-07-04 | 1979-06-20 | Emi Ltd | Information display arrangements |
US4105922A (en) * | 1977-04-11 | 1978-08-08 | General Electric Company | CT number identifier in a computed tomography system |
US4245244A (en) * | 1978-09-01 | 1981-01-13 | General Electric Company | Device for delineating zones in a video image display |
US4590558A (en) * | 1981-12-30 | 1986-05-20 | General Electric Company | Method and apparatus for removing objects from CT images |
US4608635A (en) * | 1982-08-03 | 1986-08-26 | Thomas Jefferson University | Method and apparatus for tomographic diagnosis |
JPS5960680A (ja) * | 1982-09-30 | 1984-04-06 | Toshiba Corp | 画像処理装置 |
US4520316A (en) * | 1983-04-25 | 1985-05-28 | The University Of British Columbia | NMR imaging technique |
JPS60152942A (ja) * | 1984-01-23 | 1985-08-12 | Toshiba Corp | Nmr―ctスキャン計画装置 |
US4710715A (en) * | 1985-04-23 | 1987-12-01 | Nmr Imaging, Inc. | Method of mapping magnetic field strength and tipping pulse accuracy of an NMR imager |
JPS61259373A (ja) * | 1985-05-14 | 1986-11-17 | Toshiba Corp | X線撮影診断装置 |
US4710876A (en) * | 1985-06-05 | 1987-12-01 | General Electric Company | System and method for the display of surface structures contained within the interior region of a solid body |
US4729098A (en) * | 1985-06-05 | 1988-03-01 | General Electric Company | System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body |
US4751643A (en) * | 1986-08-04 | 1988-06-14 | General Electric Company | Method and apparatus for determining connected substructures within a body |
-
1987
- 1987-11-27 US US07/126,368 patent/US4882679A/en not_active Expired - Fee Related
-
1988
- 1988-11-09 DE DE3855040T patent/DE3855040T2/de not_active Expired - Fee Related
- 1988-11-09 EP EP88310527A patent/EP0318176B1/de not_active Expired - Lifetime
- 1988-11-28 JP JP63300434A patent/JP2981506B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
DE3855040D1 (de) | 1996-04-04 |
JP2981506B2 (ja) | 1999-11-22 |
EP0318176A2 (de) | 1989-05-31 |
JPH01166267A (ja) | 1989-06-30 |
US4882679A (en) | 1989-11-21 |
EP0318176B1 (de) | 1996-02-28 |
EP0318176A3 (de) | 1991-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3855040T2 (de) | Bildverarbeitungsverfahren und -gerät | |
DE69029982T2 (de) | Verfahren und Geräte zur dreidimensionalen Bilderzeugung | |
DE68929214T2 (de) | System und Verfahren zur Anzeige von windschiefen Schnittebenen im Innern eines massiven Körpers | |
DE3689399T2 (de) | Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen. | |
DE69518421T2 (de) | Verfahren und system zum aufbau und zur darstellung dreidimensionaler bilder | |
DE3751300T2 (de) | Verfahren und Vorrichtung zur dreidimensionalen Konnektivi- tätsbestimmung von zusammenhängenden Unterstrukturen in einem Körper unter Verwendung einer Äquivalenzrelation. | |
DE4344312C2 (de) | Dreidimensionales Ultraschall-Abbildungssystem | |
DE60313742T2 (de) | Verfahren und geräte für schnelle fächerstrahl-tomographie | |
DE3650169T2 (de) | Anlage und Verfahren zur Anzeige von im Inneren eines Festkörpers eingeschlossenen Oberflächenstrukturen. | |
DE69737720T2 (de) | Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem | |
DE3712639A1 (de) | Verfahren und einrichtung zum abbilden von volumendaten | |
DE69229658T2 (de) | Bildinterpolationsmethode und -vorrichtung | |
DE19807053B4 (de) | Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung | |
DE3832222A1 (de) | Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes | |
DE3735519C2 (de) | Binäre Rauminterpolation | |
DE102004063053A1 (de) | Verfahren und System zum Visualisieren dreidimensionaler Daten | |
EP0938063B1 (de) | Verfahren zur zweidimensionalen Abbildung von Strukturen für die medizinische Diagnostik | |
DE102017214447B4 (de) | Planare Visualisierung von anatomischen Strukturen | |
DE10254908B4 (de) | Verfahren zum Herstellen eines Bildes | |
EP1843296A1 (de) | Verfahren zur reproduzierbaren Erzeugung von Ansichten tomographischer Bilddaten | |
EP1658591A1 (de) | Verfahren und vorrichtung zur darstellung eines vorbestimmbaren bereichs in mehrdimensionalen datens tzen | |
DE10254907B4 (de) | Verfahren zur Oberflächenkonturierung eines dreidimensionalen Abbildes | |
DE3854960T2 (de) | Vorrichtung und Verfahren zur tomographischen Datenverarbeitung | |
DE10253617B4 (de) | Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes | |
DE69814482T2 (de) | Verfahren und Vorrichtung zur Darstellung von Oberflächen aus volumetrischen Daten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Free format text: PATENTANWAELTE REICHEL UND REICHEL, 60322 FRANKFURT |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: PHILIPS MEDICAL SYSTEMS (CLEVELAND), INC., CLEVELA |
|
8339 | Ceased/non-payment of the annual fee |