DE19819892A1 - Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung - Google Patents

Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung

Info

Publication number
DE19819892A1
DE19819892A1 DE19819892A DE19819892A DE19819892A1 DE 19819892 A1 DE19819892 A1 DE 19819892A1 DE 19819892 A DE19819892 A DE 19819892A DE 19819892 A DE19819892 A DE 19819892A DE 19819892 A1 DE19819892 A1 DE 19819892A1
Authority
DE
Germany
Prior art keywords
data
sample
volume
intensity
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19819892A
Other languages
English (en)
Other versions
DE19819892B4 (de
Inventor
William Thomas Hatfield
Todd Michael Tillman
Patricia Ann Schubert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19819892A1 publication Critical patent/DE19819892A1/de
Application granted granted Critical
Publication of DE19819892B4 publication Critical patent/DE19819892B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Hematology (AREA)
  • General Physics & Mathematics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

Die Erfindung bezieht sich allgemein auf Ultraschall- Bildgebung der menschlichen Anatomie zum Zweck der medizini­ schen Untersuchung. Insbesondere bezieht sich die Erfindung auf ein Verfahren und eine Einrichtung zur Bildgebung der menschlichen Anatomie, indem die Intensität von Ultraschall- Echos detektiert bzw. erfaßt wird, die von einem abgetaste­ ten (gescanten) Volumen in einem menschlichen Körper reflek­ tiert werden.
Konventionelle Ultraschall-Abtaster bzw. -Scanner erzeugen zweidimensionale B-Mode-Bilder von Gewebe, in denen die Helligkeit bzw. Leuchtdichte eines Pixels auf der Intensität der Echorückkehr basiert. Bei der Farbströmungs(color-flow)- Bildgebung kann die Bewegung eines Strömungsmittels bzw. Fluids (z. B. Blut) oder von Gewebe bildlich dargestellt werden. Die Messung der Blutströmung im Herzen und in den Gefäßen unter Anwendung des Doppler-Effekts ist bekannt. Die Frequenzverschiebung von rückgestreuten Ultraschallwellen kann zur Messung der Geschwindigkeit der rückstreuenden Teile des Gewebes oder Blutes benutzt werden. Die Veränderung oder Verschiebung in der rückgestreuten Frequenz nimmt zu, wenn Blut in Richtung auf den Wandler hin strömt, und nimmt ab, wenn Blut vom Wandler weg strömt. Die Doppler-Verschiebung läßt sich unter Einsatz verschiedener Farben zur Darstellung bringen, um die Geschwindigkeit sowie die Strömungsrichtung wiederzugeben. Bei der sog. Power-Doppler-Bildgebung wird die in dem zurückkommenden Dopplersignal enthaltene Energie (power) zur Anzeige gebracht. Der Farbströmungsmodus bringt gleichzeitig Hunderte von benachbarten Abtastvolumen zur Anzeige, die alle zur Darstellung der Geschwindigkeit jedes Abtastvolumens farbkodiert sind. Das Farbströmungsbild kann dem B-Mode-Bild überlagert werden.
Die vorliegende Erfindung ist in einem Ultraschall-Bild­ gebungssystem eingebaut, das aus vier hauptsächlichen Untersystemen besteht: einem Bündelformer 2 (vgl. Fig. 1), einem Prozessor-Subsystem 4, einer Abtastkonverter/Display­ steuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung erfolgt zentral in der Hauptsteuerung 8, welche die Bedie­ nereingaben über eine (nicht gezeigte) Bedienerschnittstelle empfängt und ihrerseits die verschiedenen Untersysteme steu­ ert. Die Hauptsteuerung erzeugt ebenfalls für das System die Zeit- und Steuersignale, die über einen Systemsteuerbus 10 sowie einen (nicht gezeigten) Abtaststeuerbus verteilt wer­ den.
Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän­ gen von dem Wandler an den Strahl- bzw. Bündelformer. Der Bündelformer gibt zwei aufsummierte, digitale Empfangsbündel im Basisband aus. Die Basisbanddaten werden als Eingang an den B-Mode-Prozessor 4A und den Farbströmungsprozessor 4B gegeben, wo sie entsprechend dem Datenerfassungsmodus prozes­ siert und als prozessierte akustische Vektor-(Bündel-)Daten an den Abtastkonverter/Displayprozessor 6 ausgegeben werden. Der Abtastkonverter/Displayprozessor 6 nimmt die prozessier­ ten akustischen Daten auf und gibt die Video-Displaysignale für die Abbildung in einem Rastercan-Format an einen Farbmo­ nitor 12 aus. Die Abtastkonverter/Displaysteuerung 6 forma­ tiert weiterhin in Zusammenarbeit mit der Hauptsteuerung 8 mehrfache Bilder zum Display, für Display-Anmerkungen, grafi­ sche Auflagen (overlays) sowie für eine Wiedergabe von Film­ schleifen und aufgezeichneten Zeitliniendaten.
Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von dem Bündelformer in eine logarithmisch komprimierte Version der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria­ ble Amplitude der Einhüllenden des Signals als eine Grauskala unter Verwendung eines 8-Bit Ausgangs für jedes Pixel ab. Die Einhüllende eines Basisbandsignals ist die Größe des Vektors, der die Basisbanddaten repräsentiert.
Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam­ mern usw. reflektierten Schallwellen wird proportional zu der Geschwindigkeit der Blutzellen verschoben, und zwar in posi­ tiver Richtung für sich auf den Wandler zu bewegende Zellen und in negativer Richtung für die sich davon weg bewegende Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindig­ keit in der Abbildungsebene vorzusehen. Die Blutgeschwindig­ keit wird errechnet durch Messung der Phasenverschiebung zwischen zwei Aktivierungen (firing) bei einem spezifischen Entfernungstor (range gate). Statt einer Messung des Doppler­ spektrums bei einem Entfernungstor in der Abbildung werden die Blutgeschwindigkeit von mehreren Vektorpositionen sowie mehrere Entfernungstore längs jedes Vekors berechnet, und aus dieser Information wird eine zweidimensionale Abbildung erstellt. Der Farbströmungsprozessor erzeugt Geschwindig­ keitssignale (8 Bits), Varianz(Turbulenz)-Signale (4 Bits) sowie Energie- bzw. Powersignale (8 Bits). Der Bediener wählt aus, ob die Geschwindigkeit und Varianz oder die Energie an den Abtastkonverter ausgegeben werden. Der Aufbau und die Arbeitsweise eines Farbströmungsprozessors sind beschrieben im US-Patent No. 5,524,629, dessen Inhalt hier durch Bezug­ nahme eingefügt wird.
Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver­ ter/Displaysteuerung 6 nehmen jeweils die von den Prozessoren 4A und 4B prozessierten digitalen Daten auf und führen die Koordinatentransformationen der Farbströmungs- und Intensi­ tätsdaten vom Polarkoordinaten- (R-θ) Sektorformat oder vom Cartesischen linearen Koordinatenfeld zu geeignet skalierten Display-Pixeldaten durch, die im X-Y Displayspeicher 18 gespeichert werden. Im B-Mode werden die Intensitätsdaten im X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei Pixel zu 8 Bit speichert. Alternativ werden im Farbströmungs­ modus die Farbströmungsdaten wie folgt im Speicher gespei­ chert: Intensitätsdaten (8 Bits), Geschwindigkeits- oder Energiedaten (8 Bits) sowie Varianz(Turbulenz)daten (4 Bits).
Eine Vielzahl von aufeinanderfolgenden (Voll-)Bildern (frames) von Farbströmungs- oder B-Mode-Daten werden im Filmspeicher 24 auf einer First-In/First-Out (FIFO) Basis gespeichert. Der Filmspeicher wirkt als ein im Hintergrund laufender ringförmiger Bildpufferspeicher, der kontinuierlich auf Bilddaten zugreift, die in Echtzeit für den Benutzer zur Darstellung gebracht werden. Wenn der Benutzer das System "einfriert", hat er die Möglichkeit, zuvor im Filmspeicher eingefangene Bilddaten anzuschauen. Die Grafikdaten für die Herstellung von grafischen Auflagen auf dem dargestellten Bild werden erzeugt und gespeichert in dem Zeitlini­ en/Grafikprozessor und Displayspeicher 20. Der Videoprozessor 22 schaltet im Multiplexbetrieb zwischen den Grafikdaten, den Bilddaten sowie den Zeitliniendaten hin und her, um den endgültigen Videoausgang in einem Rasterabtastformat auf dem Videomonitor 12 zu erzeugen. Zusätzlich sorgt er für ver­ schiedene Grauskala- und Farbkartierungen (maps) sowie für die Verknüpfung der Grauskala- und Farbbilder.
Das konventionelle Ultraschall-Bildgebungssystem sammelt B-Mode- oder Farbströmungs-Mode-Bilder im Filmspeicher 24 auf einer kontinuierlichen Basis. Der Filmspeicher 24 stellt einen residenten digitalen Bildspeicher für Einzelbildbe­ trachtung und für Mehrfachbildschleifenbetrachtung sowie verschiedene Steuerungsfunktionen zur Verfügung. Das während der Einzelbild-Filmwiedergabe dargestellte interessierende Gebiet ist dabei dasjenige, das während der entsprechenden Bilderfassung benutzt wurde. Der Filmspeicher arbeitet auch als ein Puffer für die Übertragung von Bildern zu digitalen Archivierungsgeräten über die Hauptsteuerung 8.
Zweidimensionale Ultraschall-Bilder sind oftmals schwer zu interpretieren aufgrund des Unvermögens des Beobachters, sich die zweidimensionale Darstellung der gerade abgetasteten Anatomie zu veranschaulichen. Wird jedoch die Ultraschallson­ de über einen interessierenden Bereich geführt und werden dabei zweidimensionale Abbildungen zur Formung eines dreidi­ mensionalen Volumens akkumuliert, dann läßt sich die Anatomie viel leichter sowohl für den geübten als auch für den ungeüb­ ten Betrachter vorstellen.
Bei der dreidimensionalen Ultraschall-Bildgebung von B-Mode- Intensitätsdaten sind die Intensitätsdaten schwer zu segmen­ tieren aufgrund von schlechtem Kontrast und auch wegen des Vorhandenseins von Rauschen und Flecken (Speckle) in den Daten. Wenn jedoch der interessierende Bereich begrenzt werden kann, könnte die Segmentierung des dreidimensionalen B-Mode-Bildes verbessert werden.
Erfindungsgemäß werden Einrichtungen und Verfahren geschaffen zum Verbessern der Segmentierung von einem dreidimensionalen B-Mode-Bild, indem das Volumen von Pixelintensitätsdaten, die auf die Bildebenen projiziert werden, begrenzt wird. Wenn der interessierende Bereich strömendes Blut enthält, d. h. eine Arterie oder Vene, kann die Doppler-Verschiebung, die in dem Ultraschall vorhanden ist, der von dem strömenden Blut re­ flektiert wird, detektiert bzw. erfaßt werden, um die Menge an Pixeldaten zu begrenzen, die für die dreidimensionale Bildgebung von der Arterie oder Vene auf verschiedene Bilde­ benen projiziert werden sollen.
Die Einrichtung gemäß der Erfindung weist einen Ultra­ schall-Scanner auf, der Farbströmungsmode-Bilder in einem Filmspei­ cher auf einer kontinuierlichen Basis oder als Antwort auf ein Trigger-Ereignis, d. h. für eine Vielzahl von Schnitten bzw. Scheiben, schneidet. In dem Farbströmungsmode weist jedes Pixel einen 8-Bit Intensitätswert, der von der Amplitu­ de von einem Echoantwortsignal von einem bestimmten Samplevo­ lumen abgeleitet ist, und einen 8-Bit Geschwindigkeits- oder Energie (power)-Wert auf, der von einer Doppler-Verschiebung abgeleitet ist, die in der gleichen Echoantwort von dem gleichen Samplevolumen detektiert bzw. erfaßt wird.
In dem Verfahren gemäß der Erfindung werden die Geschwindig­ keits- oder Energie(power)-Daten verwendet, um diejenigen B-Mode-Intensitätswerte zu identifizieren, die durch eine Hauptsteuerung auf eine Bildebene projiziert werden sollen. Dies wird dadurch erreicht, daß ein Referenzdatenvolumen von Pixeln lokalisiert wird, für das der Geschwindigkeits- oder Energie(power)-Wert größer als ein minimaler Schwellenwert oder kleiner als ein maximaler Schwellenwert oder beides ist. Gemäß einem bevorzugten Ausführungsbeispiel werden die Pixel in dem Referenzdatenvolumen durch diejenigen Geschwindig­ keits- oder Energie(power)-Werte ermittelt, die ungleich null sind. Dann wird das Referenzdatenvolumen verwendet, um ein Quelldatenvolumen zur Verwendung beim Rekonstruieren der projizierten Bilder zu definieren. Das Referenzdatenvolumen entspricht einem Objektvolumen, das sich bewegende Ultra­ schall-Streuteile enthält, z. B. strömendes Blut in einer Arterie oder Vene. Wenn ein Referenzdatenvolumen definiert ist, das einer Blutströmung entspricht, dann ist es eine relativ einfache Sache, ferner ein Quelldatenvolumen zu definieren, das das Referenzdatenvolumen enthält und in etwa einem Objektvolumen entspricht, das wenigstens die Arterie oder Vene umschließt, durch die die erfaßte Blutströmung hindurchfließt.
Gemäß einem bevorzugten Ausführungsbeispiel kann das Quellda­ tenvolumen dadurch gebildet werden, daß zunächst ein Objekt­ volumen ermittelt wird, das ein Kreiszylinder mit einer Mittellinie und einem vorbestimmten Radius ist, der der halben Abmessung entspricht, die durch aufeinanderfolgende Pixel mit einer Geschwindigkeits- oder Energie(power)- Komponente ungleich null definiert ist, und dann der Radius Komponente ungleich null definiert ist, und dann der Radius von dem gleichen Kreiszylinder um einen ausreichenden Betrag vergrößert wird, um ein größeres Objektvolumen zu definie­ ren, das die Arterie oder Vene umschließt. Die Abmessungen des Quelldatenvolumens werden dann gleich den Abmessungen von dem größeren Volumen gesetzt. Die Pixel innerhalb des Quell­ datenvolumens werden beim Rekonstruieren der Projektionen auf die verschiedenen Bildebenen verwendet. Pixel außerhalb des Quelldatenvolumens werden nicht verwendet, um diese Projek­ tionen zu rekonstruieren. Das Ergebnis ist ein B-Mode-Bild mit verbesserter Segmentation. Indem also die B-Mode- Inten­ sitätsdaten von nur denjenigen Pixeln in einem interessieren­ den Volumen verwendet werden, die entweder eine Geschwindig­ keits- oder Energie(power)-Komponente haben oder die inner­ halb eines vorbestimmten Abstands von Pixeln sind, die eine Geschwindigkeits- oder Energie(power)-Komponene haben, wird äußere Information eliminiert und die entstehende B-Mode-Projektion wird stark verbessert.
Die Hauptsteuerung führt einen Algorithmus aus, der die Pixelintensitätsdaten in dem interessierenden Volumen auf mehrere gedrehte Bildebenen projiziert, wobei eine Strahl­ wurf(ray casting)-Technik verwendet wird. Die projizierten Intensitätsdaten, die aus jeder Projektion entstehen, werden dann in dem Filmspeicher gespeichert, optional überlagert bzw. superpositioniert auf unprojizierte Intensitätsdaten aus dem letzten Vollbild (Frame), das vor dem "Einfrieren" des Systems durch die Bedienungsperson (Operator) aus dem X-Y Speicher ausgelesen ist. Die Intensitätsdaten werden in dem Filmspeicher so gespeichert, daß, wenn die Intensitätsdaten bildlich dargestellt werden, die projizierten Intensitätsda­ ten auf einem zentralen Bereich des dargestellten Bildes (Frame) überlagert bzw. superpositioniert werden, wobei die unprojizierten Intensitätsdaten auf dem Bildumfang darge­ stellt bzw. angezeigt werden. Diese rekonstruierten Bilder bzw. Frames, die in dem Filmspeicher gespeichert sind, können dann selektiv durch den Systemoperator bildlich dargestellt werden.
Die Erfindung wird im folgenden anhand von Ausführungsbei­ spielen unter Zuhilfenahme der Zeichnungen näher erläutert. Es zeigen:
Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio­ nalen Subsysteme innerhalb eines Echtzeit-Ultra­ schall-Bildgebungssystems zeigt;
Fig. 2 ein Blockschaltbild der Einrichtung zur Rekonstruktion der Bilder enthaltend aufeinanderfolgende volumetrische Projektionen von Pixelintensitätsdaten gemäß der Erfindung;
Fig. 3 ein Flußdiagramm, das die Schritte eines Algorithmus für die Rekonstruktion der Bilder unter Einschluß von aufein­ anderfolgenden volumetrischen Projektionen von Pixelintensi­ tätsdaten gemäß der Erfindung zeigt;
Fig. 3A ist ein Flußdiagramm und zeigt die Schritte, die beim Initialisieren des bevorzugten Ausführungsbeispiels der Erfindung auftreten;
Fig. 4 eine schematische Darstellung des abgetasteten inter­ essierenden Objektvolumens, ein zugeordnetes Datenvolumen sowie eine Bildprojektionsebene, die bei der volumetrischen Wiedergabe einer umgekehrten Strahlwurfprojektion gemäß dem Stand der Technik auftritt;
Fig. 5 eine schematische Darstellung, die ein Paar von geome­ trischen zweidimensionalen Konfigurationen entsprechend gleichen Ansichten von Objekt- und Datenvolumen zeigt, und die nützlich ist bei der Definition von notwendigen Skalier­ konstanten bei der dreidimensionalen Ultraschall-Bildgebung; und
Fig. 6 ein schematisches Blockschaltbild einer Einrichtung zur Lieferung einer Projektion mit maximaler Intensität bei der dreidimensionalen Ultraschall-Bildgebung.
Unter Bezugnahme auf Fig. 2 enthält die Hauptsteuerung 8 eine zentrale Verarbeitungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeord­ neten Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf, die für die Umsetzung der ermittelten Daten des Intensitäts­ volumens sowie der Geschwindigkeits- oder Energie (power)- Daten in eine Vielzahl von dreidimensionalen unter verschie­ denen Winkeln genommenen Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Speicher 18 und den Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere steuert die CPU 42 den Datenfluß von dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem Filmspeicher zum Video­ prozessor 22 und zur CPU 42 selbst. Wenn das Ultraschall-Bild­ gebungssystem im Farbstromungsmodus arbeitet, wird jedes (Voll-)Bild (Frame) von Farbströmungsdaten, das einen von mehreren Scans oder Schnitten durch das untersuchte Objekt repräsentiert, in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 übertragen. Ein das abgetastete Objektvolumen repräsentie­ render Stapel von Bildern bzw. Frames wird im Abschnitt 24A des Filmspeichers 24 gespeichert. Während der Initialisierung (vgl. Schritt 26 in Fig. 3) holt die CPU 42 vom Abschnitt 24A des Filmspeichers lediglich die einem interessierenden Ob­ jektvolumen entsprechenden Farbströmungsdaten. Dies wird bewerkstelligt, indem man lediglich die Farbströmungsdaten in einem interessierenden Gebiet von jedem gespeicherten Bild holt, das von irgendeinem Scan gewonnen wurde, der das inter­ essierende Volumen geschnitten hatte. Mit anderen Worten, die dem interessierenden Gebiet entsprechenden Farbströmungsdaten von jedem einen Bild eines Stapels von aufeinanderfolgenden Bildern bilden ein interessierendes Quelldatenvolumen.
Der Initialisierungsschritt ist in Fig. 3A genauer gezeigt. Gemäß dem bevorzugten Ausführungsbeispiel der Erfindung ist das interessierende Quelldatenvolumen eine Funktion von einem Referenzdatenvolumen, das durch diejenigen Pixel in dem interessierenden Volumen definiert ist, die eine Geschwindig­ keits- oder Energie(power komponente ungleich null haben (Schritt 26a). Das Referenzdatenvolumen entspricht einem ersten Objektvolumen, das sich bewegende Ultraschall- Streuteile enthält, z. B. strömendes Blut in einer Arterie oder Vene. Im Schritt 26b wird das erste Objektvolumen durch einen Kreiszylinder angenähert, der eine Mittellinie und einen ersten Radius hat, der durch die halbe Zahl aufeinan­ derfolgender Pixel mit einer Geschwindigkeits- oder Ener­ gie(power)komponente ungleich null bestimmt ist, die entlang dem Durchmesser von diesem Zylinder liegt. Der erste Durch­ messer sollte etwa gleich dem Innendurchmesser von der Arte­ rie oder Vene sein. Im Schritt 26b wird ein zweites Objektvo­ lumen in Form des ersten Objektvolumens in einer derartigen Weise definiert, daß das erste die Arterie oder Vene einschließt, die das zweite umschließt. Gemäß dem bevorzugten Ausführungsbeispiel wird das zweite Objektvolumen durch einen Kreiszylinder definiert, der eine Mittellinie hat, die koa­ xial zu der Mittellinie des ersten Objektvolumens ist, und der einen zweiten Radius hat, der um etwa die Wanddicke der abgebildeten Arterie oder Vene größer als der erste Radius ist. Das interessierende Quelldatenvolumen wird dann gebildet (Schritt 26d in Fig. 3A), indem aus dem Filmspeicher die Intensitätsdaten für nur diejenigen Pixel wiederhergestellt werden, die aus Echorückkehr- bzw. Antwortsignalen gewonnen wurden, die durch Sample- bzw. Probesignale reflektiert sind, die in dem ersten Objektvolumen liegen. Notwendigerweise enthält das Quelldatenvolumen diejenigen Pixel, die aus Echoantwortsignalen gewonnen wurden, die von strömendem Blut innerhalb der Arterie oder Vene reflektiert wurden (d. h. Pixel mit einer Geschwindigkeits- oder Energiekomponente ungleich null), und auch diejenigen Pixel, die aus Echoant­ wortsignalen gewonnen wurden, die von der Arterie oder Vene selbst reflektiert wurden.
Gemäß dem bevorzugten Ausführungsbeispiel der Erfindung wird das Quelldatenvolumen dadurch gebildet, daß ein interessie­ render Bereich für jeden Schnitt (Scheibe) gebildet wird, der ein in dem Filmspeicher gespeichertes Vollbild bzw. Frame von Daten hat. Jeder interessierende Bereich entspricht dem Schnitt der entsprechenden Scheibe mit dem zweiten Objektvo­ lumen. Für jede Scheibe sorgt die Hauptsteuerung für ein Wiederauffinden bzw. Wiederherstellen (Retrieval) von nur denjenigen Pixeln, die aus Echorückkehrsignalen gewonnen werden, die durch Sample- bzw. Probevolumen reflektiert werden, die in dem interessierenden Bereich liegen. Die Gesamtheit der gewonnenen Pixel bildet das Quelldatenvolumen, das dazu verwendet wird, um projizierte Bilder von demjenigen Abschnitt der Arterie oder Vene zu rekonstruieren, der inner­ halb des zweiten Objektvolumens von Interesse liegt. Pixel außerhalb des Quelldatenvolumens werden nicht verwendet, um diese projizierten Bilder zu rekonstruieren. Das Ergebnis ist ein projiziertes B-Mode-Bild mit verbesserter Segmentation.
Es wird noch einmal auf Fig. 3 bezug genommen; die Intensi­ tätsdaten in dem Quelldatenvolumen, d. h. der Pixeldatensatz, der dem zweiten Objektvolumen entspricht, wird optional vor der Projektion gefiltert (Schritt 28), um Fleckenrauschen (Speckle-Rauschen) zu glätten und Artefakte zu verringern. Dies vermeidet während der Projektion den Verlust von Daten aufgrund von Speckle-Rauschen. Beispielsweise erzeugen Blut­ gefäße weniger Echo als das umgebende Gewebe. Gefäße können deshalb unter Einsatz von Projektionen mit minimaler Intensi­ tät abgebildet werden. Alternativ werden im Umkehrvi­ deo/Minimum-Mode die Intensitätsdaten invertiert, um die Gefäße hell anstatt dunkel zu machen. Die Gefäße können dann unter Einsatz von Projektionen mit maximaler Intensität abgebildet werden. Um die Auswahl von maximalen Intensitäten, die helle Flecken im Gegensatz zu den gewünschten Pixeldaten sind, zu verhindern, kann vor der Projektion ein Filter zur Beseitigung solcher hellen Fleckintensitäten benutzt werden.
Das aus dem Filmspeicher 24 (vgl. Fig. 2) wiederhergestellte bzw. geholte Quelldatenvolumen kann von der CPU 42 gefiltert werden, indem man beispielsweise ein 3 × 3 Faltungsfilter mit einem 111 141 111 Kernel benutzt, d. h. das zentrale Pixel der Intensitätsdaten in jedem 3 × 3 Pixelarray in jedem Schnitt oder Bild wird ersetzt durch einen Intensitätswert, der proportional ist zu der Summe aus dem vierfachen Wert des zentralen Pixels plus der Summe aus den Werten der acht dieses Pixel umgebenden Pixel. Das gefilterte Quelldatenvolu­ men wird sodann im Speicher 44 abgespeichert (Schritt 30). In ähnlicher Weise kann ein Faltungsfilter benutzt werden, um schwarze Löcher in einem Bild vor der Projektion mit minima­ ler Intensität zu entfernen.
Als nächstes führt die CPU 42 unter Verwendung des im US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus (ray casting algorithm) eine Reihe von Transformationen durch. Die aufeinanderfolgenden Transformationen repräsentie­ ren Projektionen mit maximaler, minimaler oder durchschnitt­ licher Intensität, Geschwindigkeits- oder Energieprojektio­ nen, die unter winkelmäßigen Inkrementen, beispielsweise in Intervallen von 10°, innerhalb eines Winkelbereichs, z. B. von +90° bis -90°, vorgenommen werden. Die Winkelinkremente müssen jedoch nicht 10° sein; auch ist die Erfindung nicht auf einen bestimmten Winkelbereich begrenzt.
In Übereinstimmung mit der bei der vorliegenden Erfindung angewandten Strahlwurftechnik werden die volumetrisch wieder­ gegebenen Projektionsbilder einer Probe (Sample) 50 (vgl. Fig. 4) unter irgendeinem willkürlichen Betrachtungswinkel zur Anzeige gebracht, z. B. einem sphärischen Projektionswin­ kel, der durch die Winkelparameter (θ, Φ) bezeichnet wird, wobei θ der Winkel ist, den eine Verlängerung 58' eines Betrachtungsstrahls 58 auf der X-Y Ebene bildet, und wobei Φ der Winkel des Strahls 58 bezogen auf die Verlängerung 58' ist, und zwar beim Scannen eines Objektvolumens 52 mittels eines Ultraschallwandlers. Das Samplevolumen 52 wird in einer derartigen Weise abgetastet, daß man eine Folge von geschich­ teten benachbarten Schnitten (Slices) oder Scheiben OS1, OS2 . . ., OSk erzeugt, von denen jede dieselbe Anzahl von Objekt­ volumenelementen (voxels) OV enthält. Jedes Voxel besitzt ein rechteckiges Profil in der Scheibenebene (z. B. in der X-Y Ebene); während die komplementären Seiten von gleicher Länge S sein können, so daß dieses Profil ein Quadrat sein kann, ist die Scheibendicke T im allgemeinen nicht gleich mit der Länge von jeder Seite. Somit enthält der erste Objektschnitt OS1 eine erste Anzahl von Objektvoxel OVij,1, wobei i und j die jeweiligen Positionen des Voxels auf der X-Achse und auf der Y-Achse sind. In gleicher Weise enthält der zweite Ob­ jektschnitt OS2 Objektvoxel OVij,2. Ein willkürlicher Objekt­ schnitt OSk enthält Voxel OVij,k, wobei k die Position dieses Voxels auf der Z-Achse bedeutet.
Jedes Objektvoxel OVij,k wird analysiert und sein Datenwert (Intensität, Geschwindigkeit oder Energie) wird in ein ent­ sprechendes Datenvoxel DVij,k eines Datenvolumens 54 plaziert. Das Datenvolumen 54 ist ein einfaches kubisches i, j, k Gitter, obwohl die Dicke eines jeden Objektschnitts OSk und jede Flächengröße eines Objektvoxels (die Größe des Voxels in der X-Y Ebene) im allgemeinen nicht dieselbe sein werden. Das bedeutet, es kann nicht nur das Objektvolumen unterschiedli­ che Dimensionen X, Y und Z für jedes Voxel aufweisen, sondern es braucht auch die insgesamte Anzahl von Voxel in irgendei­ ner Dimension nicht dieselbe zu sein. Beispielsweise kann ein typischer dreidimensionaler Ultraschall-Scan jeden Schnitt mit einer 256 × 256 Voxel enthaltenden Matrix liefern und 128 Schnitte betreffen.
Gemäß einer von der CPU 42 angewandten bekannten Technik wird ein Bild des Objekts 50 projiziert (Schritt 34 in Fig. 3) durch Projektion eines Strahls von einem Gitterpunkt im Datenvoxel DVij,k in Richtung auf die Bildebene 56. Der Ein­ fachheit halber kann der Gitterpunkt beispielsweise die am nächsten an dem Datenvolumenursprung liegende Datenvoxelspit­ ze sein. Der geworfene oder Projektionsstrahl 62 tritt aus dem Datenvolumen 54 unter einem Projektionswinkel mit sphäri­ schen Winkelparametern (α, β) aus, die aus den sphärischen Winkelparametern (θ, Φ) transformiert wurden, unter denen das Objektvolumen 52 betrachtet wird. Diese beiden Winkel sind nicht gleich, und zwar aufgrund der geometrischen Verzerrung, die durch die Benutzung eines kubischen Datenvolumens 54 zusammen mit einem nicht-kubischen Objektvolumen 52 verur­ sacht wird. Der projizierte Strahl 62 weist jedoch eine Verlängerung 62' in der x- y Ebene auf, die einen Winkel α mit Bezug auf die x Achse des Datenvolumens bildet, und der Strahl 62 bildet einen Winkel β mit der Z Achse. Somit werden die Winkel α und β bestimmt durch einen (nachfolgend zu beschreibenden) Rotationsprozeß, um der Betrachtung des Objektvolumens 52 unter dem gewünschten Betrachtungswinkel (θ, Φ) zu entsprechen (unter der Annahme eines Betriebs mit sphärischen Koordinaten). Jeder der Strahlen 62 wird von dem Voxel-Gitterpunkt des Datenvolumens in Richtung auf die Bildebene projiziert.
Obwohl alle Strahlen 62 auf irgendeinen Bereich der Bildebene auftreffen, wird nur den in das betrachtete Bildebenenpixel 60a fallenden Strahlen erlaubt, zu den Daten für dieses Bildebenenpixel beizutragen. Hat man somit einen Teil des Objektvolumens 52 zur Betrachtung ausgewählt sowie einen Betrachtungswinkel (θ, Φ), unter dem dieses ausgewählte Objektvolumen betrachtet werden soll, wird der Datenwert in jedem Voxel des entsprechenden Teils von dem Datenvolumen unter einem Winkel (α, β) (entsprechend der Betrachtung des verzerrten Datenvolumens mit Bezug auf das Objektvolumen) in Richtung auf die Bildebene 56 projiziert. Der Datenwert in einem ersten Voxel (zum Beispiel Voxel DVi,1,k), wird somit in Übereinstimmung mit den gewählten Werten θ und Φ entlang dem Strahl 62a rückprojiziert. Dieser Strahl 62a trifft bei einer Position 64a innerhalb des Pixels 60a auf die Bildebene 56 auf, und weil dies der erste auf dieses Pixel auftreffende Strahl ist, wird der Intensitäts-, Geschwindigkeits- oder Energiewert des auftreffenden Strahls dem gewünschten Pixel 60a zugeteilt (bzw. darin gespeichert). Das nächste Voxel in dem Datenvolumen (z. B. Voxel DVi,2,k) hat seinen zugehörigen Strahl 62b unter derselben winkelmäßigen (α, β) Konfiguration vom Voxel-Gitterpunkt projiziert, und seine Position 64b auf der Bildebene 56 wird festgehalten. Unter der Annahme, daß diese Auftreffposition 64b im gewünschten Pixel 60a liegt, wird der zweite projizierte Wert (für eine Maximalpixelpro­ jektion) mit dem nun gespeicherten ersten Wert verglichen, und es wird der größere Wert im Speicher für das Pixel 60a plaziert. Es wird verständlich sein, daß für eine Projektion mit einem Durchschnittswert der Wert eines laufenden proji­ zierten Datenvoxels zu der bereits gespeicherten Summe für das Bildfeldpixel (image panel pixel), auf das der Projekti­ onsstrahl auftrifft, hinzuaddiert wird, und die Summe schließlich durch eine gezählte Anzahl von solchen auftref­ fenden Strahlen für dieses Pixel geteilt wird. Da jedes Voxel in dem ausgewählten Datenvolumen sequentiell eingegeben und in Richtung auf die Bildebene 56 projiziert wird, wird schließlich ein Datenvolumenvoxel (z. B. Voxel DVi,3,k) ent­ lang seinem zugehörigen Strahl 62p projiziert und trifft nicht innerhalb des gewünschten Pixels 60a auf, so daß sein Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für das Pixel 60a gespeicherten Datenwert verglichen wird. Es wird nun für diese Projektion von Daten bei dem bestimmten (θ, Φ) dreidimensionalen Betrachtungswinkel der maximale Datenwert für das Pixel 60a festgelegt. Tatsächlich weist der Strahl 62p jedoch einen Auftreffpunkt 64p auf, der in ein anderes Pixel (z. B. Pixel 60b) der Bildebene fällt; er wird mit dem darin gespeicherten Datenwert verglichen und der nach dem Vergleich sich ergebende größere Wert wird in den Spei­ cher für dieses Pixel zurückgeführt. Alle Datenwerte werden auf Null zurückgesetzt, wenn eine neue Projektion erfolgen soll. Somit wird jedes der Pixel der Bildebene beim Start einer Bildprojektionsprozedur rückgesetzt, und alle Datenvo­ lumenvoxel (in dem gesamten Raum oder in dem ausgewählten Teil, wie durch den Teil des ausgewählten Objektvolumens 52 festgelegt) werden einzeln und sequentiell abgetastet. Der Datenwert in jeden Datenvoxel DV wird durch einen zugeordne­ ten Strahl 62 so projiziert, daß er in einem Pixel 60 davon auf die Bildebene 56 auftrifft, wobei der Maximalwert in jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten Datenvolumenvoxels verglichen wird, um den größeren davon zu bestimmen, welcher größere Wert sodann als Teil des Maximal­ wertbildes gespeichert wird. In der Praxis wird für eine maximale Pixelprojektion der gespeicherte Maximalwert ledig­ lich dann verändert, wenn der neuerliche Wert des projizier­ ten Datenvoxels größer ist als der bereits für das Bildebe­ nenpixel gespeicherte Datenwert, auf den der neuerliche Projektionsstrahl auftrifft.
Gemäß einem anderen Aspekt der obigen Technik wird die Daten­ projektion (im Schritt 36 in Fig. 3) skaliert und es wird eine etwaige Anisotropie zwischen dem Objektvolumen und der Bildebene durch lediglich einen einzigen Satz von Berechnun­ gen beseitigt, nachdem die Rückprojektion abgeschlossen ist. Es wird nun auf Fig. 5 Bezug genommen. Da es sich bei dem Objektvolumen 52 um ein reales Volumen handelt, während es sich bei dem Datenvolumen 54 um ein abstraktes Konzept han­ delt, ist es nötig, den Betrag der Verzerrung der Projekti­ onsdaten aufgrund der Darstellung des kubischen Datenvolumen­ gitters 54 unter einem unterschiedlichen Winkel γ in einer ersten Ebene zu bestimmen und sodann den Winkel ψ, unter dem eine willkürliche Betrachtungsrichtung 66 mit Bezug sowohl auf das Objektvolumen 52 als auch auf das Datenvolumen 54 positioniert wird. Die offenbaren Dimensionen von jedem Voxel werden sich in dem Maße ändern, wie sich die effektiven Erhebungswinkel ψ und γ ändern. Wenn das Aspektverhältnis A (definiert als das Verhältnis der tatsächlichen Scheibendicke T im Objektvolumen 52 zur tatsächlichen Pixelgröße S in demselben Objektvolumen 52) nicht eins beträgt (d. h. größer oder gleich eins ist, da das Objektvoxel kein kubisches Voxel ist, wie man es beim Datenvolumen 54 antrifft), dann werden die Erhebungswinkel ψ und γ verschieden sein, und der effek­ tive Erhebungswinkel ω im Datenvolumen wird gegenüber dem tatsächlichen Erhebungswinkel y in dem Objektvolumen unter­ schiedlich sein. Die Rotation der Daten erfolgt gemäß einem Objekterhebungswinkel, der erhalten wird durch:
Danach können die projizierten Daten so skaliert werden, daß sie (wenn die Drehung um die horizontale Achse erfolgt) die korrekte Höhe in dem Objektvolumen erhalten, und zwar durch eine Multiplikation aller projizierten Datenhöhen mit dem Höhenskalierungsfaktor. Die alte projizierte Bildhöhe H kann mit einem effektiven Skalierungsfaktor Es korrigiert werden, wobei gilt
und die neue Höhe H' = H.Es ist. Dasselbe trifft für die Breite zu, wenn die Drehung um die vertikale Achse erfolgt.
Unter Verwendung der obigen Beziehung führt die Rotation der Datenvolumenwinkel (α, β) zu den Winkeln (θ, Φ), weil die Verzerrung lediglich entlang einer Achse auftritt, so daß der Winkel θ gleich dem Winkel α ist. Die Elemente der 3 × 3 Rotationsmatrix [M] können bestimmt werden, und bei den gege­ benen zwei in Betracht kommenden Drehungswinkeln werden diese Beziehungen benutzt, um die Transformationen vom Datenvolumen zur Bildebene zu bestimmen:
X' = M1X + M2Y + M3Z + XO
Y' = M4X + M5Y + M6Z + YO
wobei M1-M6 die ersten beiden Zeilen der Rotationsmatrix sind (d. h. M1 = -sinθ, M2 = cosθ sinψ, M3 = 0, M4 = -cosθ sinψ2, M5 = -sinθ sinψ und M6 = cosψ), X' und Y' die Posi­ tionen des projizierten Punktes auf der Bildebene sind, und wobei XO und YO die X und die Y Versetzungen (jeweils bezogen auf die niedrigsten X und Y Punktwerte) der Bildebene sind, bei denen der ausgewählte Teil der Bildebene beginnt. Nachdem die Daten auf die Bildebene 56 projiziert sind, wird das Bild zur Korrektur des Effekts der anisotropen Objektvoxel ska­ liert. Es wird ersichtlich sein, daß die Faktoren M1-M6 zu Beginn einer Projektion (bei gegebenen θ und Φ) vorberechnet (Schritt 32 in Fig. 3) und für alle Rotationsberechnungen benutzt werden können.
Fig. 6 zeigt eine Einrichtung zur Durchführung der oben beschriebenen Strahlwurftechnik, die in der Hauptsteuerung 8 (oder in einem separaten zugeordneten Prozessor) vorgesehen ist. Eine derartige Einrichtung weist eine dreidimensionale Datenspeichereinrichtung 70 zum Speichern von Schnittdaten auf, wie sie an einem Dateneingang 70a vom Filmspeicher 24 erhalten werden. Die mit jedem Objektvoxel zusammenhängenden Daten werden bei der Adresse des betreffenden Voxels gespei­ chert, und zwar als Reaktion auf eine Eingangsinformation für die Voxeladresse, die an einem Voxeladresseingang 70b von einer CPU 74 erhalten wird. Sobald die Datenspeichereinrich­ tung gefüllt ist (entsprechend der Übertragung aller erfor­ derlichen Daten vom Objektvolumen 52 zum Datenvolumen 54), wird der interessierende Teil des Objektvolumens ausgewählt, und es werden seine Startecke sowie die Ausdehnung in den X, Y und Z Richtungen festlegende Daten von der CPU 74 an einem Eingang 72a einer Adressgeneratoreinrichtung 72 gesandt. Die Einrichtung 72 liefert sequentiell an einem Adressausgang 72b die X, Y und Z Adressen für jedes Voxel innerhalb des ausge­ wählten Objektvolumens. Der Ausgang 72b ist mit einem Aus­ gangsdatenadresseingang 70c der Datenspeichereinrichtung 70 verbunden, welche veranlaßt, daß die gespeicherten Intensi­ tätsdaten für das betreffende eine sodann adressierte Voxel vom Datenspeicherausgang 70d ausgegeben werden. Die Aufeinan­ derfolge der X, Y und Z Voxeladressen wird ebenfalls an einen ersten Eingang 76a einer Berechnungseinrichtung 76 für die Rotationsparameter gegeben, welche Einrichtung über die CPU 74 die Winkelinformation (α, β) als die berechneten Matrixe­ lementwerte M1-M6 erhält, um an einem Ausgang 76c die Adresse X', Y' des Bildebenenpixel bereitzustellen, das diesem Objektpixel X, Y, Z entspricht, wenn man es unter einem ausgewählten Betrachtungswinkel (θ, Φ) betrachtet. Die Information für den Betrachtungswinkel (θ, Φ) wird in das System eingegeben und von der CPU 74 verarbeitet. Die Ergeb­ nisse werden an die Eingänge 78b und 78c einer Sichtmatrix­ einrichtung 78 gegeben, um Matrixelemente M1-M6 an ihrem Ausgang 78a und damit an der Berechnungseinrichtung 76 für die Drehungsparameter vorzusehen. Die Pixeladresse X', Y' in der Bildebene erscheint an einem Adresseingang 80a eines Bildpufferspeichers, der als eine Bildebenenspeichereinrich­ tung 80 wirkt. Gleichzeitig erscheinen die von dem Datenvolu­ men zur Projektionsebene projizierten Intensitätsdaten vom Ausgang 70d der dreidimensionalen Datenspeichereinrichtung an dem Eingang 80b für neue Daten der Bildebenenspeichereinrich­ tung. Diese Daten erscheinen ebenfalls am Eingang 82a für neue Daten einer Datenvergleichseinrichtung 82. Zuvor in der Bildebenenspeichereinrichtung 80 für diese Adresse gespei­ cherte Intensitätsdaten am Eingang 80a erscheinen an einem Ausgang 80c für alte Daten und damit an einem Eingang 82b für alte Daten in der Vergleichseinrichtung. Die alten und neuen Daten an den jeweiligen Eingängen 82b/82a werden in der Einrichtung 82 verglichen, und ein Ausgang 82c davon wird auf einen ausgewählten logischen Zustand gesetzt (z. B. einen oberen logischen Pegel), wenn die neuen Daten am Eingang 82a eine größere Amplitude aufweisen als die alten Daten am Eingang 82b. Der Ausgang 82c ist mit einem Eingang 80d der Bildebenenspeichereinrichtung für Ersatz-(substitute)Steu­ erdaten verbunden um zu veranlassen, daß die unter der vom Eingang 80a gesteuerten Adresse gespeicherten Daten geändert werden, um neue Daten am Eingang 80b anzunehmen, wenn sich der Steuereingang für die Ersatzdaten 80d auf dem gewählten logischen Pegel befindet. Somit werden die gespeicherten Daten zu Anfang rückgesetzt, wie bei einem Signal durch einen Daten/Steuereingang 80e (von der CPU 74), und es werden die Daten mit dem größten Wert für jede Pixelstelle X', Y' in der Bildebene gespeichert, und zwar als Antwort auf einen Ver­ gleich, der anzeigt, ob die neuen Daten den Wert der zuvor gespeicherten alten Daten übersteigen. Nachdem alle der ausgewählten Adressen sequentiell vom Adressgenerator 72 abgetastet worden sind, werden die in der Bildebenenspei­ chereinrichtung 80 gespeicherten Daten in der CPU 74 ska­ liert, und die skalierten Bildebenendaten können von der Speichereinrichtung 80 zur Anzeige, zur permanenten Speiche­ rung oder zu ähnlichen Zwecken entnommen werden.
Gemäß einem weiteren Aspekt der Erfindung werden die skalier­ ten Bildebenendaten vor einer Anzeige (Display) kartiert (mapped), um eine gewünschte Helligkeit sowie einen gewünsch­ ten Kontrastbereich zu erzielen (Schritt 38 in Fig. 3) Beim Einlesen des interessierenden Bereichs für die Quellbilder, auf dem die dreidimensionale Rekonstruktion basiert, wird als Option ein Histogramm der Anzahl von Pixel mit einer gegebe­ nen Intensität in der Hauptsteuerung 8 erstellt. Alternativ kann das Histogramm unter Benutzung der projizierten Bilder gebildet werden. Zur selben Zeit wird die maximale Pixelin­ tensität bestimmt. Es werden die Pixel in jedem Bereich (bin) gezählt, bis ein vorgegebener Prozentsatz der insgesamten Anzahl von Pixel erreicht ist. Diese Bereichszahl (bin num­ ber) wird die Pixelschwelle. Es wird sodann eine Karte er­ zeugt, und zwar derart, daß jeder Pixelwert mit der gewünsch­ ten Helligkeit und dem gewünschten Kontrastbereich über oder unter der Pixelschwelle abhängig von dem beabsichtigten Ergebnis kartiert wird.
Das in Fig. 3 gezeigte Verfahren wird angewendet auf die Intensitätsdaten für das interessierende, von dem Filmspei­ cher wiedergegebene Datenvolumen. Jedes Pixel in dem proji­ zierten Bild schließt die transformierten Intensitätsdaten ein, welche durch Projektion auf eine vorgegebene Bildebene abgeleitet wurden. Zusätzlich speicherte während der Zeit, in welcher der Filmspeicher vom Bediener "eingefroren" war, die CPU 42 das letzte Bild (frame) aus dem XY Speicher 18 unter mehrfachen aufeinanderfolgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die projizierten Bilddaten für den ersten projizierten Betrachtungswinkel werden in die erste Adresse im Filmspeicherabschnitt 24B eingeschrieben, so daß die projizierten Bilddaten in einem interessierenden Bereich dem Hintergrundbild (background frame) überlagert werden. Dieser Prozeß wird für jede Winkelzunahme wiederholt bis alle projizierten Bilder im Filmspeicherabschnitt 24B gespeichert sind, wobei jeder projizierte Bildrahmen aus einem interes­ sierenden Gebiet besteht, das transformierte Daten und als Option einen Peripheriehintergrund enthält, der das interes­ sierende Gebiet umgibt und aus Hintergrundbilddaten besteht, die nicht von transformierten Daten aus dem interessierenden Gebiet überschrieben sind. Das Hintergrundbild macht es deutlicher, von wo aus jede zur Darstellung gebrachte Projek­ tion betrachtet wird. Der Bediener kann dann jedes projizier­ te Bild für die Darstellung auswählen. Zusätzlich kann die Abfolge der projizierten Bilder erneut auf dem Displaymonitor abgespielt werden, um das Objektvolumen so darzustellen, als wenn es vor dem Betrachter rotieren würde.
Das erfindungsgemäße Verfahren ist nicht begrenzt in bezug auf die Geometrie des Quellobjektvolumens. Zwar ist ein kreiszylinderförmiges Quellobjektvolumen bevorzugt, wenn eine Arterie oder Vene bildlich dargestellt wird, aber es können auch andere Geometrien verwendet werden. Das Grundkonzept der Erfindung umfaßt die Formulierung von einer Quellobjektvolu­ mengeometrie, die eine Funktion des Objektvolumens ist, in dem sich bewegende Ultraschall-Streuteile vorhanden sind.
Weiterhin ist zwar ein bevorzugtes Ausführungsbeispiel offen­ bart worden, bei dem B-Mode-Intensitätsdaten projiziert werden, wenn der zugeordnete Strömungsgeschwindigkeits- oder Energie(power)-Wert ungleich null ist, es sei aber darauf hingewiesen, daß die Erfindung nicht auf die Gewinnung von Pixeldaten beschränkt ist, wenn die Größe der Geschwindig­ keits- oder Energie(power)-Komponente nicht gleich null ist. Für einige Anwendungen kann die Gewinnung von B-Mode-In­ tensitätsdaten dadurch gesteuert werden, daß nur diejenigen Geschwindigkeits- oder Energie(power)-Werte erfaßt werden, die über einem minimalen Schwellenwert oder unter einem maximalen Schwellenwert oder beides liegen. Beispielsweise können Geschwindigkeiten größer als null, aber kleiner als ein vorbestimmter Schwellenwert erfaßt werden, um ein Refe­ renzdatenvolumen zu definieren, das der Blutströmung in einer Grenzschicht benachbart zur Wand von einem Gefäß entspricht.
Das oben beschriebene Ultraschall-Bildgebungssystem hat mehrere verschiedene Projektionsmoden. Beispielsweise kann die Projektion Maximalwert- oder Minimalwert-Pixel enthalten. Alternativ kann ein für die Darstellung von Blutgefäßen nützlicher Mode ausgewählt werden, bei dem die Pixeldaten invertiert und dann die Maximalwerte auf die Bildebene proji­ ziert werden. Gemäß einem weiteren Modus kann die Strahlwurf­ technik eingesetzt werden, um eine Oberflächenwiedergabe (Oberflächen-Rendering) zu liefern.
Das vorstehende bevorzugte Ausführungsbeispiel wurde zum Zwecke der Veranschaulichung beschrieben. Abänderungen und Modifikationen des Grundkonzepts der Erfindung werden sich unschwer für Fachleute auf dem Gebiet der Ultraschallbildge­ bung oder der Computergrafik ergeben. Alle derartigen Abände­ rungen und Modifikationen sollen durch die nachfolgend aufge­ führten Ansprüche mitumfaßt werden.

Claims (20)

1. Einrichtung zur dreidimensionalen Bildgebung eines Ob­ jektvolumens, das sich bewegende Ultraschall-Streuteile und Gewebe enthält, enthaltend:
ein Ultraschall-Wandler-Array zum Aussenden von Ultra­ schall-Bündeln und zum Erfassen von Ultraschall-Echos, die von dem Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen reflektiert werden;
eine Einrichtung zum Gewinnen von Doppler-Daten, die wenigstens teilweise aus Ultraschall-Echos abgeleitet werden, die durch die sich bewegenden Ultraschall- Streuteile reflektiert werden, wobei jedes Doppler- Datum einem entsprechenden aus der Vielzahl von Sample- bzw. Probevolumen entspricht;
eine Einrichtung zum Gewinnen von Intensitätsdaten, die wenigstens teilweise aus Ultraschall-Echos abgeleitet sind, die durch das Gewebe reflektiert werden, wobei jedes Intensitätsdatum einem entsprechenden aus der Vielzahl von Sample- bzw. Probevolumen entspricht;
eine Speichereinrichtung zum Speichern von Pixeldaten für jedes der vielen Sample- bzw. Probevolumen, wobei jedes Pixeldatum ein entsprechendes Doppler-Datum und ein entsprechendes Intensitätsdatum aufweist, das einem entsprechenden Sample- bzw. Probevolumen entspricht;
eine Einrichtung zum Ermitteln eines Referenzsatzes der in der Speichereinrichtung gespeicherten Pixeldaten, wobei der Referenzpixel-Datensatz nur aus Pixeldaten mit einem Doppler-Datum besteht, das in einem vorbe­ stimmten Bereich liegt;
eine Einrichtung zum Wiedergeben eines Quellsatzes der Pixeldaten aus der Speichereinrichtung, wobei die Pi­ xel, die in dem Quellpixel-Datensatz enthalten sind, eine Funktion der Pixel sind, die in dem Referenzpixel- Datensatz enthalten sind;
eine Einrichtung zum Projizieren der Intensitätsdaten in dem Quellpixel-Datensatz auf eine erste Bildebene, wodurch ein projizierter Intensitätsdatensatz gebildet wird, der ein erstes projiziertes Bild darstellt;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Pixel, die in dem Quellpixel-Datensatz enthal­ ten sind, von Echorückkehr- bzw. Antwortsignalen abge­ leitet werden, die von Sample- bzw. Probevolumen des Objektvolumens reflektiert sind, und das Objektvolumen eine Abmessung hat, die größer als eine entsprechende Abmessung ist, die aus dem Referenzpixel-Datensatz er­ mittelt ist.
3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, daß das Objektvolumen ein Kreiszylinder ist und die Quellabmessung ein Radius von dem Kreiszylinder ist.
4. Einrichtung nach Anspruch l, dadurch gekennzeichnet, daß die Doppler-Daten Geschwindigkeitsdaten aufweisen.
5. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Doppler-Daten Energie(Power)-Daten aufweisen.
6. Einrichtung nach Anspruch 1, gekennzeichnet durch:
eine Einrichtung zum Projizieren der Intensitätsdaten in dem Quellpixel-Datensatz auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wo­ durch ein projizierter Datensatz gebildet wird, der ein zweites projiziertes Bild darstellt, und
eine Einrichtung zum bildlichen Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
7. Verfahren zur dreidimensionalen Bildgebung von einem Objektvolumen, das sich bewegende Ultraschall-Streu­ teile und Gewebe enthält, enthaltend die Schritte:
Aussenden von Ultraschall-Bündeln in das Objektvolumen, Erfassen von Ultraschall-Echos, die von dem Objektvolu­ men an einer Vielzahl von Sample- bzw. Probevolumen re­ flektiert werden;
Gewinnen von Doppler-Daten, die wenigstens teilweise von Ultraschall-Echos abgeleitet werden, die durch die sich bewegenden Ultraschall-Streuteile reflektiert wer­ den, wobei jedes Doppler-Datum einem entsprechenden der vielen Sample- bzw. Probevolumen entspricht;
Gewinnen von Intensitätsdaten, die wenigstens teilweise von Ultraschall-Echos abgeleitet werden, die durch das Gewebe reflektiert werden, wobei jedes Intensitätsdatum einem entsprechenden der vielen Sample- bzw. Probevolu­ men entspricht;
Speichern von Pixeldaten für jedes der vielen Sample- bzw. Probevolumen, wobei jedes Pixeldatum ein entspre­ chendes Doppler-Datum und ein entsprechendes Intensitätsdatum aufweist, die einem entsprechenden Sample- bzw. Probevolumen entsprechen;
Ermitteln eines Referenzsatzes der gespeicherten Pi­ xeldaten, wobei der Referenzpixel-Datensatz nur aus Pi­ xeldaten mit einem Doppler-Datum besteht, die in einem vorbestimmten Bereich liegen;
Wiedergeben eines Quellsatzes der Pixeldaten aus den gespeicherten Pixeldaten, wobei die in dem Quellpixel- Datensatz enthaltenen Pixel eine Funktion der Pixel sind, die in dem Referenzpixel-Datensatz enthalten sind;
Projizieren der Intensitätsdaten in dem Quellpixel- Datensatz auf eine erste Bildebene, wodurch ein proji­ zierter Intensitätsdatensatz gebildet wird, der einem ersten projizierten Bild entspricht; und
bildliches Darstellen des ersten projizierten Bildes.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die in dem Quellpixel-Datensatz enthaltenen Pixel von Echorückkehrsignalen abgeleitet wurden, die von Sample- bzw. Probevolumen des Objektvolumens reflektiert wer­ den, und das Objektvolumen eine Abmessung hat, die grö­ ßer als eine entsprechende Abmessung ist, die aus dem Referenzpixel-Datensatz ermittelt wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Objektvolumen ein Kreiszylinder ist und die Quellabmessung ein Radius von dem Kreiszylinder ist.
10. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Wiedergabeschritt die folgenden Schritte enthält:
Ermitteln einer Mittellinie und einer ersten Abmessung von einem ersten Objektvolumen, das durch die vielen Sample- bzw. Probevolumen gebildet wird, das sich bewe­ gende Ultraschall-Streuteile enthält;
Ermitteln einer Dicke von Gewebe benachbart zu den sich bewegenden Ultraschall-Streuteilen;
Definieren eines zweiten Objektvolumens mit der Mittel­ linie und einer zweiten Abmessung, die wenigstens gleich der Summe von der ersten Abmessung und der Dicke ist; und
Bilden des Quellpixel-Datensatzes, indem die Pixeldaten wiedergegeben werden, die aus Echorückkehrsignalen ab­ geleitet werden, die durch Sample- bzw. Probevolumen in dem zweiten Objektvolumen reflektiert werden.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die ersten und zweiten Objektvolumen konzentrische Kreiszylinder mit ersten bzw. zweiten Radien sind, wo­ bei die erste Abmessung gleich dem ersten Radius und die zweite Abmessung gleich dem zweiten Radius ist.
12. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Doppler-Daten Geschwindigkeitsdaten aufweisen.
13. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Doppler-Daten Energie (Power)-Daten aufweisen.
14. Verfahren nach Anspruch 7, gekennzeichnet durch:
Projizieren der Intensitätsdaten in dem Quellpixel- Datensatz auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wodurch ein projizierter Datensatz gebildet wird, der ein zweites projiziertes Bild darstellt, und
bildliches Darstellen des zweiten projizierten Bildes.
15. Verfahren zur dreidimensionalen Bildgebung von einem Objektvolumen, das sich bewegende Ultraschall- Streuteile enthält, die durch Gewebe begrenzt sind, enthaltend die Schritte:
Aussenden von Ultraschall-Bündeln in das Objektvolumen;
Erfassen von Ultraschall-Echos, die von dem Objektvolu­ men an einer Vielzahl von Sample- bzw. Probevolumen re­ flektiert werden;
Verarbeiten des Ultraschall-Echos aus jedem Sample- bzw. Probevolumen, um ein entsprechendes Doppler-Datum zu gewinnen;
Verarbeiten des Ultraschall-Echos aus jedem Sample- bzw. Probevolumen, um ein entsprechendes Intensitätsdatum zu gewinnen;
Korrelieren der Doppler-Daten mit den Intensitätsdaten, um ein entsprechendes Pixeldatum für jedes Sample- bzw. Probevolumen zu bilden, wobei die Pixeldaten einen er­ sten Satz von Pixeldaten mit einer Doppler-Komponente oberhalb eines vorbestimmten Schwellenwertes und einen zweiten Satz von Pixeldaten mit einer Doppler-Komponente unterhalb des vorbestimmten Schwellenwertes aufweisen, wobei der zweite Pixeldatensatz auf Pixelda­ ten begrenzt ist, die aus Sample- bzw. Probevolumen in einem ersten Objektvolumen mit einer vorbestimmten Re­ lation zu einem zweiten Objektvolumen gewonnen werden, das durch Sample- bzw. Probevolumen gebildet wird, die die sich bewegenden Ultraschall-Streuteile enthalten, wobei die vorbestimmte Relation eine Funktion von der Konfiguration des Gewebes ist, das die sich bewegenden Ultraschall-Streuteile begrenzt;
Gewinnen eines Quellsatzes von Intensitätsdaten, wobei der Quellintensitäts-Datensatz wenigstens Intensitätsdaten enthält, die aus dem zweiten Satz von Pixeldaten genommen sind;
Projizieren des Quellsatzes von Intensitätsdaten auf eine erste Bildebene, um ein erstes projiziertes Bild von Gewebe zu bilden; und
bildliches Darstellen des ersten projizierten Bildes von Gewebe.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die ersten und zweiten Objektvolumen konzentrische Kreiszylinder mit ersten bzw. zweiten Radien sind, wo­ bei der erste Radius großer als der zweite Radius ist.
17. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die Doppler-Daten Geschwindigkeitsdaten aufweisen.
18. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die Doppler-Daten Energie(Power)-Daten aufweisen.
19. Verfahren nach Anspruch 15, gekennzeichnet durch:
Projizieren des Quellsatzes von Intensitätsdaten auf eine zweite Bildebene, die relativ zu der ersten Bilde­ bene gedreht ist, um ein zweites projiziertes Bild von Gewebe zu bilden, und
bildliches Darstellen des zweiten projizierten Bildes von Gewebe.
20. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß der Quellintensität-Datensatz keine Intensitätsdaten enthält, die von Sample- bzw. Probevolumen abgeleitet sind, die außerhalb des ersten Objektvolumens angeord­ net sind.
DE19819892A 1997-05-07 1998-05-04 Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung Expired - Fee Related DE19819892B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/852,259 US5899863A (en) 1997-05-07 1997-05-07 Method and apparatus for segmenting B-mode intensity data using doppler shift data in three-dimensional ultrasound imaging
US852259 1997-05-07

Publications (2)

Publication Number Publication Date
DE19819892A1 true DE19819892A1 (de) 1998-11-12
DE19819892B4 DE19819892B4 (de) 2007-06-28

Family

ID=25312874

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819892A Expired - Fee Related DE19819892B4 (de) 1997-05-07 1998-05-04 Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung

Country Status (4)

Country Link
US (1) US5899863A (de)
JP (1) JP4204095B2 (de)
DE (1) DE19819892B4 (de)
IL (1) IL124169A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2870710A1 (fr) * 2004-06-01 2005-12-02 Gen Electric Procede et dispositif pour mesurer des structures anatomiques

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
US6048312A (en) * 1998-04-23 2000-04-11 Ishrak; Syed Omar Method and apparatus for three-dimensional ultrasound imaging of biopsy needle
JP4260920B2 (ja) * 1998-05-13 2009-04-30 株式会社東芝 超音波診断装置
US6126601A (en) * 1998-10-29 2000-10-03 Gilling; Christopher J. Method and apparatus for ultrasound imaging in multiple modes using programmable signal processor
US6102861A (en) * 1999-04-23 2000-08-15 General Electric Company Method and apparatus for three-dimensional ultrasound imaging using surface-enhanced volume rendering
US6413219B1 (en) 1999-03-31 2002-07-02 General Electric Company Three-dimensional ultrasound data display using multiple cut planes
US6322505B1 (en) 1999-06-08 2001-11-27 Acuson Corporation Medical diagnostic ultrasound system and method for post processing
US6325759B1 (en) * 1999-09-23 2001-12-04 Ultrasonix Medical Corporation Ultrasound imaging system
IL132266A0 (en) * 1999-10-07 2001-03-19 Elgems Ltd Image navigation
WO2001037129A1 (en) * 1999-11-17 2001-05-25 Bayshore Capital Inc. Method and apparatus for automated transaction processing
US6515657B1 (en) 2000-02-11 2003-02-04 Claudio I. Zanelli Ultrasonic imager
US6318179B1 (en) * 2000-06-20 2001-11-20 Ge Medical Systems Global Technology Company, Llc Ultrasound based quantitative motion measurement using speckle size estimation
US7940966B2 (en) 2000-11-24 2011-05-10 U-Systems, Inc. Full-field breast image data processing and archiving
US7597663B2 (en) 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7103205B2 (en) * 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
US7615008B2 (en) 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
JP3898047B2 (ja) * 2001-07-09 2007-03-28 セイコーインスツル株式会社 血液レオロジー測定装置
US6824517B2 (en) * 2002-06-25 2004-11-30 Koninklijke Philips Electronics N.V. Ultrasound quantification in real-time using acoustic data in more than two dimensions
US7275547B2 (en) * 2003-10-08 2007-10-02 Boston Scientific Scimed, Inc. Method and system for determining the location of a medical probe using a reference transducer array
CA2543077A1 (en) * 2003-10-29 2005-05-12 Allez Physionix Ltd. Method and apparatus for determining an ultrasound fluid flow centerline
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
EP1744181B8 (de) * 2005-07-15 2014-04-09 Kabushiki Kaisha Toshiba Diagnostisches Ultraschallgerät und Verfahren zur Verarbeitung von Ultraschallbildern
JP4881112B2 (ja) * 2006-09-19 2012-02-22 株式会社東芝 超音波診断装置及び画像データ生成方法
US8435180B2 (en) * 2007-09-17 2013-05-07 Siemens Medical Solutions Usa, Inc. Gain optimization of volume images for medical diagnostic ultrasonic imaging
JP5263867B2 (ja) * 2007-10-15 2013-08-14 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波撮像装置
US8696577B2 (en) * 2012-04-20 2014-04-15 Siemens Medical Solutions Usa, Inc. Tongue imaging in medical diagnostic ultrasound
KR102468133B1 (ko) * 2016-02-29 2022-11-18 엘지전자 주식회사 발 정맥 인증 장치
KR101882281B1 (ko) * 2017-09-15 2018-08-24 엘지전자 주식회사 디지털 디바이스 및 그의 생체 인증 방법
KR101882282B1 (ko) * 2017-09-22 2018-08-24 엘지전자 주식회사 디지털 디바이스 및 그의 생체 인증 방법
WO2019231042A1 (ko) * 2018-06-01 2019-12-05 엘지전자 주식회사 생체 인증 장치
CN110477955B (zh) * 2019-08-22 2021-05-11 电子科技大学 一种基于iq数据的血管自动识别方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
JP3187148B2 (ja) * 1991-08-26 2001-07-11 株式会社東芝 超音波診断装置
US5497776A (en) * 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
US5365929A (en) * 1993-10-04 1994-11-22 Advanced Technology Laboratories, Inc. Multiple sample volume spectral Doppler
US5524629A (en) * 1994-11-02 1996-06-11 General Electric Company Color flow processor having adaptive wall filter
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
DE19681455T1 (de) * 1995-06-15 1998-07-02 Regent Of The University Of Mi Verfahren und Vorrichtung für eine Zusammensetzung und eine Darstellung eines dreidimensionalen Bildes von zweidimensionalen Ultraschall (Abtastdaten)
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2870710A1 (fr) * 2004-06-01 2005-12-02 Gen Electric Procede et dispositif pour mesurer des structures anatomiques

Also Published As

Publication number Publication date
US5899863A (en) 1999-05-04
IL124169A (en) 2000-12-06
JPH1128213A (ja) 1999-02-02
DE19819892B4 (de) 2007-06-28
JP4204095B2 (ja) 2009-01-07

Similar Documents

Publication Publication Date Title
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE19819794A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
DE60038382T2 (de) Intravaskuläre ultraschallbildanalyse unter verwendung einer aktiven konturmethode
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE69936418T2 (de) Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos
DE60120360T2 (de) Dehnungsratenanalyse in diagnostischen ultraschallbildern
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE19531419B4 (de) Verfahren zur Erzeugung anatomischer M-Modus-Anzeigebilder
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE69732511T2 (de) Verarbeitungsverfahren für Signale von Objekten mit sich bewegenden Teilen und Echographie-Vorrichtung dafür
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE102005019171B4 (de) Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten
DE19819793A1 (de) Verfahren und Einrichtung zum Segmentieren von Farbströmungs-Mode-Daten unter Verwendung von Geschwindigkeitsinformation bei der dreidimensionalen Ultraschall-Bildgebung
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
US6155978A (en) Three-dimensional imaging by projecting morphologically filtered pixel data
DE102018216296A1 (de) Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung
DE102010049324A1 (de) Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung
DE602005003015T2 (de) Verfahren und Vorrichtung für Rekonstruktion der zweidimensionalen Schnittbilder
DE19819801A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite
DE102007019652A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem
DE19910771A1 (de) Verfahren und Einrichtung zum Nachfolgen einer Abtastebenentbewegung beim dreidimensionalen Freihand-Ultraschall-Abtasten unter Verwendung adaptiver Flecken-Korrelation
DE102005037806A1 (de) Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141202