DE19819892B4 - Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung - Google Patents

Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung Download PDF

Info

Publication number
DE19819892B4
DE19819892B4 DE19819892A DE19819892A DE19819892B4 DE 19819892 B4 DE19819892 B4 DE 19819892B4 DE 19819892 A DE19819892 A DE 19819892A DE 19819892 A DE19819892 A DE 19819892A DE 19819892 B4 DE19819892 B4 DE 19819892B4
Authority
DE
Germany
Prior art keywords
data
sample
volume
pixel
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19819892A
Other languages
English (en)
Other versions
DE19819892A1 (de
Inventor
William Thomas Hatfield
Todd Michael West Milwaukee Tillman
Patricia Ann Milwaukee Schubert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19819892A1 publication Critical patent/DE19819892A1/de
Application granted granted Critical
Publication of DE19819892B4 publication Critical patent/DE19819892B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Hematology (AREA)
  • General Physics & Mathematics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Einrichtung zur dreidimensionalen Bildgebung eines Objektvolumens, das sich bewegende Ultraschall-Streuteile und Gewebe enthält, enthaltend:
ein Ultraschall-Wandler-Array zum Aussenden von Ultraschall-Bündeln und zum Erfassen von Ultraschall-Echos, die von dem Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen reflektiert werden;
eine Einrichtung zum Gewinnen von Doppler-Daten, die wenigstens teilweise aus Ultraschall-Echos abgeleitet werden, die durch die sich bewegenden Ultraschall-Streuteile reflektiert werden, wobei jedes Doppler-Datum einem entsprechenden aus der Vielzahl von Sample- bzw. Probevolumen entspricht;
eine Einrichtung zum Gewinnen von Intensitätsdaten, die wenigstens teilweise aus Ultraschall-Echos abgeleitet sind, die durch das Gewebe reflektiert werden, wobei jedes Intensitätsdatum einem entsprechenden aus der Vielzahl von Sample- bzw. Probevolumen entspricht;
eine Speichereinrichtung zum Speichern von Pixeldaten für jedes der vielen Sample- bzw. Probevolumen, wobei jedes Pixeldatum ein entsprechendes Doppler-Datum und ein entsprechendes Intensitätsdatum aufweist, das einem entsprechenden Sample- bzw. Probevolumen entspricht;
eine Einrichtung zum Ermitteln eines Referenzsatzes der in der Speichereinrichtung...

Description

  • Die Erfindung bezieht sich allgemein auf Ultraschall-Bildgebung der menschlichen Anatomie zum Zweck der medizinischen Untersuchung. Insbesondere bezieht sich die Erfindung auf ein Verfahren und eine Einrichtung zur Bildgebung der menschlichen Anatomie, indem die Intensität von Ultraschall-Echos detektiert bzw. erfasst wird, die von einem abgetasteten (gescanten) Volumen in einem menschlichen Körper reflektiert werden.
  • Konventionelle Ultraschall-Abtaster bzw. -Scanner erzeugen zweidimensionale B-Mode-Bilder von Gewebe, in denen die Helligkeit bzw. Leuchtdichte eines Pixels auf der Intensität der Echorückkehr basiert. Bei der Farbströmungs(color-flow)-Bildgebung kann die Bewegung eines Strömungsmittels bzw. Fluids (z.B. Blut) oder von Gewebe bildlich dargestellt werden. Die Messung der Blutströmung im Herzen und in den Gefäßen unter Anwendung des Doppler-Effekts ist bekannt. Die Frequenzverschiebung von rückgestreuten Ultraschallwellen kann zur Messung der Geschwindigkeit der rückstreuenden Teile des Gewebes oder Blutes benutzt werden. Die Veränderung oder Verschiebung in der rückgestreuten Frequenz nimmt zu, wenn Blut in Richtung auf den Wandler hin strömt, und nimmt ab, wenn Blut vom Wandler weg strömt. Die Doppler-Verschiebung läßt sich unter Einsatz verschiedener Farben zur Darstellung. bringen, um die Geschwindigkeit sowie die Strömungsrichtung wiederzugeben. Bei der sog. Power-Doppler-Bildgebung wird die in dem zurückkommenden Dopplersignal enthaltene Energie (power) zur Anzeige gebracht. Der Farbströmungsmodus bringt gleichzeitig Hunderte von benachbarten Abtastvolumen zur Anzeige, die alle zur Darstellung der Geschwindigkeit jedes Abtastvolumens farbkodiert sind. Das Farbströmungsbild kann dem B-Mode-Bild überlagert werden.
  • Die vorliegende Erfindung ist in einem Ultraschall-Bildgebungssysten eingebaut, das aus vier hauptsächlichen Untersystemen besteht: einem Bündelformer 2 (vgl. 1), einem Prozessor-Subsystem 4, einer Abtastkonverter/Displaysteuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung erfolgt zentral in der Hauptsteuerung 8, welche die Bedienereingaben über eine (nicht gezeigte) Bedienerschnittstelle empfängt und ihrerseits die verschiedenen Untersysteme steuert. Die Hauptsteuerung erzeugt ebenfalls für das System die Zeit- und Steuersignale, die über einen Systemsteuerbus 10 sowie einen (nicht gezeigten) Abtaststeuerbus verteilt werden.
  • Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingängen von dem Wandler an den Strahl- bzw. Bündelformer. Der Bündelformer gibt zwei aufsummierte, digitale Empfangsbündel im Basisband aus. Die Basisbanddaten werden als Eingang an den B-Mode-Prozessor 4A und den Farbströmungsprozessor 4B gegeben, wo sie entsprechend dem Datenerfassungsmodus prozessiert und als prozessierte akustische Vektor-(Bündel-) Daten an den Abtastkonverter/Displayprozessor 6 ausgegeben werden. Der Abtastkonverter/Displayprozessor 6 nimmt die prozessierten akustischen Daten auf und gibt die Video-Displaysignale für die Abbildung in einem Rastercan-Format an einen Farbmonitor 12 aus. Die Abtastkonverter/Displaysteuerung 6 formatiert weiterhin in Zusammenarbeit mit der Hauptsteuerung 8 mehrfache Bilder zum Display, für Display-Anmerkungen, grafische Auflagen (overlays) sowie für eine Wiedergabe von Filmschleifen und aufgezeichneten Zeitliniendaten.
  • Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von dem Bündelformer in eine logarithmisch komprimierte Version der Signaleinhüllenden. Die B-Funktion bildet die zeitvariable Amplitude der Einhüllenden des Signals als eine Grauskala unter Verwendung eines 8-Bit Ausgangs für jedes Pixel ab. Die Einhüllende eines Basisbandsignals ist die Größe des Vektors, der die Basisbanddaten repräsentiert.
  • Die Frequenz der von der Innenseite von Blutgefäßen, Herzkammern usw. reflektierten Schallwellen wird proportional zu der Geschwindigkeit der Blutzellen verschoben, und zwar in positiver Richtung für sich auf den Wandler zu bewegende Zellen und in negativer Richtung für die sich davon weg bewegende Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindigkeit in der Abbildungsebene vorzusehen. Die Blutgeschwindigkeit wird errechnet durch Messung der Phasenverschiebung zwischen zwei Aktivierungen (firing) bei einem spezifischen Entfernungstor (range gate). Statt einer Messung des Dopplerspektrums bei einem Entfernungstor in der Abbildung werden die Blutgeschwindigkeit von mehreren Vektorpositionen sowie mehrere Entfernungstore längs jedes Vekors berechnet, und aus dieser Information wird eine zweidimensionale Abbildung erstellt. Der Farbströmungsprozessor erzeugt Geschwindigkeitssignale (8 Bits), Varianz(Turbulenz)-Signale (4 Bits) sowie Energie- bzw. Powersignale (8 Bits). Der Bediener wählt aus, ob die Geschwindigkeit und Varianz oder die Energie an den Abtastkonverter ausgegeben werden. Der Aufbau und die Arbeitsweise eines Farbströmungsprozessors sind beschrieben im US-Patent No. 5,524,629, dessen Inhalt hier durch Bezugnahme eingefügt wird.
  • Die akustischen Zeilenspeicher 14A und 14B der Abtastkonverter/Displaysteuerung 6 nehmen jeweils die von den Prozessoren 4A und 4B prozessierten digitalen Daten auf und führen die Koordinatentransformationen der Farbströmungs- und Intensitätsdaten vom Polarkoordinaten-(R-θ) Sektorformat oder vom Cartesischen linearen Koordinatenfeld zu geeignet skalierten Display-Pixeldaten durch, die im X-Y Displayspeicher 18 gespeichert werden. Im B-Mode werden die Intensitätsdaten im X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei Pixel zu 8 Bit speichert. Alternativ werden im Farbströmungsmodus die Farbströmungdaten wie folgt im Speicher gespeichert: Intensitätsdaten (8 Bits), Geschwindigkeits- oder Energiedaten (8 Bits) sowie Varianz(Turbulenz)daten (4 Bits).
  • Eine Vielzahl von aufeinanderfolgenden (Voll-)Bildern (frames) von Farbströmungs- oder 8-Mode-Daten werden im Filmspeicher 24 auf einer First-In/First-Out (FIFO) Basis gespeichert. Der Filmspeicher wirkt als ein im Hintergrund laufender ringförmiger Bildpufferspeicher, der kontinuierlich auf Bilddaten zugreift, die in Echtzeit für den Benutzer zur Darstellung gebracht werden. Wenn der Benutzer das System "einfriert", hat er die Möglichkeit, zuvor im Filmspeicher eingefangene Bilddaten anzuschauen. Die Grafikdaten für die Herstellung von grafischen Auflagen auf dem dargestellten Bild werden erzeugt und gespeichert in dem Zeitlinien/Grafikprozessor und Displayspeicher 20. Der Videoprozessor 22 schaltet im Multiplexbetrieb zwischen den Grafikdaten, den Bilddaten sowie den Zeitliniendaten hin und her, um den endgültigen Videoausgang in einem Rasterabtastformat auf dem Videomonitor 12 zu erzeugen. Zusätzlich sorgt er für verschiedene Grauskala- und Farbkartierungen (maps) sowie für die Verknüpfung der Grauskala- und Farbbilder.
  • Das konventionelle Ultraschall-Bildgebungssystem sammelt B-Mode- oder Farbströmungs-Mode-Bilder im Filmspeicher 24 auf einer kontinuierlichen Basis. Der Filmspeicher 24 stellt einen residenten digitalen Bildspeicher für Einzelbildbetrachtung und für Mehrfachbildschleifenbetrachtung sowie verschiedene Steuerungsfunktionen zur Verfügung. Das während der Einzelbild-Filmwiedergabe dargestellte interessierende Gebiet ist dabei dasjenige, das während der entsprechenden Bilderfassung benutzt wurde. Der Filmspeicher arbeitet auch als ein Puffer für die Übertragung von Bildern zu digitalen Archivierungsgeräten über die Hauptsteuerung 8.
  • Zweidimensionale Ultraschall-Bilder sind oftmals schwer zu interpretieren aufgrund des Unvermögens des Beobachters, sich die zweidimensionale Darstellung der gerade abgetasteten Anatomie zu veranschaulichen. Wird jedoch die Ultraschallsonde über einen interessierenden Bereich geführt und werden dabei zweidimensionale Abbildungen zur Formung eines dreidimensionalen Volumens akkumuliert, dann läßt sich die Anatomie viel leichter sowohl für den geübten als auch für den ungeübten Betrachter vorstellen.
  • Bei der dreidimensionalen Ultraschall-Bildgebung von B-Mode-Intensitätsdaten sind die Intensitätsdaten schwer zu segmentieren aufgrund von schlechtem Kontrast und auch wegen des Vorhandenseins von Rauschen und Flecken (Speckle) in den Daten. Wenn jedoch der interessierende Bereich begrenzt werden kann, könnte die Segmentierung des dreidimensionalen B-Mode-Bildes verbessert werden.
  • Erfindungsgemäß werden Einrichtungen und Verfahren geschaffen zum Verbessern der Segmentierung von einem dreidimensionalen B-Mode-Bild, indem das Volumen von Pixelintensitätsdaten, die auf die Bildebenen projiziert werden, begrenzt wird. Wenn der interessierende Bereich strömendes Blut enthält, d.h. eine Arterie oder Vene, kann die Doppler-Verschiebung, die in dem Ultraschall vorhanden ist, der von dem strömenden Blut reflektiert wird, detektiert bzw. erfasst werden, um die Menge an Pixeldaten zu begrenzen, die für die dreidimensionale Bildgebung von der Arterie oder Vene auf verschiedene Bildebenen projiziert werden sollen.
  • Die Einrichtung gemäß der Erfindung weist einen Ultraschall-Scanner auf, der Farbströmungsmode-Bilder in einem Filmspeicher auf einer kontinuierlichen Basis oder als Antwort auf ein Trigger-Ereignis, d.h. für eine Vielzahl von Schnitten bzw. Scheiben, schneidet. In dem Farbströmungsmode weist jedes Pixel einen 8-Bit Intensitätswert, der von der Amplitu de von einem Echoantwortsignal von einem bestimmten Samplevolumen abgeleitet ist, und einen 8-Bit Geschwindigkeits- oder Energie power)-Wert auf, der von einer Doppler-Verschiebung abgeleitet ist, die in der gleichen Echoantwort von dem gleichen Samplevolumen detektiert bzw. erfasst wird.
  • In dem Verfahren gemäß der Erfindung werden die Geschwindigkeits- oder Energie power)-Daten verwendet, um diejenigen B-Mode-Intensitätswerte zu identifizieren, die durch eine Hauptsteuerung auf eine Bildebene projiziert werden sollen. Dies wird dadurch erreicht, daß ein Referenzdatenvolumen von Pixeln lokalisiert wird, für das der Geschwindigkeits- oder Energie power)-Wert größer als ein minimaler Schwellenert oder kleiner als ein maximaler Schwellenwert oder beides ist. Gemäß einem bevorzugten Ausführungsbeispiel werden die Pixel in dem Referenzdatenvolumen durch diejenigen Geschwindigkeits- oder Energie power)-Werte ermittelt, die ungleich null sind. Dann wird das Referenzdatenvolumen verwendet, um ein Quelldatenvolumen zur Verwendung beim Rekonstruieren der projizierten Bilder zu definieren. Das Referenzdatenvolumen entspricht einem Objektvolumen, das sich bewegende Ultraschall-Streuteile enthält, z.B. strömendes Blut in einer Arterie oder Vene. Wenn ein Referenzdatenvolumen definiert ist, das einer Blutströmung entspricht, dann ist es eine relativ einfache Sache, ferner ein Quelldatenvolumen zu definieren, das das Referenzdatenvolumen enthält und in etwa einem Objektvolumen entspricht, das wenigstens die Arterie oder Vene umschließt, durch die die erfasste Blutströmung hindurchfliesst.
  • Gemäß einem bevorzugten Ausführungsbeispiel kann das Quelldatenvolumen dadurch gebildet werden, daß zunächst ein Objektvolumen ermittelt wird, das ein Kreiszylinder mit einer Mittellinie und einem vorbestimmten Radius ist, der der halben Abmessung entspricht, die durch aufeinanderfolgende Pixel mit einer Geschwindigkeits- oder Energie(power)-Komponente ungleich null definiert ist, und dann der Radius von dem gleichen Kreiszylinder um einen ausreichenden Betrag vergrössert wird, um ein grösseres Objektvolumen zu definieren, das die Arterie oder Vene umschliesst. Die Abmessungen des Quelldatenvolumens werden dann gleich den Abmessungen von dem grösseren Volumen gesetzt. Die Pixel innerhalb des Quelldatenvolumens werden beim Rekonstruieren der Projektionen auf die verschiedenen Bildebenen verwendet. Pixel ausserhalb des Quelldatenvolumens werden nicht verwendet, um diese Projektionen zu rekonstruieren. Das Ergebnis ist ein B-Mode-Bild mit verbesserter Segmentation. Indem also die B-Mode-Intensitätsdaten von nur denjenigen Pixeln in einem interessierenden Volumen verwendet werden, die entweder eine Geschwindigkeits- oder Energie(power)-Komponente haben oder die innerhalb eines vorbestimmten Abstands von Pixeln sind, die eine Geschwindigkeits- oder Energie(power)-Komponene haben, wird äussere Information eliminiert und die entstehende B-Mode-Projektion wird stark verbessert.
  • Die Hauptsteuerung führt einen Algorithmus aus, der die Pixelintensitätsdaten in dem interessierenden Volumen auf mehrere gedrehte Bildebenen projiziert, wobei eine Strahlwurf(ray casting)-Technik verwendet wird. Die projizierten Intensitätsdaten, die aus jeder Projektion entstehen, werden dann in dem Filmspeicher gespeichert, optional überlagert bzw. superpositioniert auf unprojizierte Intensitätsdaten aus dem letzten Vollbild (Frame), das vor dem "Einfrieren" des Systems durch die Bedienungsperson (Operator) aus dem X-Y Speicher ausgelesen ist. Die Intensitätsdaten werden in dem Filmspeicher so gespeichert, daß, wenn die Intensitätsdaten bildlich dargestellt werden, die projizierten Intensitätsdaten auf einem zentralen Bereich des dargestellten Bildes (Frame) überlagert bzw. superpositioniert werden, wobei die unprojizierten Intensitätsdaten auf dem Bildumfang dargestellt bzw. angezeigt werden. Diese rekonstruierten Bilder bzw. Frames, die in dem Filmspeicher gespeichert sind, können dann selektiv durch den Systemoperator bildlich dargestellt werden.
  • Die Erfindung wird im folgenden anhand von Ausführungsbeispielen unter Zuhilfenahme der Zeichnungen näher erläutert. Es zeigen:
  • 1 ein Blockschaltbild, das die hauptsächlichen funktionalen Subsysteme innerhalb eines Echtzeit-Ultraschall-Bildgebungssystems zeigt;
  • 2 ein Blockschaltbild der Einrichtung zur Rekonstruktion der Bilder enthaltend aufeinanderfolgende volumetrische Projektionen von Pixelintensitätsdaten gemäß der Erfindung;
  • 3 ein Flußdiagramm, das die Schritte eines Algorithmus für die Rekonstruktion der Bilder unter Einschluß von aufeinanderfolgenden volumetrischen Projektionen von Pixelintensitätsdaten gemäß der Erfindung zeigt;
  • 3A ist ein Flußdiagramm und zeigt die Schritte, die beim Initialisieren des bevorzugten Ausführungsbeispiels der Erfindung auftreten;
  • 4 eine schematische Darstellung des abgetasteten interessierenden Objektvolumens, ein zugeordnetes Datenvolumen sowie eine Bildprojektionsebene, die bei der volumetrischen Wiedergabe einer umgekehrten Strahlwurfprojektion gemäß dem Stand der Technik auftritt;
  • 5 eine schematische Darstellung, die ein Paar von geometrischen zweidimensionalen Konfigurationen entsprechend gleichen Ansichten von Objekt- und Datenvolumen zeigt, und die nützlich ist bei der Definition von notwendigen Skalierkonstanten bei der dreidimensionalen Ultraschall-Bildgebung; und
  • 6 ein schematisches Blockschaltbild einer Einrichtung zur Lieferung einer Projektion mit maximaler Intensität bei der dreidimensionalen Ultraschall-Bildgebung.
  • Unter Bezugnahme auf 2 enthält die Hauptsteuerung 8 eine zentrale Verarbeitungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeordneten Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf, die für die Umsetzung der ermittelten Daten des Intensitätsvolumens sowie der Geschwindigkeits- oder Energie(power)-Daten in eine Vielzahl von dreidimensionalen unter verschiedenen Winkeln genommenen Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Speicher 18 und den Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere steuert die CPU 42 den Datenfluß von dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem Filmspeicher zum Videoprozessor 22 und zur CPU 42 selbst. Wenn das Ultraschall-Bildgebungssystem im Farbströmungsmodus arbeitet, wird jedes (Voll-)Bild (Frame) von Farbströmungsdaten, das einen von mehreren Scans oder Schnitten durch das untersuchte Objekt repräsentiert, in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 übertragen. Ein das abgetastete Objektvolumen repräsentierender Stapel von Bildern bzw. Frames wird im Abschnitt 24A des Filmspeichers 24 gespeichert. Während der Initialisierung (vgl. Schritt 26 in 3) holt die CPU 42 vom Abschnitt 24A des Filmspeichers lediglich die einem interessierenden Objektvolumen entsprechenden Farbströmungsdaten. Dies wird bewerkstelligt, indem man lediglich die Farbströmungsdaten in einem interessierenden Gebiet von jedem gespeicherten Bild holt, das von irgendeinem Scan gewonnen wurde, der das interessierende Volumen geschnitten hatte. Mit anderen Worten, die dem interessierenden Gebiet entsprechenden Farbströmungsdaten von jedem einen Bild eines Stapels von aufeinanderfolgenden Bildern bilden ein interessierendes Quelldatenvolumen.
  • Der Initialisierungsschritt ist in 3A genauer gezeigt. Gemäss dem bevorzugten Ausführungsbeispiel der Erfindung ist das interessierende Quelldatenvolumen eine Funktion von einem Referenzdatenvolumen, das durch diejenigen Pixel in dem interessierenden Volumen definiert ist, die eine Geschwindigkeits- oder Energie(power)komponente ungleich null haben (Schritt 26a). Das Referenzdatenvolumen entspricht einem ersten Objektvolumen, das sich bewegende Ultraschall-Streuteile enthält, z.B. strömendes Blut in einer Arterie oder Vene. Im Schritt 26b wird das erste Objektvolumen durch einen Kreiszylinder angenähert, der eine Mittellinie und einen ersten Radius hat, der durch die halbe Zahl aufeinanderfolgender Pixel mit einer Geschwindigkeits- oder Energie(power)komponente ungleich null bestimmt ist, die entlang dem Durchmesser von diesem Zylinder liegt. Der erste Durchmesser sollte etwa gleich dem Innendurchmesser von der Arterie oder Vene sein. Im Schritt 26b wird ein zweites Objektvolumen in Form des ersten Objektvolumens in einer derartigen Weise definiert, daß das erste die Arterie oder Vene einschliesst, die das zweite umschliesst. Gemäss dem bevorzugten Ausführungsbeispiel wird das zweite Objektvolumen durch einen Kreiszylinder definiert, der eine Mittellinie hat, die koaxial zu der Mittellinie des ersten Objektvolumens ist, und der einen zweiten Radius hat, der um etwa die Wanddicke der abgebildeten Arterie oder Vene größer als der erste Radius ist. Das interessierende Quelldatenvolumen wird dann gebildet (Schritt 26d in 3A), indem aus dem Filmspeicher die Intensitätsdaten für nur diejenigen Pixel wiederhergestellt werden, die aus Echorückkehr- bzw Antwortsignalen gewonnen wurden, die durch Sample- bzw. Probesignale reflektiert sind, die in dem ersten Objektvolumen liegen. Notwendigerweise enthält das Quelldatenvolumen diejenigen Pixel, die aus Echoantwortsignalen gewonnen wurden, die von strömendem Blut innerhalb der Arterie oder Vene reflektiert wurden (d.h. Pixel mit einer Geschwindigkeits- oder Energiekomponente ungleich null), und auch diejenigen Pixel, die aus Echoant wortsignalen gewonnen wurden, die von der Arterie oder Vene selbst reflektiert wurden.
  • Gemäß dem bevorzugten Ausführungsbeispiel der Erfindung wird das Quelldatenvolumen dadurch gebildet, daß ein interessierender Bereich für jeden Schnitt (Scheibe) gebildet wird, der ein in dem Filmspeicher gespeichertes Vollbild bzw. Frame von Daten hat. Jeder interessierende Bereich entspricht dem Schnitt der entsprechenden Scheibe mit dem zweiten Objektvolumen. Für jede Scheibe sorgt die Hauptsteuerung für ein Wiederauffinden bzw. Wiederherstellen (Retrieval) von nur denjenigen Pixehn, die aus Echorückkehrsignalen gewonnen werden, die durch Sample- bzw. Probevolumen reflektiert werden, die in dem interessierenden Bereich liegen. Die Gesamtheit der gewonnenen Pixel bildet das Quelldatenvolumen, das dazu verwendet wird, um projizierte Bilder von demjenigen Abschnitt der Arterie oder Vene zu rekonstruieren, der innerhalb des zweiten Objektvolumens von Interesse liegt. Pixel ausserhalb des Quelldatenvolumens werden nicht verwendet, um diese projizierten Bilder zu rekonstruieren. Das Ergebnis ist ein projiziertes B-Mode-Bild mit verbesserter Segmentation.
  • Es wird noch einmal auf 3 bezug genommen; die Intensitätsdaten in dem Quelldatenvolumen, d.h, der Pixeldatensatz, der dem zweiten Objektvolumen entspricht, wird optional vor der Projektion gefiltert (Schritt 28), um Fleckenrauschen (Speckle-Rauschen) zu glätten und Artefakte zu verringern. Dies vermeidet während der Projektion den Verlust von Daten aufgrund von Speckle-Rauschen. Beispielsweise erzeugen Blutgefäße weniger Echo als das umgebende Gewebe. Gefäße können deshalb unter Einsatz von Projektionen mit minimaler Intensität abgebildet werden. Alternativ werden im Umkehrvideo/Minimum-Mode die Intensitätsdaten invertiert, um die Gefäße hell anstatt dunkel zu machen. Die Gefäße können dann unter Einsatz von Projektionen mit maximaler Intensität abgebildet werden. Um die Auswahl von maximalen Intensitäten, die helle Flecken im Gegensatz zu den gewünschten Pixeldaten sind, zu verhindern, kann vor der Projektion ein Filter zur Beseitigung solcher hellen Fleckintensitäten benutzt werden.
  • Das aus dem Filmspeicher 24 (vgl. 2) wiederhergestellte bzw, geholte Quelldatenvolumen kann von der CPU 42 gefiltert werden, indem man beispielsweise ein 3 × 3 Faltungsfilter mit einem 111 141 111 Kernel benutzt, d.h. das zentrale Pixel der Intensitätsdaten in jedem 3 × 3 Pixelarray in jedem Schnitt oder Bild wird ersetzt durch einen Intensitätswert, der proportional ist zu der Summe aus dem vierfachen Wert des zentralen Pixels plus der Summe aus den Werten der acht dieses Pixel umgebenden Pixel. Das gefilterte Quelldatenvolumen wird sodann im Speicher 44 abgespeichert (Schritt 30). In ähnlicher Weise kann ein Faltungsfilter benutzt werden, um schwarze Löcher in einem Bild vor der Projektion mit minimaler Intensität zu entfernen.
  • Als nächstes führt die CPU 42 unter Verwendung des im US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus (ray casting algorithm) eine Reihe von Transformationen durch. Die aufeinanderfolgenden Transformationen repräsentieren Projektionen mit maximaler, minimaler oder durchschnittlicher Intensität, Geschwindigkeits- oder Energieprojektionen, die unter winkelmäßigen Inkrementen, beispielsweise in Intervallen von 10°, innerhalb eines Winkelbereichs, z.B. von +90° bis –90°, vorgenommen werden. Die Winkelinkremente müssen jedoch nicht 10° sein; auch ist die Erfindung nicht auf einen bestimmten Winkelbereich begrenzt.
  • In Übereinstimmung mit der bei der vorliegenden Erfindung angewandten Strahlwurftechnik werden die volumetrisch wiedergegebenen Projektionsbilder einer Probe (Sample) 50 (vgl. 4) unter irgendeinem willkürlichen Betrachtungswinkel zur Anzeige gebracht, z.B. einem sphärischen Projektionswinkel, der durch die Winkelparameter (θ, ϕ) bezeichnet wird, wobei θ der Winkel ist, den eine Verlängerung 58' eines Betrachtungsstrahls 58 auf der X-Y Ebene bildet, und wobei ϕ der Winkel des Strahls 58 bezogen auf die Verlängerung 58' ist, und zwar beim Scannen eines Objektvolumens 52 mittels eines Ultraschallwandlers. Das Samplevolumen 52 wird in einer derartigen Weise abgetastet, daß man eine Folge von geschichteten benachbarten Schnitten (Slices) oder Scheiben OS1, OS2 ..., OSk erzeugt, von denen jede dieselbe Anzahl von Objektvolumenelementen (voxels) OV enthält. Jedes Voxel besitzt ein rechteckiges Profil in der Scheibenebene (z.B. in der X-Y Ebene); während die komplementären Seiten von gleicher Länge S sein können, so daß dieses Profil ein Quadrat sein kann, ist die Scheibendicke T im allgemeinen nicht gleich mit der Länge von jeder Seite. Somit enthält der erste Objektschnitt OS1 eine erste Anzahl von Objektvoxel OVij,1, wobei i und j die jeweiligen Positionen des Voxels auf der X-Achse und auf der Y-Achse sind. In gleicher Weise enthält der zweite Objektschnitt OS2 Objektvoxel OVij,2. Ein willkürlicher Objektschnitt OSk enthält Voxel OVij,k, wobei k die Position dieses Voxels auf der Z-Achse bedeutet.
  • Jedes Objektvoxel OVij,k wird analysiert und sein Datenwert (Intensität, Geschwindigkeit oder Energie) wird in ein entsprechendes Datenvoxel DVij,k eines Datenvolumens 54 plaziert. Das Datenvolumen 54 ist ein einfaches kubisches i, j, k Gitter, obwohl die Dicke eines jeden Objektschnitts OSk und jede Flächengröße eines Objektvoxels (die Größe des Voxels in der X-Y Ebene) im allgemeinen nicht dieselbe sein werden. Das bedeutet, es kann nicht nur das Objektvolumen unterschiedliche Dimensionen X, Y und Z für jedes Voxel aufweisen, sondern es braucht auch die insgesamte Anzahl von Voxel in irgendeiner Dimension nicht dieselbe zu sein. Beispielsweise kann ein typischer dreidimensionaler Ultraschall-Scan jeden Schnitt mit einer 256 × 256 Voxel enthaltenden Matrix liefern und 128 Schnitte betreffen.
  • Gemäß einer von der CPU 42 angewandten bekannten Technik wird ein Bild des Objekts 50 projiziert (Schritt 34 in 3) durch Projektion eines Strahls von einem Gitterpunkt im Datenvoxel DVij,k in Richtung auf die Bildebene 56. Der Einfachheit halber kann der Gitterpunkt beispielsweise die am nächsten an dem Datenvolumenursprung liegende Datenvoxelspitze sein. Der geworfene oder Projektionsstrahl 62 tritt aus dem Datenvolumen 54 unter einem Projektionswinkel mit sphärischen Winkelparametern (α, β) aus, die aus den sphärischen Winkelparametern (θ, ϕ) transformiert wurden, unter denen das Objektvolumen 52 betrachtet wird. Diese beiden Winkel sind nicht gleich, und zwar aufgrund der geometrischen Verzerrung, die durch die Benutzung eines kubischen Datenvolumens 54 zusammen mit einem nicht-kubischen Objektvolumen 52 verursacht wird. Der projizierte Strahl 62 weist jedoch eine Verlängerung 62' in der x-y Ebene auf, die einen Winkel α mit Bezug auf die x Achse des Datenvolumens bildet, und der Strahl 62 bildet einen Winkel β mit der Z Achse. Somit werden die Winkel α und β bestimmt durch einen (nachfolgend zu beschreibenden) Rotationsprozess, um der Betrachtung des Objektvolumens 52 unter dem gewünschten Betrachtungswinkel (θ, ϕ) zu entsprechen (unter der Annahme eines Betriebs mit sphärischen Koordinaten). Jeder der Strahlen 62 wird von dem Voxel-Gitterpunkt des Datenvolumens in Richtung auf die Bildebene projiziert.
  • Obwohl alle Strahlen 62 auf irgendeinen Bereich der Bildebene auftreffen, wird nur den in das betrachtete Bildebenenpixel 60a fallenden Strahlen erlaubt, zu den Daten für dieses Bildebenenpixel beizutragen. Hat man somit einen Teil des Objektvolumens 52 zur Betrachtung ausgewählt sowie einen Betrachtungswinkel (θ, ϕ), unter dem dieses ausgewählte Objektvolumen betrachtet werden soll, wird der Datenwert in jedem Voxel des entsprechenden Teils von dem Datenvolumen unter einem Winkel (α, β) (entsprechend der Betrachtung des verzerrten Datenvolumens mit Bezug auf das Objektvolumen) in Richtung auf die Bildebene 56 projiziert. Der Datenwert in einem ersten Voxel (zum Beispiel Voxel DVi,1,k), wird somit in Übereinstimmung mit den gewählten Werten θ und ϕ entlang dem Strahl 62a rückprojiziert. Dieser Strahl 62a trifft bei einer Position 64a innerhalb des Pixels 60a auf die Bildebene 56 auf, und weil dies der erste auf dieses Pixel auftreffende Strahl ist, wird der Intensitäts-, Geschwindigkeits- oder Energiewert des auftreffenden Strahls dem gewünschten Pixel 60a zugeteilt (bzw. darin gespeichert). Das nächste Voxel in dem Datenvolumen (z.B. Voxel DVi,2,k) hat seinen zugehörigen Strahl 62b unter derselben winkelmäßigen (α, β) Konfiguration vom Voxel-Gitterpunkt projiziert, und seine Position 64b auf der Bildebene 56 wird festgehalten. Unter der Annahme, daß diese Auftreffposition 64b im gewünschten Pixel 60a liegt, wird der zweite projizierte Wert (für eine Maximalpixelprojektion) mit dem nun gespeicherten ersten Wert verglichen, und es wird der größere Wert im Speicher für das Pixel 60a plaziert. Es wird verständlich sein, daß für eine Projektion mit einem Durchschnittswert der Wert eines laufenden projizierten Datenvoxels zu der bereits gespeicherten Summe für das Bildfeldpixel (image panel pixel), auf das der Projektionsstrahl auftrifft, hinzuaddiert wird, und die Summe schließlich durch eine gezählte Anzahl von solchen auftreffenden Strahlen für dieses Pixel geteilt wird. Da jedes Voxel in dem ausgewählten Datenvolumen sequentiell eingegeben und in Richtung auf die Bildebene 56 projiziert wird, wird schließlich ein Datenvolumenvoxel (z.B. Voxel DVi,3,k) entlang seinem zugehörigen Strahl 62p projiziert und trifft nicht innerhalb des gewünschten Pixels 60a auf, so daß sein Datenwert (z.B. die Intensität) nicht mit dem gegenwärtig für das Pixel 60a gespeicherten Datenwert verglichen wird. Es wird nun für diese Projektion von Daten bei dem bestimmten (θ, ϕ) dreidimensionalen Betrachtungswinkel der maximale Datenwert für das Pixel 60a festgelegt. Tatsächlich weist der Strahl 62p jedoch einen Auftreffpunkt 64p auf, der in ein anderes Pixel (z.B. Pixel 60b) der Bildebene fällt; er wird mit dem darin gespeicherten Datenwert verglichen und der nach dem Vergleich sich ergebende größere Wert wird in den Speicher für dieses Pixel zurückgeführt. Alle Datenwerte werden auf Null zurückgesetzt, wenn eine neue Projektion erfolgen soll. Somit wird jedes der Pixel der Bildebene beim Start einer Bildprojektionsprozedur rückgesetzt, und alle Datenvolumenvoxel (in dem gesamten Raum oder in dem ausgewählten Teil, wie durch den Teil des ausgewählten Objektvolumens 52 festgelegt) werden einzeln und sequentiell abgetastet. Der Datenwert in jeden Datenvoxel DV wird durch einen zugeordneten Strahl 62 so projiziert, daß er in einem Pixel 60 davon auf die Bildebene 56 auftrifft, wobei der Maximalwert in jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten Datenvolumenvoxels verglichen wird, um den größeren davon zu bestimmen, welcher größere Wert sodann als Teil des Maximalwertbildes gespeichert wird. In der Praxis wird für eine maximale Pixelprojektion der gespeicherte Maximalwert lediglich dann verändert, wenn der neuerliche Wert des projizierten Datenvoxels größer ist als der bereits für das Bildebenenpixel gespeicherte Datenwert, auf den der neuerliche Projektionsstrahl auftrifft.
  • Gemäß einem anderen Aspekt der obigen Technik wird die Datenprojektion (im Schritt 36 in 3) skaliert und es wird eine etwaige Anisotropie zwischen dem Objektvolumen und der Bildebene durch lediglich einen einzigen Satz von Berechnungen beseitigt, nachdem die Rückprojektion abgeschlossen ist. Es wird nun auf 5 Bezug genommen. Da es sich bei dem Objektvolumen 52 um ein reales Volumen handelt, während es sich bei dem Datenvolumen 54 um ein abstraktes Konzept handelt, ist es nötig, den Betrag der Verzerrung der Projektionsdaten aufgrund der Darstellung des kubischen Datenvolumengitters 54 unter einem unterschiedlichen Winkel γ in einer ersten Ebene zu bestimmen und sodann den Winkel ψ, unter dem eine willkürliche Betrachtungsrichtung 66 mit Bezug sowohl auf das Objektvolumen 52 als auch auf das Datenvolumen 54 positioniert wird. Die offenbaren Dimensionen von jedem Voxel werden sich in dem Maße ändern, wie sich die effektiven Erhebungswinkel ψ und γ ändern. Wenn das Aspektverhältnis A (definiert als das Verhältnis der tatsächlichen Scheibendicke T im Objektvolumen 52 zur tatsächlichen Pixelgröße S in demselben Objektvolumen 52) nicht eins beträgt (d.h. größer oder gleich eins ist, da das Objektvoxel kein kubisches Voxel ist, wie man es beim Datenvolumen 54 antrifft), dann werden die Erhebungswinkel ψ und γ verschieden sein, und der effektive Erhebungswinkel ψ im Datenvolumen wird gegenüber dem tatsächlichen Erhebungswinkel γ in dem Objektvolumen unterschiedlich sein. Die Rotation der Daten erfolgt gemäß einem Objekterhebungswinkel, der erhalten wird durch:
    Figure 00170001
  • Danach können die projizierten Daten so skaliert werden, daß sie (wenn die Drehung um die horizontale Achse erfolgt) die korrekte Höhe in dem Objektvolumen erhalten, und zwar durch eine Multiplikation aller projizierten Datenhöhen mit dem Höhenskalierungsfaktor. Die alte projizierte Bildhöhe H kann mit einem effektiven Skalierungsfaktor Es korrigiert werden, wobei gilt
    Figure 00170002
    und die neue Höhe H' = H·Es ist. Dasselbe trifft für die Breite zu, wenn die Drehung um die vertikale Achse erfolgt.
  • Unter Verwendung der obigen Beziehung führt die Rotation der Datenvolumenwinkel (α, β) zu den Winkeln (θ, ϕ), weil die Verzerrung lediglich entlang einer Achse auftritt, so daß der Winkel θ gleich dem Winkel α ist. Die Elemente der 3 × 3 Rotationsmatrix [M] können bestimmt werden, und bei den gegebenen zwei in Betracht kommenden Drehungswinkeln werden diese Beziehungen benutzt, um die Transformationen vom Datenvolumen zur Bildebene zu bestimmen: X' = M1X + M2Y + M3Z + XO Y' = M4X + M5Y + M6Z + YOwobei M1 – M6 die ersten beiden Zeilen der Rotationsmatrix sind (d.h. M1 = –sinθ, M2 = cosθ sinψ, M3 = 0, M4 = –cosθ sinψ2, M5 = –sinθ sinψ und M6 = cosψ), X' und Y' die Positionen des projizierten Punktes auf der Bildebene sind, und wobei XO und YO die X und die Y Versetzungen (jeweils bezogen auf die niedrigsten X und Y Punktwerte) der Bildebene sind, bei denen der ausgewählte Teil der Bildebene beginnt. Nachdem die Daten auf die Bildebene 56 projiziert sind, wird das Bild zur Korrektur des Effekts der anisotropen Objektvoxel skaliert. Es wird ersichtlich sein, daß die Faktoren M1 – M6 zu Beginn einer Projektion (bei gegebenen θ und ϕ) vorberechnet (Schritt 32 in 3) und für alle Rotationsberechnungen benutzt werden können.
  • 6 zeigt eine Einrichtung zur Durchführung der oben beschriebenen Strahlwurftechnik, die in der Hauptsteuerung 8 (oder in einem separaten zugeordneten Prozessor) vorgesehen ist. Eine deratige Einrichtung weist eine dreidimensionale Datenspeichereinrichtung 70 zum Speichern von Schnittdaten auf, wie sie an einem Dateneingang 70a vom Filmspeicher 24 erhalten werden. Die mit jedem Objektvoxel zusammenhängenden Daten werden bei der Adresse des betreffenden Voxels gespeichert, und zwar als Reaktion auf eine Eingangsinformation für die Voxeladresse, die an einem Voxeladresseingang 70b von einer CPU 74 erhalten wird. Sobald die Datenspeichereinrichtung gefüllt ist (entsprechend der Übertragung aller erfor derlichen Daten vom Objektvolumen 52 zum Datenvolumen 54), wird der interessierende Teil des Objektvolumens ausgewählt, und es werden seine Startecke sowie die Ausdehnung in den X, Y und Z Richtungen festlegende Daten von der CPU 74 an einem Eingang 72a einer Adressgeneratoreinrichtung 72 gesandt. Die Einrichtung 72 liefert sequentiell an einem Adressausgang 72b die X, Y und Z Adressen für jedes Voxel innerhalb des ausgewählten Objektvolumens. Der Ausgang 72b ist mit einem Ausgangsdatenadresseingang 70c der Datenspeichereinrichtung 70 verbunden, welche veranlaßt, daß die gespeicherten Intensitätsdaten für das betreffende eine sodann adressierte Voxel vom Datenspeicherausgang 70d ausgegeben werden. Die Aufeinanderfolge der X, Y und Z Voxeladressen wird ebenfalls an einen ersten Eingang 76a einer Berechnungseinrichtung 76 für die Rotationsparameter gegeben, welche Einrichtung über die CPU 74 die Winkelinformation (α, β) als die berechneten Matrixelementwerte M1 – M6 erhält, um an einem Ausgang 76c die Adresse X', Y' des Bildebenenpixel bereitzustellen, das diesem Objektpixel X, Y, Z entspricht, wenn man es unter einem ausgewählten Betrachtungswinkel (θ, ϕ) betrachtet. Die Information für den Betrachtungswinkel (θ, ϕ) wird in das System eingegeben und von der CPU 74 verarbeitet. Die Ergebnisse werden an die Eingänge 78b und 78c einer Sichtmatrixeinrichtung 78 gegeben, um Matrixelemente M1 – M6 an ihrem Ausgang 78a und damit an der Berechnungseinrichtung 76 für die Drehungsparameter vorzusehen. Die Pixeladresse X', Y' in der Bildebene erscheint an einem Adresseingang 80a eines Bildpufferspeichers, der als eine Bildebenenspeichereinrichtung 80 wirkt. Gleichzeitig erscheinen die von dem Datenvolumen zur Projektionsebene projizierten Intensitätsdaten vom Ausgang 70d der dreidimensionalen Datenspeichereinrichtung an dem Eingang 80b für neue Daten der Bildebenenspeichereinrichtung. Diese Daten erscheinen ebenfalls am Eingang 82a für neue Daten einer Datenvergleichseinrichtung 82. Zuvor in der Bildebenenspeichereinrichtung 80 für diese Adresse gespeicherte Intensitätsdaten am Eingang 80a erscheinen an einem Ausgang 80c für alte Daten und damit an einem Eingang 82b für alte Daten in der Vergleichseinrichtung. Die alten und neuen Daten an den jeweiligen Eingängen 82b/82a werden in der Einrichtung 82 verglichen, und ein Ausgang 82c davon wird auf einen ausgewählten logischen Zustand gesetzt (z.B. einen oberen logischen Pegel), wenn die neuen Daten am Eingang 82a eine größere Amplitude aufweisen als die alten Daten am Eingang 82b. Der Ausgang 82c ist mit einem Eingang 80d der Bildebenenspeichereinrichtung für Ersatz-(substitute) Steuerdaten verbunden um zu veranlassen, daß die unter der vom Eingang 80a gesteuerten Adresse gespeicherten Daten geändert werden, um neue Daten am Eingang 80b anzunehmen, wenn sich der Steuereingang für die Ersatzdaten 80d auf dem gewählten logischen Pegel befindet. Somit werden die gespeicherten Daten zu Anfang rückgesetzt, wie bei einem Signal durch einen Daten/Steuereingang 80e (von der CPU 74), und es werden die Daten mit dem größten Wert für jede Pixelstelle X', Y' in der Bildebene gespeichert, und zwar als Antwort auf einen Vergleich, der anzeigt, ob die neuen Daten den Wert der zuvor gespeicherten alten Daten übersteigen. Nachdem alle der ausgewählten Adressen sequentiell vom Adressgenerator 72 abgetastet worden sind, werden die in der Bildebenenspeichereinrichtung 80 gespeicherten Daten in der CPU 74 skaliert, und die skalierten Bildebenendaten können von der Speichereinrichtung 80 zur Anzeige, zur permanenten Speicherung oder zu ähnlichen Zwecken entnommen werden.
  • Gemäß einem weiteren Aspekt der Erfindung werden die skalierten Bildebenendaten vor einer Anzeige (Display) kartiert (mapped), um eine gewünschte Helligkeit sowie einen gewünschten Kontrastbereich zu erzielen (Schritt 38 in 3) Beim Einlesen des interessierenden Bereichs für die Quellbilder, auf dem die dreidimensionale Rekonstruktion basiert, wird als Option ein Histogramm der Anzahl von Pixel mit einer gegebenen Intensität in der Hauptsteuerung 8 erstellt. Alternativ kann das Histogramm unter Benutzung der projizierten Bilder gebildet werden. Zur selben Zeit wird die maximale Pixelin tensität bestimmt. Es werden die Pixel in jedem Bereich (bin) gezählt, bis ein vorgegebener Prozentsatz der insgesamten Anzahl von Pixel erreicht ist. Diese Bereichszahl (bin number) wird die Pixelschwelle. Es wird sodann eine Karte erzeugt, und zwar derart, daß jeder Pixelwert mit der gewünschten Helligkeit und dem gewünschten Kontrastbereich über oder unter der Pixelschwelle abhängig von dem beabsichtigten Ergebnis kartiert wird.
  • Das in 3 gezeigte Verfahren wird angewendet auf die Intensitätsdaten für das interessierende, von dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in dem projizierten Bild schließt die transformierten Intensitätsdaten ein, welche durch Projektion auf eine vorgegebene Bildebene abgeleitet wurden. Zusätzlich speicherte während der Zeit, in welcher der Filmspeicher vom Bediener "eingefroren" war, die CPU 42 das letzte Bild (frame) aus dem XY Speicher 18 unter mehrfachen aufeinanderfolgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die projizierten Bilddaten für den ersten projizierten Betrachtungswinkel werden in die erste Adresse im Filmspeicherabschnitt 24B eingeschrieben, so daß die projizierten Bilddaten in einem interessierenden Bereich dem Hintergrundbild (background frame) überlagert werden. Dieser Prozess wird für jede Winkelzunahme wiederholt bis alle projizierten Bilder im Filmspeicherabschnitt 24B gespeichert sind, wobei jeder projizierte Bildrahmen aus einem interessierenden Gebiet besteht, das transformierte Daten und als Option einen Peripheriehintergrund enthält, der das interessierende Gebiet umgibt und aus Hintergrundbilddaten besteht, die nicht von transformierten Daten aus dem interessierenden Gebiet überschrieben sind. Das Hintergrundbild macht es deutlicher, von wo aus jede zur Darstellung gebrachte Projektion betrachtet wird. Der Bediener kann dann jedes projizierte Bild für die Darstellung auswählen. Zusätzlich kann die Abfolge der projizierten Bilder erneut auf dem Displaymonitor abgespielt werden, um das Objektvolumen so darzustellen, als wenn es vor dem Betrachter rotieren würde.
  • Das erfindungsgemässe Verfahren ist nicht begrenzt in bezug auf die Geometrie des Quellobjektvolumens. Zwar ist ein kreiszylinderförmiges Quellobjektvolumen bevorzugt, wenn eine Arterie oder Vene bildlich dargestellt wird, aber es können auch andere Geometrien verwendet werden. Das Grundkonzept der Erfindung umfasst die Formulierung von einer Quellobjektvolumengeometrie, die eine Funktion des Objektvolumens ist, in dem sich bewegende Ultraschall-Streuteile vorhanden sind.
  • Weiterhin ist zwar ein bevorzugtes Ausführungsbeispiel offenbart worden, bei dem B-Mode-Intensitätsdaten projiziert werden, wenn der zugeordnete Strömungsgeschwindigkeits- oder Energie power)-Wert ungleich null ist, es sei aber darauf hingewiesen, daß die Erfindung nicht auf die Gewinnung von Pixeldaten beschränkt ist, wenn die Größe der Geschwindigkeits- oder Energie(power)-Komponente nicht gleich null ist. Für einige Anwendungen kann die Gewinnung von B-Mode-Intensitätsdaten dadurch gesteuert werden, daß nur diejenigen Geschwindigkeits- oder Energie power)-Werte erfasst werden, die über einem minimalen Schwellenwert oder unter einem maximalen Schwellenwert oder beides liegen. Beispielsweise können Geschwindigkeiten größer als null, aber kleiner als ein vorbestimmter Schwellenwert erfasst werden, um ein Referenzdatenvolumen zu definieren, das der Blutströmung in einer Grenzschicht benachbart zur Wand von einem Gefäß entspricht.
  • Das oben beschriebene Ultraschall-Bildgebungssystem hat mehrere verschiedene Projektionsmoden. Beispielsweise kann die Projektion Maximalwert- oder Minimalwert-Pixel enthalten. Alternativ kann ein für die Darstellung von Blutgefäßen nützlicher Mode ausgewählt werden, bei dem die Pixeldaten invertiert und dann die Maximalwerte auf die Bildebene projiziert werden. Gemäß einem weiteren Modus kann die Strahlwurftechnik eingesetzt werden, um eine Oberflächenwiedergabe (Oberflächen-Rendering) zu liefern.
  • Das vorstehende bevorzugte Ausführungsbeispiel wurde zum Zwecke der Veranschaulichung beschrieben. Abänderungen und Modifikationen des Grundkonzepts der Erfindung werden sich unschwer für Fachleute auf dem Gebiet der Ultraschallbildgebung oder der Computergrafik ergeben. Alle derartigen Abänderungen und Modifikationen sollen durch die nachfolgend aufgeführten Ansprüche mitumfaßt werden.

Claims (20)

  1. Einrichtung zur dreidimensionalen Bildgebung eines Objektvolumens, das sich bewegende Ultraschall-Streuteile und Gewebe enthält, enthaltend: ein Ultraschall-Wandler-Array zum Aussenden von Ultraschall-Bündeln und zum Erfassen von Ultraschall-Echos, die von dem Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen reflektiert werden; eine Einrichtung zum Gewinnen von Doppler-Daten, die wenigstens teilweise aus Ultraschall-Echos abgeleitet werden, die durch die sich bewegenden Ultraschall-Streuteile reflektiert werden, wobei jedes Doppler-Datum einem entsprechenden aus der Vielzahl von Sample- bzw. Probevolumen entspricht; eine Einrichtung zum Gewinnen von Intensitätsdaten, die wenigstens teilweise aus Ultraschall-Echos abgeleitet sind, die durch das Gewebe reflektiert werden, wobei jedes Intensitätsdatum einem entsprechenden aus der Vielzahl von Sample- bzw. Probevolumen entspricht; eine Speichereinrichtung zum Speichern von Pixeldaten für jedes der vielen Sample- bzw. Probevolumen, wobei jedes Pixeldatum ein entsprechendes Doppler-Datum und ein entsprechendes Intensitätsdatum aufweist, das einem entsprechenden Sample- bzw. Probevolumen entspricht; eine Einrichtung zum Ermitteln eines Referenzsatzes der in der Speichereinrichtung gespeicherten Pixeldaten, wobei der Referenzpixel-Datensatz nur aus Pixeldaten mit einem Doppler-Datum besteht, das in einem vorbestimmten Bereich liegt; eine Einrichtung zum Wiedergeben eines Quellsatzes der Pixeldaten aus der Speichereinrichtung, wobei die Pixel, die in dem Quellpixel-Datensatz enthalten sind, eine Funktion der Pixel sind, die in dem Referenzpixel-Datensatz enthalten sind; eine Einrichtung zum Projizieren der Intensitätsdaten in dem Quellpixel-Datensatz auf eine erste Bildebene, wodurch ein projizierter Intensitätsdatensatz gebildet wird, der ein erstes projiziertes Bild darstellt; einen Anzeige- bzw. Displaymonitor; und eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
  2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Pixel, die in dem Quellpixel-Datensatz enthalten sind, von Echorückkehr- bzw. Antwortsignalen abgeleitet werden, die von Sample- bzw. Probevolumen des Objektvolumens reflektiert sind, und das Objektvolumen eine Abmessung hat, die größer als eine entsprechende Abmessung ist, die aus dem Referenzpixel-Datensatz ermittelt ist.
  3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, daß das Objektvolumen ein Kreiszylinder ist und die Quellabmessung ein Radius von dem Kreiszylinder ist.
  4. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Doppler-Daten Geschwindigkeitsdaten aufweisen.
  5. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Doppler-Daten Energie(Power)-Daten aufweisen.
  6. Einrichtung nach Anspruch 1, gekennzeichnet durch: eine Einrichtung zum Projizieren der Intensitätsdaten in dem Quellpixel-Datensatz auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wodurch ein projizierter Datensatz gebildet wird, der ein zweites projiziertes Bild darstellt, und eine Einrichtung zum bildlichen Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
  7. Verfahren zur dreidimensionalen Bildgebung von einem Objektvolumen, das sich bewegende Ultraschall-Streuteile und Gewebe enthält, enthaltend die Schritte: Aussenden von Ultraschall-Bündeln in das Objektvolumen, Erfassen von Ultraschall-Echos, die von dem Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen reflektiert werden; Gewinnen von Doppler-Daten, die wenigstens teilweise von Ultraschall-Echos abgeleitet werden, die durch die sich bewegenden Ultraschall-Streuteile reflektiert werden, wobei jedes Doppler-Datum einem entsprechenden der vielen Sample- bzw. Probevolumen entspricht; Gewinnen von Intensitätsdaten, die wenigstens teilweise von Ultraschall-Echos abgeleitet werden, die durch das Gewebe reflektiert werden, wobei jedes Intensitätsdatum einem entsprechenden der vielen Sample- bzw. Probevolumen entspricht; Speichern von Pixeldaten für jedes der vielen Sample- bzw. Probevolumen, wobei jedes Pixeldatum ein entsprechendes Doppler-Datum und ein entsprechendes Intensitätsdatum aufweist, die einem entsprechenden Sample- bzw. Probevolumen entsprechen; Ermitteln eines Referenzsatzes der gespeicherten Pixeldaten, wobei der Referenzpixel-Datensatz nur aus Pixeldaten mit einem Doppler-Datum besteht, die in einem vorbestimmten Bereich liegen; Wiedergeben eines Quellsatzes der Pixeldaten aus den gespeicherten Pixeldaten, wobei die in dem Quellpixel-Datensatz enthaltenen Pixel eine Funktion der Pixel sind, die in dem Referenzpixel-Datensatz enthalten sind; Projizieren der Intensitätsdaten in dem Quellpixel-Datensatz auf eine erste Bildebene, wodurch ein projizierter Intensitätsdatensatz gebildet wird, der einem ersten projizierten Bild entspricht; und bildliches Darstellen des ersten projizierten Bildes.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die in dem Quellpixel-Datensatz enthaltenen Pixel von Echorückkehrsignalen abgeleitet wurden, die von Sample- bzw. Probevolumen des Objektvolumens reflektiert werden, und das Objektvolumen eine Abmessung hat, die größer als eine entsprechende Abmessung ist, die aus dem Referenzpixel-Datensatz ermittelt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Objektvolumen ein Kreiszylinder ist und die Quellabmessung ein Radius von dem Kreiszylinder ist.
  10. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Wiedergabeschritt die folgenden Schritte enthält: Ermitteln einer Mittellinie und einer ersten Abmessung von einem ersten Objektvolumen, das durch die vielen Sample- bzw. Probevolumen gebildet wird, das sich bewegende Ultraschall-Streuteile enthält; Ermitteln einer Dicke von Gewebe benachbart zu den sich bewegenden Ultraschall-Streuteilen; Definieren eines zweiten Objektvolumens mit der Mittellinie und einer zweiten Abmessung, die wenigstens gleich der Summe von der ersten Abmessung und der Dicke ist; und Bilden des Quellpixel-Datensatzes, indem die Pixeldaten wiedergegeben werden, die aus Echorückkehrsignalen abgeleitet werden, die durch Sample- bzw. Probevolumen in dem zweiten Objektvolumen reflektiert werden.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die ersten und zweiten Objektvolumen konzentrische Kreiszylinder mit ersten bzw. zweiten Radien sind, wobei die erste Abmessung gleich dem ersten Radius und die zweite Abmessung gleich dem zweiten Radius ist.
  12. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Doppler-Daten Geschwindigkeitsdaten aufweisen.
  13. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Doppler-Daten Energie(Power)-Daten aufweisen.
  14. Verfahren nach Anspruch 7, gekennzeichnet durch: Projizieren der Intensitätsdaten in dem Quellpixel-Datensatz auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wodurch ein projizierter Datensatz gebildet wird, der ein zweites projiziertes Bild darstellt, und bildliches Darstellen des zweiten projizierten Bildes.
  15. Verfahren zur dreidimensionalen Bildgebung von einem Objektvolumen, das sich bewegende Ultraschall-Streuteile enthält, die durch Gewebe begrenzt sind, enthaltend die Schritte: Aussenden von Ultraschall-Bündeln in das Objektvolumen; Erfassen von Ultraschall-Echos, die von dem Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen reflektiert werden; Verarbeiten des Ultraschall-Echos aus jedem Sample- bzw. Probevolumen, um ein entsprechendes Doppler-Datum zu gewinnen; Verarbeiten des Ultraschall-Echos aus jedem Sample- bzw. Probevolumen, um ein entsprechendes Intensitätsdatum zu gewinnen; Korrelieren der Doppler-Daten mit den Intensitätsdaten, um ein entsprechendes Pixeldatum für jedes Sample- bzw. Probevolumen zu bilden, wobei die Pixeldaten einen ersten Satz von Pixeldaten mit einer Doppler-Komponente oberhalb eines vorbestimmten Schwellenwertes und einen zweiten Satz von Pixeldaten mit einer Doppler-Komponente unterhalb des vorbestimmten Schwellenwertes aufweisen, wobei der zweite Pixeldatensatz auf Pixeldaten begrenzt ist, die aus Sample- bzw. Probevolumen in einem ersten Objektvolumen mit einer vorbestimmten Relation zu einem zweiten Objektvolumen gewonnen werden, das durch Sample- bzw. Probevolumen gebildet wird, die die sich bewegenden Ultraschall-Streuteile enthalten, wobei die vorbestimmte Relation eine Funktion von der Konfiguration des Gewebes ist, das die sich bewegenden Ultraschall-Streuteile begrenzt; Gewinnen eines Quellsatzes von Intensitätsdaten, wobei der Quellintensitäts-Datensatz wenigstens Intensitätsdaten enthält, die aus dem zweiten Satz von Pixeldaten genommen sind; Projizieren des Quellsatzes von Intensitätsdaten auf eine erste Bildebene, um ein erstes projiziertes Bild von Gewebe zu bilden; und bildliches Darstellen des ersten projizierten Bildes von Gewebe.
  16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die ersten und zweiten Objektvolumen konzentrische Kreiszylinder mit ersten bzw. zweiten Radien sind, wobei der erste Radius größer als der zweite Radius ist.
  17. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die Doppler-Daten Geschwindigkeitsdaten aufweisen.
  18. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die Doppler-Daten Energie(Power)-Daten aufweisen.
  19. Verfahren nach Anspruch 15, gekennzeichnet durch: Projizieren des Quellsatzes von Intensitätsdaten auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, um ein zweites projiziertes Bild von Gewebe zu bilden, und bildliches Darstellen des zweiten projizierten Bildes von Gewebe.
  20. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß der Quellintensität-Datensatz keine Intensitätsdaten enthält, die von Sample- bzw. Probevolumen abgeleitet sind, die außerhalb des ersten Objektvolumens angeordnet sind.
DE19819892A 1997-05-07 1998-05-04 Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung Expired - Fee Related DE19819892B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/852,259 US5899863A (en) 1997-05-07 1997-05-07 Method and apparatus for segmenting B-mode intensity data using doppler shift data in three-dimensional ultrasound imaging
US852259 1997-05-07

Publications (2)

Publication Number Publication Date
DE19819892A1 DE19819892A1 (de) 1998-11-12
DE19819892B4 true DE19819892B4 (de) 2007-06-28

Family

ID=25312874

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819892A Expired - Fee Related DE19819892B4 (de) 1997-05-07 1998-05-04 Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung

Country Status (4)

Country Link
US (1) US5899863A (de)
JP (1) JP4204095B2 (de)
DE (1) DE19819892B4 (de)
IL (1) IL124169A (de)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
US6048312A (en) * 1998-04-23 2000-04-11 Ishrak; Syed Omar Method and apparatus for three-dimensional ultrasound imaging of biopsy needle
JP4260920B2 (ja) * 1998-05-13 2009-04-30 株式会社東芝 超音波診断装置
US6126601A (en) * 1998-10-29 2000-10-03 Gilling; Christopher J. Method and apparatus for ultrasound imaging in multiple modes using programmable signal processor
US6102861A (en) * 1999-04-23 2000-08-15 General Electric Company Method and apparatus for three-dimensional ultrasound imaging using surface-enhanced volume rendering
US6413219B1 (en) 1999-03-31 2002-07-02 General Electric Company Three-dimensional ultrasound data display using multiple cut planes
US6322505B1 (en) 1999-06-08 2001-11-27 Acuson Corporation Medical diagnostic ultrasound system and method for post processing
US6325759B1 (en) * 1999-09-23 2001-12-04 Ultrasonix Medical Corporation Ultrasound imaging system
IL132266A0 (en) * 1999-10-07 2001-03-19 Elgems Ltd Image navigation
AU1376601A (en) * 1999-11-17 2001-05-30 Bayshore Capital Inc. Method and apparatus for automated transaction processing
US6515657B1 (en) 2000-02-11 2003-02-04 Claudio I. Zanelli Ultrasonic imager
US6318179B1 (en) * 2000-06-20 2001-11-20 Ge Medical Systems Global Technology Company, Llc Ultrasound based quantitative motion measurement using speckle size estimation
US7940966B2 (en) 2000-11-24 2011-05-10 U-Systems, Inc. Full-field breast image data processing and archiving
US7615008B2 (en) * 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7597663B2 (en) 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
US7103205B2 (en) * 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
JP3898047B2 (ja) * 2001-07-09 2007-03-28 セイコーインスツル株式会社 血液レオロジー測定装置
US6824517B2 (en) * 2002-06-25 2004-11-30 Koninklijke Philips Electronics N.V. Ultrasound quantification in real-time using acoustic data in more than two dimensions
US7275547B2 (en) * 2003-10-08 2007-10-02 Boston Scientific Scimed, Inc. Method and system for determining the location of a medical probe using a reference transducer array
JP2007509722A (ja) * 2003-10-29 2007-04-19 アレズ フィジオニックス リミテッド 超音波流体の流動中心線を決定するための方法および装置
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
US20050267365A1 (en) * 2004-06-01 2005-12-01 Alexander Sokulin Method and apparatus for measuring anatomic structures
EP1744181B8 (de) * 2005-07-15 2014-04-09 Kabushiki Kaisha Toshiba Diagnostisches Ultraschallgerät und Verfahren zur Verarbeitung von Ultraschallbildern
JP4881112B2 (ja) * 2006-09-19 2012-02-22 株式会社東芝 超音波診断装置及び画像データ生成方法
US8435180B2 (en) * 2007-09-17 2013-05-07 Siemens Medical Solutions Usa, Inc. Gain optimization of volume images for medical diagnostic ultrasonic imaging
JP5263867B2 (ja) * 2007-10-15 2013-08-14 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波撮像装置
US8696577B2 (en) * 2012-04-20 2014-04-15 Siemens Medical Solutions Usa, Inc. Tongue imaging in medical diagnostic ultrasound
KR102468133B1 (ko) * 2016-02-29 2022-11-18 엘지전자 주식회사 발 정맥 인증 장치
KR101882281B1 (ko) * 2017-09-15 2018-08-24 엘지전자 주식회사 디지털 디바이스 및 그의 생체 인증 방법
KR101882282B1 (ko) * 2017-09-22 2018-08-24 엘지전자 주식회사 디지털 디바이스 및 그의 생체 인증 방법
WO2019231042A1 (ko) * 2018-06-01 2019-12-05 엘지전자 주식회사 생체 인증 장치
CN110477955B (zh) * 2019-08-22 2021-05-11 电子科技大学 一种基于iq数据的血管自动识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
US5524629A (en) * 1994-11-02 1996-06-11 General Electric Company Color flow processor having adaptive wall filter

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3187148B2 (ja) * 1991-08-26 2001-07-11 株式会社東芝 超音波診断装置
US5497776A (en) * 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
US5365929A (en) * 1993-10-04 1994-11-22 Advanced Technology Laboratories, Inc. Multiple sample volume spectral Doppler
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
WO1997000482A1 (en) * 1995-06-15 1997-01-03 The Regents Of The University Of Michigan Method and apparatus for composition and display of three-dimensional image from two-dimensional ultrasound
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
US5524629A (en) * 1994-11-02 1996-06-11 General Electric Company Color flow processor having adaptive wall filter

Also Published As

Publication number Publication date
DE19819892A1 (de) 1998-11-12
JPH1128213A (ja) 1999-02-02
IL124169A (en) 2000-12-06
US5899863A (en) 1999-05-04
JP4204095B2 (ja) 2009-01-07

Similar Documents

Publication Publication Date Title
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE19819794A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten
DE60038382T2 (de) Intravaskuläre ultraschallbildanalyse unter verwendung einer aktiven konturmethode
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE69936418T2 (de) Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE19819801B4 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite
DE69735737T2 (de) Medizinische diagnostische dreidimensionale Ultraschall-Abbildung von Gewebetextur und Vaskulatur
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE102005019171B4 (de) Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten
DE69736549T2 (de) System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder
US6155978A (en) Three-dimensional imaging by projecting morphologically filtered pixel data
DE60130598T2 (de) Verfahren and Vorrichtung zum automatischen Einstellen eines Abtasttores in Puls-Dopplerultraschallbildgebung
DE69935841T2 (de) Verfahren und Gerät zur automatischen Bestimmung des Doppler-Winkels bei der Ultraschallabbildung
DE19910771A1 (de) Verfahren und Einrichtung zum Nachfolgen einer Abtastebenentbewegung beim dreidimensionalen Freihand-Ultraschall-Abtasten unter Verwendung adaptiver Flecken-Korrelation
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE102010049324A1 (de) Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung
DE4401302A1 (de) Verfahren und Vorrichtung zur Echtzeit-Bestimmung des Volumens eines Körperhohlraums
DE4236757C2 (de) Ultraschalldiagnosegerät
DE19819793A1 (de) Verfahren und Einrichtung zum Segmentieren von Farbströmungs-Mode-Daten unter Verwendung von Geschwindigkeitsinformation bei der dreidimensionalen Ultraschall-Bildgebung
DE10243152A1 (de) Ultraschalldiagnoseverfahren und Gerät zur Bilderzeugung aus mehreren 2D-Schnitten
EP0962785A1 (de) Verfahren zur Untersuchung von Objekten mit Ultraschall
WO1999004288A1 (de) Verfahren und vorrichtung zur aufnahme von ultraschallbildern

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141202