DE19819831A1 - Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten - Google Patents

Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten

Info

Publication number
DE19819831A1
DE19819831A1 DE19819831A DE19819831A DE19819831A1 DE 19819831 A1 DE19819831 A1 DE 19819831A1 DE 19819831 A DE19819831 A DE 19819831A DE 19819831 A DE19819831 A DE 19819831A DE 19819831 A1 DE19819831 A1 DE 19819831A1
Authority
DE
Germany
Prior art keywords
pixel data
data
pixel
image
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19819831A
Other languages
English (en)
Inventor
William Thomas Hatfield
Harvey E Cline
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19819831A1 publication Critical patent/DE19819831A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Hematology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

Diese Erfindung bezieht sich allgemein auf Ultraschall-Bild­ gebung der menschlichen Anatomie zum Zweck der medizini­ schen Untersuchung. Insbesondere bezieht sich die Erfindung auf ein Verfahren und eine Einrichtung zur dreidimensionalen Abbildung von Blutgefäßen im menschlichen Körper durch Erfas­ sen der Intensität von Ultraschall-Echos, die von den Gefäßen reflektiert werden.
Zu den am weitesten üblichen Arten der diagnostischen Ultra­ schall-Bildgebung zählen die (zur Abbildung interner physika­ lischer Strukturen benutzten) B- und M-Moden, das Doppler- sowie das Farbströmungs(color flow)verfahren (wobei das letztere hauptsächlich zur Abbildung von Strömungscharakteri­ stiken, wie zum Beispiel in Blutgefäßen, eingesetzt wird). Bei der konventionellen B-Mode-Bildgebung erzeugen Ultra­ schall-Abtaster bzw. -Scanner Bilder, in denen die Helligkeit bzw. Leuchtdichte eines Pixels auf der Intensität der Echorückkehr basiert. Der Farbströmungs-Mode wird typischer­ weise benutzt, um die Geschwindigkeit einer Fluidströmung zum/vom Wandler zu erfassen, und er verwendet im wesentlichen dieselbe Technik, wie sie beim Dopplerverfahren eingesetzt wird. Während das Dopplerverfahren die Geschwindigkeit in Abhängig von der Zeit für ein einzelnes selektiertes Sample- bzw. Probevolumen anzeigt, bringt der Farbströmungs-Mode gleichzeitig Hunderte von benachbarten Samplevolumen zur Darstellung, die alle einem B-Mode-Bild überlagert und zur Darstellung der Geschwindigkeit jedes Samplevolumens farbko­ diert sind.
Die Messung der Blutströmung im Herzen und in den Gefäßen unter Anwendung des Dopplereffekts ist bekannt. Während die Amplitude der reflektierten Wellen zur Erzeugung von Schwarz­ weißbildern des Gewebes benutzt wird, kann die Frequenzver­ schiebung von rückgestreuten Wellen zur Messung der Geschwin­ digkeit der rückstreuenden Teile des Gewebes oder Blutes benutzt werden. Die Veränderung oder Verschiebung in der rückgestreuten Frequenz nimmt zu, wenn Blut in Richtung auf den Wandler hin strömt, und nimmt ab, wenn Blut von dem Wandler weg strömt. Farbströmungsbilder werden erzeugt, indem man eine Farbdarstellung der Geschwindigkeit von sich bewe­ gendem Material, z. B. von Blut, einem Schwarzweißbild der Anatomie überlagert.
Der Vorteil einer Darstellung von anatomischen Daten im B-Mode zusammen mit Geschwindigkeitsdaten besteht darin, daß sie für den Benutzer brauchbarere Information bietet, als wenn die Geschwindigkeitsdaten mit einem undurchsichtigen bzw. opaken Hintergrund dargestellt werden. Weiterhin ist es für den Benutzer einfacher, die abzutastende Anatomie aufzu­ finden, ohne die Geschwindigkeitseignung abschalten zu müs­ sen.
Die vorliegende Erfindung ist in einem Ultraschall-Bild­ gebungssystem verkörpert, das aus vier hauptsächlichen Untersystemen besteht: einem Bündelformer 2 (vgl. Fig. 1), einem Prozessor-Subsystem 4, einer Abtastkonverter/Display­ steuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung erfolgt zentral in der Hauptsteuerung 8, welche die Bedie­ nereingaben über eine (nicht gezeigte) Bedienerschnittstelle empfängt und ihrerseits die verschiedenen Untersysteme steu­ ert. Die Hauptsteuerung erzeugt ebenfalls für das System die Zeit- und Steuersignale, die über einen Systemsteuerbus 10 sowie einen (nicht gezeigten) Abtaststeuerbus verteilt wer­ den.
Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän­ gen von dem Wandler an den Strahl- bzw. Bündelformer. Der Bündelformer gibt zwei aufsummierte, digitale Empfangsbündel im Basisband aus. Die Basisbanddaten werden als Eingang an den B-Mode-Prozessor 4A und den Farbströmungsprozessor 4B gegeben, wo sie entsprechend dem Datenerfassungsmodus prozes­ siert und als prozessierte akustische Vektor- (Bündel-) Daten an die Abtastkonverter/Displaysteuerung 6 ausgegeben werden. Die Abtastkonverter/Displaysteuerung 6 nimmt die prozessier­ ten akustischen Daten auf und gibt die Video-Displaysignale für die Abbildung in einem Rastercan-Format an einen Farbmo­ nitor 12 aus. Die Abtastkonverter/Displaysteuerung 6 forma­ tiert weiterhin in Zusammenarbeit mit der Hauptsteuerung 8 mehrfache Bilder zum Display, für Display-Anmerkungen, grafi­ sche Auflagen (overlays) sowie für eine Wiedergabe von Film­ schleifen und aufgezeichneten Zeitliniendaten.
Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von dem Bündelformer in eine logarithmisch komprimierte Version der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria­ ble Amplitude der Einhüllenden des Signals als eine Grauskala unter Verwendung eines 8-Bit Ausgangs für jedes Pixel ab. Die Einhüllende eines Basisbandsignals ist die Größe des Vektors, der die Basisbanddaten repräsentiert.
Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam­ mern usw. reflektierten Schallwellen wird proportional zu der Geschwindigkeit der Blutzellen verschoben, und zwar in posi­ tiver Richtung für sich auf den Wandler zu bewegende Zellen und in negativer Richtung für die sich davon weg bewegenden Zellen. Der Farbströmungs(CF von color flow))-Prozessor 4B wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindigkeit in der Abbildungsebene vorzusehen. Die Blutgeschwindigkeit wird errechnet durch Messung der Phasen­ verschiebung zwischen zwei Aktivierungen (firings) bei einem spezifischen Entfernungstor (range gate). Statt einer Messung des Dopplerspektrums bei einem Entfernungstor in der Abbil­ dung werden die Blutgeschwindigkeit von mehreren Vektorposi­ tionen sowie mehrere Entfernungstore längs jedes Vektors berechnet, und aus dieser Information wird eine zweidimensio­ nale Abbildung erstellt. In speziellerer Hinsicht erzeugt der Farbströmungsprozessor Geschwindigkeitssignale (8 Bits), Varianz- (Turbulenz-) Signale (4 Bits) sowie Energie- bzw. Powersignale (8 Bits). Der Bediener wählt aus, ob die Ge­ schwindigkeit und Varianz oder die Energie an den Abtastkon­ verter ausgegeben werden. Das Ausgangssignal wird als Eingang für eine in dem Videoprozessor 22 enthaltene Nachschlageta­ belle für die Chrominanz- bzw. Buntsteuerung gegeben. Jede Adresse in der Nachschlagetabelle speichert 24 Bits. Für jedes Pixel in dem herzustellenden Bild steuern 8 Bits die Rot-Intensität, 8 Bits steuern die Grün-Intensität und 8 Bits steuern die Blau-Intensität. Diese Bit-Muster werden derart vorgewählt, daß mit Richtungs- oder Größenänderungen der Strömungsgeschwindigkeit sich die Farbe des Pixels an jeder Stelle ändert. Beispielsweise wird eine Strömung auf den Wandler zu als rot angezeigt, und eine Strömung vom Wandler weg wird als blau angezeigt. Je schneller die Strömung ist, desto heller ist die Farbe.
Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver­ ter/Displaysteuerung 6 nehmen jeweils die von den Prozessoren 4A und 4B prozessierten digitalen Daten auf und führen die Koordinatentransformationen der Farbströmungs- und B-Mode-Da­ ten vom Polarkoordinaten- (R-θ) Sektorformat oder vom Cartesischen linearen Koordinatenfeld zu geeignet skalierten Display-Pixeldaten durch, die im X-Y Displayspeicher 18 gespeichert werden. Im B-Mode werden die Intensitätsdaten im X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei Pixel zu 8 Bit speichert. Alternativ werden im Farbströmungs­ modus die Farbströmungsdaten wie folgt im Speicher gespei­ chert: Intensitätsdaten (8 Bits), Geschwindigkeits- oder Energiedaten (8 Bits) sowie Turbulenzdaten (4 Bits). Eine Vielzahl von aufeinanderfolgenden (Voll-)Bildern (frames) von Farbströmungs- oder B-Mode-Daten werden im Filmspeicher auf einer First-In/First-Out (FIFO) Basis gespeichert. Der Film­ speicher wirkt als ein im Hintergrund laufender ringförmiger Bildpufferspeicher, der kontinuierlich auf Bilddaten zu­ greift, die in Echtzeit für den Benutzer zur Darstellung gebracht werden. Wenn der Benutzer das System "einfriert", hat er die Möglichkeit, zuvor im Filmspeicher eingefangene Bilddaten anzuschauen. Die Grafikdaten für die Herstellung von grafischen Auflagen auf dem dargestellten Bild werden erzeugt und gespeichert in dem Zeitlinien/Grafikprozessor und Displayspeicher 20. Der Videoprozessor 22 schaltet im Multi­ plexbetrieb zwischen den Grafikdaten, den Bilddaten sowie den Zeitliniendaten hin und her, um den endgültigen Videoausgang in einem Rasterabtastformat auf dem Videomonitor 12 zu erzeu­ gen. Zusätzlich sorgt er für verschiedene Grauskala- und Farbkartierungen (maps) sowie für die Verknüpfung der Grau­ skala- und Farbbilder.
Das konventionelle Ultraschall-Bildgebungssystem sammelt B-Mode- oder Farbströmungs-Mode-Bilder in einem Filmspeicher 24 auf einer kontinuierlichen Basis. Der Filmspeicher 24 stellt einen residenten digitalen Bildspeicher für Einzelbildbe­ trachtung und für Mehrfachbildschleifenbetrachtung sowie verschiedene Steuerungsfunktionen zur Verfügung. Das während der Einzelbild-Filmwiedergabe dargestellte interessierende Gebiet ist dabei dasjenige, das während der entsprechenden Bilderfassung benutzt wurde. Der Filmspeicher arbeitet eben­ falls als ein Puffer für die Übertragung von Bildern zu digitalen Archivierungsgeräten über die Hauptsteuerung 8.
Konventionelle Ultraschall-Scanner erzeugen zweidimensionale B-Mode-Bilder, bei denen die Helligkeit eines Pixels auf der Intensität der Echorückkehr basiert. Bei der Farbströmungs­ bildgebung wird bei einer vorhandenen Bewegung eine Doppler-Ver­ schiebung in dem Rückkehrsignal proportional zu der Ge­ schwindigkeit der Bewegungen erzeugt. Beispielsweise wird in einer Arterie fließendes Blut eine Doppler-Verschiebung erzeu­ gen. Die Doppler-Verschiebung kann unter Verwendung verschie­ dener Farben zur Anzeige der Geschwindigkeit und Richtung der Strömung zur Darstellung gebracht werden. Eine Strömung in Richtung auf den Wandler zu wird typischerweise in rot ge­ zeigt, während eine Strömung weg von dem Wandler in blau gezeigt wird. Bei der Power-Dopplerbildgebung wird die in dem zurückkommenden Dopplersignal enthaltene Energie zur Darstel­ lung gebracht.
Zweidimensionale Ultraschall-Bilder sind oftmals schwer zu interpretieren aufgrund des Unvermögens des Beobachters, sich die zweidimensionale Darstellung der gerade abgetasteten Anatomie zu veranschaulichen. Wird jedoch die Ultraschallson­ de über einen interessierenden Bereich geführt und werden dabei zweidimensionale Abbildungen zur Formung eines dreidi­ mensionalen Volumens akkumuliert, dann läßt sich die Anatomie viel leichter sowohl für den geübten als auch für den ungeüb­ ten Betrachter vorstellen. Typischerweise werden dreidimen­ sionale Abbildungen von B-Mode-Daten und Farbströmungsge­ schwindigkeits- oder Energiedaten separat zur Darstellung gebracht. Es gibt jedoch viele Gelegenheiten, bei denen beim Darstellen der Geschwindigkeits- oder Energiedaten allein der Betrachter ein Gefühl für die gerade abgebildete Anatomie verliert. Durch eine Kombination von Intensitätsprojektionen mit Projektionen von Farbströmungsgeschwindigkeit oder Energiedaten ist es möglich, ein Gefühl für die Anatomie beizubehalten und gleichzeitig die Geschwindigkeit oder Energie abzubilden. Dies gibt dem Betrachter ein Gefühl dafür, wie die mittels der Farbströmungsbildgebung darge­ stellte Gefäßstruktur (vascularity) mit einem Teil der Anato­ mie, zum Beispiel einem Tumor oder einer Zyste zusammenhängen kann. Die dreidimensionale Ultraschall-Bildgebung ist von besonderem Nutzen bei der Sichtbarmachung von Blutgefäßen bei Gefäßeingriffen oder einer offenen Operation der Leber.
Die Ultraschall-Bildgebung leidet unter der inhärenten Arte­ faktabbildung, die als Maserung oder Flecken (Speckle) be­ zeichnet wird. Bei der Fleckenbildung handelt es sich um eine Aderung bzw. Marmorierung (mottling), die man bei den aus Interferenzmustern von mehrfach empfangenen Echos erzeugten Bildern findet. Diese Marmorierung wird hauptsächlich von dem toten Punkt (null) in dem akustischen Interferenzmuster gebildet, jedoch können auch andere Anomalien in der Abbil­ dung eine Marmorierung verursachen, z. B. elektronisches Grundrauschen. Die akustischen Nullpunkte werden betont bzw. erhöht durch die logarithmische Kompression, die zur Darstel­ lung des vollen Dynamikbereichs der Ultraschall-Abbildung erforderlich ist. Diese toten Punkte erscheinen als schwarze Löcher in der Abbildung. Fleckenrauschen und Artefakte be­ grenzen den Bereich von akzeptablen Betrachtungswinkeln bei der dreidimensionalen Ultraschall-Bildgebung.
Da jeder Parameter, der die Summe der zurückkehrenden Echos ändert, das Fleckenmuster verändert, existiert eine Anzahl von konventionellen Verfahren zur Reduzierung der Bild­ fleckenfehler. Zu den Beispielen für derartige konventionelle Verfahren gehören eine mehrfache Sendefokussierung, räumli­ cher und frequenzmäßiger Versatz (compounding) sowie räumli­ che Tiefpaß-Filterung. Die mehrfache Sendefokussierung, sowie die räumlichen und frequenzmäßigen Versatztechniken leiden an verringerten (Voll-)Bildfrequenzen (frame rates), während eine räumliche Tiefpass-Filterung eine verringerte Auflösung besitzt.
Die vorliegende Erfindung stellt ein Verfahren sowie eine Einrichtung dar zur dreidimensionalen Abbildung von Ultra­ schalldaten, bei der Flecken- bzw. Maserungsfehlerdaten (speckle artifact data) reduziert werden, bevor die von einem interessierenden Volumen gewonnenen Daten auf eine Bildebene projiziert werden. Die Einrichtung enthält einen Ultraschall-Scan­ ner, der B-Mode- oder Farbströmungsmode-Bilder in einem Filmspeicher sammelt, und zwar auf einer kontinuierlichen Basis oder als Antwort auf ein externes Triggerereignis, d. h. für eine Vielzahl von Schnitten (slices). Die Daten von einem jeweiligen interessierenden Gebiet für jeden Schnitt werden an eine Hauptsteuerung gesandt, wobei diese Daten ein inter­ essierendes Volumen bilden. Die Hauptsteuerung führt einen Algorithmus aus, der iterativ die Pixeldaten in dem interes­ sierenden Volumen unter Verwendung einer Strahlwurftechnik (ray-casting) auf mehrere gedrehte Bildebenen projiziert.
Gemäß der Erfindung glättet die Hauptsteuerung vor der Aus­ führung des Projektionsalgorithmus die in den Pixeldaten enthaltenen Maserungs- und/oder Rauschanteile durch Filtern. Dieses Filtern wird durchgeführt mittels eines schrittweisen Anwendens (stepping) eines Neun-Punkt-Kernels durch die Pixeldaten in jedem interessierenden Gebiet, das von den das interessierende Datenvolumen bildenden zweidimensionalen Schnitten erhalten wurde.
Gemäß der bevorzugten Ausführungsform der Erfindung wird ein Faltungsfilter zum Glätten der Maserung in den Pixeldaten verwendet. Insbesondere wird jedes zweidimensionale aus dem Filmspeicher ausgelesene Gebiet von Interesse in zwei Dimen­ sionen mittels Faltung gefiltert, d. h. die Pixeldaten werden sowohl in der horizontalen als auch in der vertikalen Rich­ tung gefiltert.
Eine Faltungsfilterung der Bilddaten wird ausgeführt, indem man einen gewünschten Bildbereich, zum Beispiel einen durch ein n × n Array von Pixeln (mit n ≧ 2) dargestellten Bereich definiert, indem man jedes der Pixel in dem n × n Array mit einem entsprechenden Gewichtungskoeffizient gewichtet und sodann die gewichteten Pixel aufsummiert, um einen gefilter­ ten Pixelwert zu erzeugen, der für eines der Pixel in dem n × n Array substituiert wird, z. B. für das zentrale Pixel in einem 3 × 3 Array. Alternativ kann das interessierende Volu­ men unter Anwendung eines Faltungsfilters mit einem n × n × n Kernel gefiltert werden. Eine Faltungsfilterung läßt sich mit digitalen Filtertechniken ausführen. Alternativ können die Pixeldaten unter Verwendung eines Median- bzw. Zentralwert­ filters oder eines Kantenbeibehaltungsfilters gefiltert werden.
Die gefilterten Pixeldaten bilden ein neues Datenvolumen, das sodann auf jede aufeinanderfolgende Bildebenen projiziert wird. Die projizierten Bilder mit reduzierter Maserung und Rauschen werden als separate (Voll-)Bilder (Frames) in dem Filmspei­ cher gespeichert, wobei jedes Bild dem letzten Hintergrund­ bild überlagert wird. Diese rekonstruierten Bilder werden dann selektiv von dem Systembediener zur Darstellung ge­ bracht. Die Bilder zeigen jegliche Blutgefäße in dem Objekt­ volumen mit großer Klarheit. Bei einer Darstellung im Filmbe­ trieb rotieren die Gefäße und man erhält ein besseres Gefühl der Tiefenvorstellung verglichen mit dem Fall der Abbildung eines zweidimensionalen Schnitts.
Die Erfindung wird im folgenden anhand von Ausführungsbei­ spielen unter Zuhilfenahme der Zeichnungen näher erläutert. Es zeigen:
Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio­ nalen Subsysteme innerhalb eines Echtzeit-Ultraschall Bildgebungssystems zeigt;
Fig. 2 ein Blockschaltbild der Einrichtung zur Rekonstruktion der Bilder enthaltend aufeinanderfolgende volumetrische Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
Fig. 3 ein Flußdiagramm, das die Schritte eines Algorithmus für die Rekonstruktion der Bilder unter Einschluß von aufein­ anderfolgenden volumetrischen Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß der bevor­ zugten Ausführung der vorliegenden Erfindung zeigt;
Fig. 4 eine schematische Darstellung des abgetasteten inter­ essierenden Objektvolumens, ein zugeordnetes Datenvolumen sowie eine Bildprojektionsebene, die in die volumetrische Herstellung einer umgekehrten Strahlwurfprojektion gemäß dem Stand der Technik miteinbezogen ist;
Fig. 5 eine schematische Darstellung, die ein Paar von geome­ trischen zweidimensionalen Konfigurationen entsprechend gleichen Ansichten von Objekt- und Datenvolumen zeigt, und die nützlich ist bei der Definition von notwendigen Skalier­ konstanten bei der dreidimensionalen Ultraschall-Bildgebung;
Fig. 6 ein schematisches Blockschaltbild einer Einrichtung zur Lieferung einer Projektion mit maximaler Intensität bei der dreidimensionalen Ultraschall-Bildgebung;
Fig. 7A eine schematische Darstellung eines zweidimensionalen Arrays von Pixeldaten;
Fig. 7B eine schematische Darstellung eines Satzes von 3 × 3 Gewichtungskoeffizienten, wie sie bei der Faltungsfilterung gemäß der vorliegenden Erfindung benutzt werden; und
Fig. 8 ein schematisches Blockdiagramm eines Faltungsfilters gemäß einer bevorzugten Ausführungsform der Erfindung.
Unter Bezugnahme auf Fig. 2 enthält die Hauptsteuerung 8 eine zentrale Verarbeitungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeord­ neten Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf, die für die Umsetzung des gewonnenen Volumens von Intensi­ täts- oder Farbströmungs-Mode-Daten in eine Vielzahl von dreidimensionalen unter verschiedenen Winkeln genommenen Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Spei­ cher 18 und den Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere steuert die CPU 42 den Pixeldatenfluß von dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem Filmspeicher zum Videoprozessor 22 und zur CPU 42 selbst. Wenn das Ultraschall-Bildgebungssystem im Farbströmungsmodus arbeitet, wird jedes (Voll-)Bild (frame) von Farbströmungsdaten, das einen von vielen Parallelscans- oder -schnitten durch das untersuchte Objekt repräsentiert, in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 übertragen. Ein das abgetastete Objektvolumen repräsentierender Stapel von Feldern bzw. Bildern wird im Abschnitt 24A des Filmspeichers 24 gespeichert. Während der Initialisierung (vgl. Schritt 26 in Fig. 3) holt die CPU 42 vom Abschnitt 24A des Filmspei­ chers lediglich die einem interessierenden Objektvolumen entsprechenden Farbströmungsdaten. Dies wird bewerkstelligt, indem man lediglich die Farbströmungsdaten in einem interes­ sierenden Gebiet von jedem gespeicherten Bild holt, das von irgendeinem Scan gewonnen wurde, der das interessierende Volumen geschnitten hatte. Mit anderen Worten, die dem inter­ essierenden Gebiet entsprechenden Farbströmungsdaten von jedem einen Bild eines Stapels von aufeinanderfolgenden Bildern bilden ein interessierendes Quelldatenvolumen.
Wie aus Fig. 3 zu ersehen ist, werden die Intensitätsdaten in dem dem interessierenden Objektvolumen entsprechenden Pixel­ datensatz vor der Projektion gefiltert (Schritt 28), um Flecken- bzw. Maserungsrauschen (Speckle-Rauschen) zu glätten und Artefakte zu reduzieren. Dies vermeidet während der Projektion den Verlust von Daten aufgrund von Maserungsrau­ schen. Beispielsweise erzeugen Blutgefäße weniger Echo als das umgebende Gewebe. Gefäße können deshalb unter Einsatz von Projektionen mit minimaler Intensität abgebildet werden. Alternativ werden im Umkehrvideo/Minimum-Mode die Intensi­ tätsdaten invertiert, um die Gefäße hell anstatt dunkel zu machen. Die Gefäße können dann unter Einsatz von Projektionen mit maximaler Intensität abgebildet werden. Um die Auswahl von maximalen Intensitäten, die helle Flecken im Gegensatz zu den gewünschten Pixeldaten sind, zu verhindern, kann vor der Projektion ein Filter zur Beseitigung solcher hellen Fleckin­ tensitäten benutzt werden. Gemäß der bevorzugten Ausführung der Erfindung werden die aus dem Filmspeicher 24 (vgl. Fig. 2) geholten Pixeldaten von der CPU 42 unter Verwendung eines 3 × 3 Faltungsfilters mit einem 111 141 111 Kernel gefiltert, d. h. das zentrale Pixel der Intensitätsdaten in jedem 3 × 3 Pixelarray wird in jedem Schnitt oder Bild ersetzt durch einen Intensitätswert, der proportional ist zu der Summe aus dem vierfachen Wert des zentralen Pixels plus der Summe aus den Werten der acht dieses Pixel umgebenden Pixel. Das gefil­ terte Quelldatenvolumen wird sodann im Speicher 44 abgespei­ chert (Schritt 30). In ähnlicher Weise kann ein Faltungsfil­ ter benutzt werden, um schwarze Löcher in einem Bild vor der Projektion mit minimaler Intensität zu entfernen.
Als nächstes führt die CPU 42 unter Verwendung des im US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus (ray casting algorithm) eine Reihe von Transformationen durch. Die aufeinanderfolgenden Transformationen repräsentie­ ren Projektionen mit maximaler, minimaler oder durchschnitt­ licher Intensität, Geschwindigkeits- oder Energieprojektio­ nen, die unter winkelmäßigen Inkrementen, beispielsweise in Intervallen von 10°, innerhalb eines Winkelbereichs, z. B. von +90° bis -90°, vorgenommen werden. Die Winkelinkremente müssen jedoch nicht 10° sein; auch ist die Erfindung nicht auf einen bestimmten Winkelbereich begrenzt.
In Übereinstimmung mit der bei der vorliegenden Erfindung angewandten Strahlwurftechnik werden die volumetrisch ange­ legten Projektionsbilder einer Probe 50 (vgl. Fig. 4) unter irgendeinem willkürlichen Betrachtungswinkel zur Anzeige gebracht, z. B. einem sphärischen Projektionswinkel, der durch die Winkelparameter (θ, Φ) bezeichnet wird, wobei θ der Winkel ist, den eine Verlängerung 58' eines Betrachtungs­ strahls 58 auf der X-Y Ebene bildet, und wobei Φ der Winkel des Strahls 58 bezogen auf die Verlängerung 58' ist, und zwar beim Scannen eines Objektvolumens 52 mittels eines Ultra­ schallwandlers. Das Samplevolumen 52 wird in einer derartigen Weise abgetastet, daß man eine Folge von geschichteten be­ nachbarten Schnitten (slices) oder Scheiben OS1, OS2, . . ., OSk erzeugt, von denen jede dieselbe Anzahl von Objektvolumenele­ menten (voxels) OV enthält. Jedes Voxel besitzt ein recht­ eckiges Profil in der Scheibenebene (z. B. in der X-Y Ebene); während die komplementären Seiten von gleicher Länge S sein können, so daß dieses Profil ein Quadrat sein kann, ist die Scheibendicke T im allgemeinen nicht gleich mit der Länge von jeder Seite. Somit enthält der erste Objektschnitt OS1 eine erste Anzahl von Objektvoxel OVij,1, wobei i und j die jewei­ ligen Positionen des Voxels auf der X-Achse und auf der Y-Achse sind. In gleicher Weise enthält der zweite Objekt­ schnitt OS2 Objektvoxel OVij,2. Ein willkürlicher Objekt­ schnitt OSk enthält Voxel OVij,k, wobei k die Position dieses Voxels auf der Z-Achse bedeutet.
Jedes Objektvoxel OVij,k wird analysiert und sein Datenwert (Intensität, Geschwindigkeit oder Energie) wird in ein ent­ sprechendes Datenvoxel DVij,k eines Datenvolumens 54 plaziert. Das Datenvolumen 54 ist ein einfaches kubisches i, j, k Gitter, obwohl die Dicke eines jeden Objektschnitts OSk und jede Flächengröße eines Objektvoxels (die Größe des Voxels in der X-Y Ebene) im allgemeinen nicht dieselbe sein werden. Das bedeutet, es kann nicht nur das Objektvolumen unterschiedli­ che Dimensionen X, Y und Z für jedes Voxel aufweisen, sondern es braucht auch die insgesamte Anzahl von Voxel in irgendei­ ner Dimension nicht dieselbe zu sein. Beispielsweise kann ein typischer dreidimensionaler Ultraschall-Scan jeden Schnitt mit einer 256 × 256 Voxel enthaltenden Matrix liefern und 128 Schnitte betreffen.
Gemäß einer von der CPU 42 angewandten bekannten Technik wird ein Bild des Objekts 50 projiziert (Schritt 34 in Fig. 3) durch Projektion eines Strahls von einem Gitterpunkt im Datenvoxel DVij,k in Richtung auf die Bildebene 56. Der Ein­ fachheit halber kann der Gitterpunkt beispielsweise die am nächsten an dem Datenvolumenursprung liegende Datenvoxelspit­ ze sein. Der Projektionsstrahl 17 tritt aus dem Datenvolumen 54 unter einem Projektionswinkel mit sphärischen Winkelpara­ metern (α, β) aus, die aus den sphärischen Winkelparametern (θ, Φ) transformiert wurden, unter denen das Objektvolumen 52 betrachtet wird. Diese beiden Winkel sind nicht gleich, und zwar aufgrund der geometrischen Verzerrung, die durch die Benutzung eines kubischen Datenvolumens 54 zusammen mit einem nicht-kubischen Objektvolumen 52 verursacht wird. Der proji­ zierte Strahl 17 weist jedoch eine Verlängerung 17' in der x-y Ebene auf, die einen Winkel α mit Bezug auf die x Achse des Datenvolumens bildet, und der Strahl 17 bildet einen Winkel β mit der Z Achse. Somit werden die Winkel α und β bestimmt durch einen (nachfolgend zu beschreibenden) Rota­ tionsprozeß, um der Betrachtung des Objektvolumens 52 unter dem gewünschten Betrachtungswinkel (θ, Φ) zu entsprechen (unter der Annahme eines Betriebs mit sphärischen Koordina­ ten). Jeder der Strahlen 17 wird von dem Voxel-Gitterpunkt des Datenvolumens in Richtung auf die Bildebene projiziert.
Obwohl alle Strahlen 17 auf irgendeinen Bereich der Bildebene auftreffen, wird nur den in das betrachtete Bildebenenpixel 60a fallenden Strahlen erlaubt, zu den Daten für dieses Bildebenenpixel beizutragen. Hat man somit einen Teil des Objektvolumens 52 zur Betrachtung ausgewählt sowie einen Betrachtungswinkel (θ, Φ), unter dem dieses ausgewählte Objektvolumen betrachtet werden soll, wird der Datenwert in jedem Voxel des entsprechenden Teils von dem Datenvolumen unter einem Winkel (α, β) (entsprechend der Betrachtung des verzerrten Datenvolumens mit Bezug auf das Objektvolumen) in Richtung auf die Bildebene 56 projiziert. Der Datenwert in einem ersten Voxel (zum Beispiel Voxel DVi,1,k), wird somit in Übereinstimmung mit den gewählten Werten θ und Φ entlang dem Strahl 17a rückprojiziert. Dieser Strahl 17a trifft bei einer Position 64a innerhalb des Pixels 60a auf die Bildebene 56 auf, und weil dies der erste auf dieses Pixel auftreffende Strahl ist, wird der Intensitäts-, Geschwindigkeits- oder Energiewert des auftreffenden Strahls dem gewünschten Pixel 60a zugeteilt (bzw. darin gespeichert). Das nächste Voxel in dem Datenvolumen (z. B. Voxel DVi,2,k) hat seinen zugehörigen Strahl 17b unter derselben winkelmäßigen (α, β) Konfiguration vom Voxel-Gitterpunkt projiziert, und seine Position 64b auf der Bildebene 56 wird festgehalten. Unter der Annahme, daß diese Auftreffposition 64b im gewünschten Pixel 60a liegt, wird der zweite projizierte Wert (für eine Maximalpixelpro­ jektion) mit dem nun gespeicherten ersten Wert verglichen, und es wird der größere Wert im Speicher für das Pixel 60a plaziert. Es wird verständlich sein, daß für eine Projektion mit einem Durchschnittswert der Wert eines laufenden proji­ zierten Datenvoxels zu der bereits gespeicherten Summe für das Bildfeldpixel (image panel pixel), auf das der Projekti­ onsstrahl auftrifft, hinzuaddiert wird, und die Summe schließlich durch eine gezählte Anzahl von solchen auftref­ fenden Strahlen für dieses Pixel geteilt wird. Da jedes Voxel in dem ausgewählten Datenvolumen sequentiell eingegeben und in Richtung auf die Bildebene 56 projiziert wird, wird schließlich ein Datenvolumenvoxel (z. B. Voxel DVi,3,k) ent­ lang seinem zugehörigen Strahl 17p projiziert und trifft nicht innerhalb des gewünschten Pixels 60a auf, so daß sein Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für das Pixel 60a gespeicherten Datenwert verglichen wird. Es wird nun für diese Projektion von Daten bei dem bestimmten (θ, Φ) dreidimensionalen Betrachtungswinkel der maximale Datenwert für das Pixel 60a festgelegt. Tatsächlich weist der Strahl 17p jedoch einen Auftreffpunkt 64p auf, der in ein anderes Pixel (z. B. Pixel 60b) der Bildebene fällt; er wird mit dem darin gespeicherten Datenwert verglichen und der nach dem Vergleich sich ergebende größere Wert wird in den Spei­ cher für dieses Pixel zurückgeführt. Alle Datenwerte werden auf Null zurückgesetzt, wenn eine neue Projektion erfolgen soll. Somit wird jedes der Pixel der Bildebene beim Start einer Bildprojektionsprozedur rückgesetzt, und alle Datenvo­ lumenvoxel (in dem gesamten Raum oder in dem ausgewählten Teil, wie durch den Teil des ausgewählten Objektvolumens 52 festgelegt) werden einzeln und sequentiell abgetastet. Der Datenwert in jedem Datenvoxel DV wird durch einen zugeordne­ ten Strahl 17 so projiziert, daß er in einem Pixel 60 davon auf die Bildebene 56 auftrifft, wobei der Maximalwert in jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten Datenvolumenvoxels verglichen wird, um den größeren davon zu bestimmen, welcher größere Wert sodann als Teil des Maximal­ wertbildes gespeichert wird. In der Praxis wird für eine maximale Pixelprojektion der gespeicherte Maximalwert ledig­ lich dann verändert, wenn der neuerliche Wert des projizier­ ten Datenvoxels größer ist als der bereits für das Bildebe­ nenpixel gespeicherte Datenwert, auf den der neuerliche Projektionsstrahl auftrifft.
Gemäß einem anderen Aspekt der obigen Technik wird die Daten­ projektion (im Schritt 36 in Figur. 3) skaliert und es wird eine etwaige Anisotropie zwischen dem Objektvolumen und der Bildebene durch lediglich einen einzigen Satz von Berechnun­ gen beseitigt, nachdem die Rückprojektion abgeschlossen ist. Es wird nun auf Fig. 5 Bezug genommen. Da es sich bei dem Objektvolumen 52 um ein reales Volumen handelt, während es sich bei dem Datenvolumen 54 um ein abstraktes Konzept han­ delt, ist es nötig, den Betrag der Verzerrung der Projekti­ onsdaten aufgrund der Darstellung des kubischen Datenvolumen­ gitters 54 unter einem unterschiedlichen Winkel γ in einer ersten Ebene zu bestimmen und sodann den Winkel ψ, unter dem eine willkürliche Betrachtungsrichtung 66 mit Bezug sowohl auf das Objektvolumen 52 als auch auf das Datenvolumen 54 positioniert wird. Die offenbaren Dimensionen von jedem Voxel werden sich in dem Maße ändern, wie sich die effektiven Erhebungswinkel ψ und γ ändern. Wenn das Aspektverhältnis A (definiert als das Verhältnis der tatsächlichen Scheibendicke T im Objektvolumen 52 zur tatsächlichen Pixelgröße S in demselben Objektvolumen 52) nicht eins beträgt (d. h. größer oder gleich eins ist, da das Objektvoxel kein kubisches Voxel ist, wie man es beim Datenvolumen 54 antrifft), dann werden die Erhebungswinkel ψ und γ verschieden sein, und der effek­ tive Erhebungswinkel ψ im Datenvolumen wird gegenüber dem tatsächlichen Erhebungswinkel γ in dem Objektvolumen unter­ schiedlich sein. Die Rotation der Daten erfolgt gemäß einem Objekterhebungswinkel, der erhalten wird durch:
Danach können die projizierten Daten so skaliert werden, daß sie (wenn die Drehung um die horizontale Achse erfolgt) die korrekte Höhe in dem Objektvolumen erhalten, und zwar durch eine Multiplikation aller projizierten Datenhöhen mit dem Höhenskalierungsfaktor. Die alte projizierte Bildhöhe H kann mit einem effektiven Skalierungsfaktor Es korrigiert werden, wobei gilt
und die neue Höhe H' = H.Es ist. Dasselbe trifft für die Breite zu, wenn die Drehung um die vertikale Achse erfolgt.
Unter Verwendung der obigen Beziehung führt die Rotation der Datenvolumenwinkel (α, β) zu den Winkeln (θ, Φ), weil die Verzerrung lediglich entlang einer Achse auftritt, so daß der Winkel θ gleich dem Winkel α ist. Die Elemente der 3 × 3 Rotationsmatrix [M] können bestimmt werden, und bei den gege­ benen zwei in Betracht kommenden Drehungswinkeln werden diese Beziehungen benutzt, um die Transformationen vom Datenvolumen zur Bildebene zu bestimmen:
X' = M1X + M2Y + M3Z + XO
Y' = M4X + M5Y + M6Z + YO
wobei M1-M6 die ersten beiden Zeilen der Rotationsmatrix sind (d. h. M1 = -sinθ, M2 = cosθ sinψ, M3 = 0, M4 = -cosθ sinψ2, M5 = -sinθ sinψ und M6 = cosψ), X' und Y' die Posi­ tionen des projizierten Punktes auf der Bildebene sind, und wobei XO und YO die X und die Y Versetzungen (jeweils bezogen auf die niedrigsten X und Y Punktwerte) der Bildebene sind, bei denen der ausgewählte Teil der Bildebene beginnt. Nachdem die Daten auf die Bildebene 56 projiziert sind, wird das Bild zur Korrektur des Effekts der anisotropen Objektvoxel ska­ liert. Es wird ersichtlich sein, daß die Faktoren M1-M6 zu Beginn einer Projektion (bei gegebenen θ und Φ) vorberechnet (Schritt 32 in Fig. 3) und für alle Rotationsberechnungen benutzt werden können.
Fig. 6 zeigt eine Einrichtung zur Durchführung der oben beschriebenen Strahlwurftechnik, die in der Hauptsteuerung 8 (oder in einem separaten zugeordneten Prozessor) vorgesehen ist. Eine derartige Einrichtung weist eine dreidimensionale Datenspeichereinrichtung 70 zum Speichern von Schnittdaten auf, wie sie an einem Dateneingang 70a vom Filmspeicher 24 erhalten werden. Die mit jedem Objektvoxel zusammenhängenden Daten werden bei der Adresse des betreffenden Voxels gespei­ chert, und zwar als Reaktion auf eine Eingangsinformation für die Voxeladresse, die an einem Voxeladreßeingang 70b von einer CPU 74 erhalten wird. Sobald die Datenspeichereinrich­ tung gefüllt ist (entsprechend der Übertragung aller erfor­ derlichen Daten vom Objektvolumen 52 zum Datenvolumen 54), wird der interessierende Teil des Objektvolumens ausgewählt, und es werden seine Startecke sowie die Ausdehnung in den X, Y und Z Richtungen festlegende Daten von der CPU 74 an einem Eingang 72a einer Adreßgeneratoreinrichtung 72 gesandt. Die Einrichtung 72 liefert sequentiell an einem Adreßausgang 72b die X, Y und Z Adressen für jedes Voxel innerhalb des ausge­ wählten Objektvolumens. Der Ausgang 72b ist mit einem Aus­ gangsdatenadreßeingang 70c der Datenspeichereinrichtung 70 verbunden, welche veranlaßt, daß die gespeicherten Intensi­ tätsdaten für das betreffende eine sodann adressierte Voxel vom Datenspeicherausgang 70d ausgegeben werden. Die Aufeinan­ derfolge der X, Y und Z Voxeladressen wird ebenfalls an einen ersten Eingang 76a einer Berechnungseinrichtung 76 für die Rotationsparameter gegeben, welche Einrichtung über die CPU 74 die Winkelinformation (α, β) als die berechneten Matrix­ elementwerte M1-M6 erhält, um an einem Ausgang 76c die Adresse X', Y' des Bildebenenpixel bereitzustellen, das diesem Objektpixel X, Y, Z entspricht, wenn man es unter einem ausgewählten Betrachtungswinkel (θ, Φ) betrachtet. Die Information für den Betrachtungswinkel (θ, Φ) wird in das System eingegeben und von der CPU 74 verarbeitet. Die Ergeb­ nisse werden an die Eingänge 78b und 78c einer Sichtmatrix­ einrichtung 78 gegeben, um Matrixelemente M1-M6 an ihrem Ausgang 78a und damit an der Berechnungseinrichtung 76 für die Drehungsparameter vorzusehen. Die Pixeladresse X', Y' in der Bildebene erscheint an einem Adreßeingang 80a eines Bildpufferspeichers, der als eine Bildebenenspeichereinrich­ tung 80 wirkt. Gleichzeitig erscheinen die von dem Datenvolu­ men zur Projektionsebene projizierten Intensitätsdaten vom Ausgang 70d der dreidimensionalen Datenspeichereinrichtung an dem Eingang 80b für neue Daten der Bildebenenspeichereinrich­ tung. Diese Daten erscheinen ebenfalls am Eingang 82a für neue Daten einer Datenvergleichseinrichtung 82. Zuvor in der Bildebenenspeichereinrichtung 80 für diese Adresse gespei­ cherte Intensitätsdaten am Eingang 80a erscheinen an einem Ausgang 80c für alte Daten und damit an einem Eingang 82b für alte Daten in der Vergleichseinrichtung. Die alten und neuen Daten an den jeweiligen Eingängen 82b/82a werden in der Einrichtung 82 verglichen, und ein Ausgang 82c davon wird auf einen ausgewählten logischen Zustand gesetzt (z. B. einen oberen logischen Pegel), wenn die neuen Daten am Eingang 82a eine größere Amplitude aufweisen als die alten Daten am Eingang 82b. Der Ausgang 82c ist mit einem Eingang 80d der Bildebenenspeichereinrichtung für Ersatz- (substitute) Steu­ erdaten verbunden um zu veranlassen, daß die unter der vom Eingang 80a gesteuerten Adresse gespeicherten Daten geändert werden, um neue Daten am Eingang 80b anzunehmen, wenn sich der Steuereingang für die Ersatzdaten 80d auf dem gewählten logischen Pegel befindet. Somit werden die gespeicherten Daten zu Anfang rückgesetzt, wie bei einem Signal durch einen Daten/Steuereingang 80e (von der CPU 74), und es werden die Daten mit dem größten Wert für jede Pixelstelle X', Y' in der Bildebene gespeichert, und zwar als Antwort auf einen Ver­ gleich, der anzeigt, ob die neuen Daten den Wert der zuvor gespeicherten alten Daten übersteigen. Nachdem alle der ausgewählten Adressen sequentiell vom Adreßgenerator 72 abgetastet worden sind, werden die in der Bildebenenspei­ chereinrichtung 80 gespeicherten Daten in der CPU 74 ska­ liert, und die skalierten Bildebenendaten können von der Speichereinrichtung 80 zur Anzeige, zur permanenten Speiche­ rung oder zu ähnlichen Zwecken entnommen werden.
Gemäß einem weiteren Aspekt der Erfindung werden die skalier­ ten Bildebenendaten vor einer Anzeige (Display) kartiert (mapped), um eine gewünschte Helligkeit sowie einen gewünsch­ ten Kontrastbereich zu erzielen (Schritt 38 in Fig. 3) Beim Einlesen des interessierenden Bereichs für die Quellbilder, auf dem die dreidimensionale Rekonstruktion basiert, wird als Option ein Säulendiagramm bzw. Histogramm der Anzahl von Pixel mit einer gegebenen Intensität in der Hauptsteuerung 8 erstellt. Alternativ kann das Histogramm unter Benutzung der projizierten Bilder gebildet werden. Zur selben Zeit wird die maximale Pixelintensität bestimmt. Es werden die Pixel in jedem Bereich (bin) gezählt, bis ein vorgegebener Prozentsatz der insgesamten Anzahl von Pixel erreicht ist. Diese Be­ reichszahl (bin number) wird die Pixelschwelle. Es wird sodann eine Karte erzeugt, und zwar derart, daß jeder Pixel­ wert mit der gewünschten Helligkeit und dem gewünschten Kontrastbereich über oder unter der Pixelschwelle abhängig von dem beabsichtigten Ergebnis kartiert wird.
Gemäß der vorliegenden Erfindung werden die Pixel in dem interessierenden Gebiet eines jeden in dem Filmspeicher 24 (vgl. Fig. 1) gespeicherten Schnitts (Slice) oder Bildes (Frame) mittels der CPU 42 einer Faltungsfilterung unterzogen und sodann im Speicher 44 (vgl. Fig. 2) gespeichert. Die in dem Filmspeicher gespeicherten Pixel des interessierenden Gebiets können daraus ausgelesen und als aufeinanderfolgende Pixel oder als ein Array von Pixel an das Faltungsfilter angelegt werden. Die von dem in der CPU 42 eingebauten Fal­ tungsfilter durchgeführten Arbeitsschritte werden mit Bezug auf Fig. 8 näher beschrieben.
Die Einrichtung gemäß der Erfindung enthält ein Faltungsfil­ ter mit einer Vielzahl von Anzapfungen zur Aufnahme einer entsprechenden Vielzahl von Gewichtungskoeffizienten. Dieser Satz von Gewichtungskoeffizienten kann im Speicher 44 mit wahlfreiem Zugriff gespeichert und von der CPU 42 aus dem Speicher wieder entnommen werden. Es können mehrfache Sätze von Gewichtungskoeffizienten als Nachschlagetabellen im Speicher 44 gespeichert sein, wobei jeweils ein Satz als Reaktion auf eine vom Systembediener erfolgte Auswahl wieder­ gegeben wird. Gemäß der bevorzugten Ausführungsform ist die Anzahl der Gewichtungskoeffizienten in dem Satz gleich neun, wobei jeder davon als eine Mehrbit-Digitalzahl (z. B. 8 Bit) dargestellt sein kann. Die neun Gewichtungskoeffizienten (W1 bis W9 in Fig. 7B) sind als ein 3 × 3 Kernel angeordnet, das effektiv derart durch das gesamte Pixelgebiet von Inte­ resse bewegt wird, daß der Mittelpunkt des Kernels über jeden Bereichsvektor in Folge nach unten geführt wird (mit Ausnahme der ersten und letzten Bereichsvektoren und mit Ausnahme der ersten und letzten Datenpunkte jedes Vektors).
Unter Bezugnahme auf Fig. 7A wird beispielsweise das 9-Punkt Kernel (vgl. Fig. 7B) nach unten bewegt relativ zu den ersten drei Vektoren, nämlich DV4,4,1-DV4,1,1, DV3,4,1-DV3,1,1 und DV2,4,1-DV2,1,1, so daß diese ersten drei Vektoren von Pixeldaten zur Bildung eines ersten neuen gefilterten Vektors prozessiert werden, der an einer anderen Stelle gespeichert wird. Beim ersten Filterungsvorgang werden die Gewichtungskoeffizienten auf das 3 × 3 Pixelarray in der linken oberen Ecke des in Fig. 7A gezeigten Arrays angewendet. Der Gewichtungskoeffizi­ ent W1 wird benutzt zur Gewichtung des Pixels DV4,4,1; der Gewichtungskoeffizient W2 wird benutzt zur Gewichtung des Pixels DV3,4,1; der Gewichtungskoeffizient W3 wird benutzt zur Gewichtung des Pixels DV2,4,1; der Gewichtungskoeffizient W4 wird benutzt zur Gewichtung des Pixels DV4,3,1 usw. Das Fal­ tungsfilter erzeugt ein prozessiertes (d. h. gefiltertes) Pixel, das für das Pixel DV3,3,1 substituiert wird. Dieses gefilterte Pixel DV3,3,1 fil kann wie folgt berechnet werden:
DV3,3,1 fil = DV4,4,1.W1 + DV3,4,1.W2 + DV2,4,1.W3
+ DV4,3,1.W4 + DV3,3,1.W5 + DV2,3,1.W6
+ DV4,2,1.W7 + DV3,2,1.W8 + DV2,2,1.W9.
Das gefilterte durch das Faltungsfilter hergestellte Pixel ist somit die Summe der 3 × 3 Pixel, die das prozessierte sowie die umgebenden Pixel einschließen, wobei jedes dieser Pixel durch einen entsprechenden der Gewichtungskoeffizienten W1-W9 gewichtet wird. In der nächsten Stufe wird das 9-Punkt Kernel in Fig. 7B angewandt auf das 3 × 3 Pixelarray in der linken unteren Ecke des Arrays in Fig. 7A, um DV3,2,1 fil zu erhalten. In diesem vereinfachten Beispiel bilden die Pixel DV3,3,1 fil und DV3,2,1 fil den ersten neuen gefilterten Vektor. Für eine Spalte mit mehr als fünf Pixel wird dieser Prozeß solange wiederholt, bis das letzte Pixel in der Spalte gefil­ tert worden ist. Danach werden die zweiten (DV3,4,1-DV3,1,1) dritten (DV2,4,1-DV2,1,1) und vierten (DV1,4,1-DV1,1,1) benachbarten Vektoren der Pixeldaten prozessiert, um einen zweiten neuen gefilterten Vektor zu bilden, der neben dem ersten neuen gefilterten Vektor abgespeichert wird. Dieser Prozeß wird wiederholt, bis ein neuer Satz von gefilterten Vektoren, die ein neues gefiltertes Pixelbild bilden, gewonnen und an einer neuen Stelle abgespeichert worden ist.
Wenn die Quelldaten Intensitätsdaten und Geschwindigkeits- oder Power-Doppler-Daten enthalten, kann die oben erwähnte Faltungsfilterungsbehandlung separat für jede Komponente durchgeführt werden.
Gemäß der bevorzugten Ausführung der vorliegenden Erfindung beträgt der Gewichtungskoeffizient W5 = 4, während die ande­ ren acht Gewichtungskoeffizienten gleich eins sind. Ein derartiges Faltungsfilter kann in der in Fig. 8 gezeigten Weise ausgeführt sein, obwohl es von Fachleuten auf dem Gebiet der digitalen Filterung verstanden wird, daß andere Implementierungen benutzt werden könnten.
Unter Bezugnahme auf Fig. 8 kann das Faltungsfilter schema­ tisch dargestellt werden als enthaltend: eine Vielzahl von Pixelverzögerungselementen 86a-86i, eine Vielzahl von Multi­ plizierern 88a-88i, sowie eine Vielzahl von Addierern 90a-90i. Die Pixelverzögerungselemente sind als Schieberegister­ reihen geschaltet, wobei jedes Verzögerungselement so ausge­ legt ist, daß es einen Pixelwert über eine Zeitperiode spei­ chert, die gleich der Rate bzw. Frequenz ist, mit der die Pixel aus dem Speicher 44 (vgl. Fig. 1) ausgelesen werden. Die Pixelverzögerungselemente 86a-86c sind als ein Schiebere­ gister geschaltet; die Pixelverzögerungselemente 86d-86f sind als ein weiteres Schieberegister geschaltet; die Pixelverzö­ gerungselemente 86g-86i sind als ein drittes Schieberegister geschaltet. Diese Schieberegister werden benutzt, um ein 3 × 3 Pixelarray für die Multiplizierer 88a-88i zu schaffen.
Das die Pixelverzögerungen 86a-86c aufweisende Schieberegi­ ster ist so geschaltet, daß es aufeinanderfolgende Pixel direkt aus dem Speicher 44 erhält. Das die Pixelverzögerungen 86d-86f enthaltende Schieberegister ist mit einem Zeilenspei­ cher 82 verbunden, der seinerseits vom Speicher 44 ausgelese­ ne aufeinanderfolgende Pixel zugeführt bekommt. Der Zeilen­ speicher 82 verzögert die vom Speicher 44 angelegten Pixel um ein Horizontalzeilenintervall. In gleicher Weise ist das die Pixelverzögerungen 86g-86i enthaltende Schieberegister mit einem Zeilenspeicher 84 gekoppelt, der seinerseits in Kaskade mit dem Zeilenspeicher 82 geschaltet ist, und den bereits vom Zeilenspeicher 10 verzögerten Pixeln eine Verzögerung von einem Horizontalzeilenintervall auferlegt. Somit bewirken die Zeilenspeicher 82 und 84, daß ein bestimmtes Pixel in einer Horizontalzeile zeitlich koinzident ist mit den Pixeln in derselben Spalte, jedoch in den zwei vorhergehenden Zeilen. Beispielsweise ist unter Bezugnahme auf Fig. 7A ersichtlich, daß, wenn das Pixel DV3,2,1 vom Speicher 44 geliefert wird, das Pixel DV3,3,1 am Ausgang des Zeilenspeichers 82 und Pixel DV3,4,1 am Ausgang des Zeilenspeichers 84 bereitgestellt wird.
Der Multiplizierer 88a erhält den Gewichtungskoeffizienten W1 sowie den Datenwertausgang des Pixels vom Verzögerungselement 86a und bildet das Produkt dieser Eingänge. In gleicher Weise erhält der Multiplizierer 88b den Gewichtungskoeffizienten W2 und den Datenwertausgang des Pixels vom Verzögerungselement 86a und bildet das Produkt dieser Eingänge. Neun Produktwerte werden unter Verwendung der neun Gewichtungskoeffizienten und der neun Pixeldatenwerte, die das prozessierte 3 × 3 Array enthält, erzeugt. Diese neun Produktwerte werden mittels der Addierer 90a-90h aufsummiert, um einen neuen gefilterten Pixeldatenwert zu bilden. Das Faltungsfilter arbeitet konti­ nuierlich, bis ein neues gefiltertes Bild (Frame) von Pi­ xeldaten gewonnen worden ist.
Die vorliegende Erfindung ist nicht beschränkt auf die Ver­ wendung einer Faltungsfilterung. Alternativ können die Pi­ xeldaten unter Benutzung eines Median- bzw. Zentralwertfil­ ters oder eines Kantenbeibehaltungsfilters gefiltert werden.
Die Projektionstechnik wird separat angewendet auf die B-Mode-Intensitätsdaten sowie die Farbströmungsgeschwindig­ keits- oder Energiedaten für das interessierende von dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in dem projizierten Bild schließt die transformierten Intensitätsda­ ten und die transformierten Geschwindigkeits- oder Energieda­ ten ein, welche von der Projektion auf eine vorgegebene Bildebene abgeleitet wurden. Zusätzlich speichert während der Zeit, in welcher der Filmspeicher vom Bediener "eingefroren" war, die CPU 42 als Option das letzte Bild (Frame) aus dem XY Speicher 18 unter mehrfachen aufeinanderfolgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die projizierten Bildda­ ten für den ersten projizierten Betrachtungswinkel werden in die erste Adresse im Filmspeicherabschnitt 24B eingeschrie­ ben, so daß die projizierten Bilddaten in einem interessie­ renden Bereich dem Hintergrundbild (background frame) überla­ gert werden. Dieser Prozeß wird für jedes Winkelinkrement wiederholt bis alle projizierten Bilder im Filmspeicherab­ schnitt 24B gespeichert sind, wobei jedes projizierte (Voll)Bild (Frame) aus einem interessierenden Gebiet besteht, das transformierte Daten und als Option einen Peripheriehin­ tergrund enthält, der das interessierende Gebiet umgibt und aus Hintergrundbilddaten besteht, die nicht von transformier­ ten Daten aus dem interessierenden Gebiet überschrieben sind. Das Hintergrundbild macht es deutlicher, von wo aus jede zur Darstellung gebrachte Projektion betrachtet wird. Der Bedie­ ner kann dann jedes der projizierten Bilder für die Darstel­ lung auswählen. Zusätzlich kann die Abfolge der projizierten Bilder erneut auf dem Displaymonitor abgespielt werden, um das Objektvolumen so darzustellen, als wenn es vor dem Be­ trachter rotieren würde.
Gemäß einer bevorzugten Ausführung der Erfindung besitzt das Ultraschall-Bildgebungssystem mehrere verschiedene Projekti­ onsmoden. Beispielsweise kann die Projektion Maximalwert- oder Minimalwert-Pixel enthalten. Alternativ kann ein für die Darstellung von Blutgefäßen nützlicher Mode ausgewählt wer­ den, bei dem die Pixeldaten invertiert und dann die Maximal­ werte auf die Bildebene projiziert werden. Gemäß einem weite­ ren Modus kann die Strahlwurftechnik eingesetzt werden, um eine Oberflächendarstellung (surface rendering) zu liefern.
Die vorhergehende bevorzugte Ausführung wurde zum Zwecke der Veranschaulichung beschrieben. Abänderungen und Modifikatio­ nen des Grundkonzepts der Erfindung werden sich unschwer für Fachleute auf den Gebieten der Ultraschallbildgebung oder der Computergrafik ergeben. Alle derartigen Abänderungen und Modifikationen sollen durch die nachfolgend aufgeführten Ansprüche mitumfaßt werden.

Claims (20)

1. Einrichtung zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums in einem Objektvolumen, ent­ haltend:
ein Ultraschall-Wandlerarray zum Aussenden von Ultra­ schall-Bündeln und zum Erfassen von an einer Vielzahl von Sample- bzw. Probevolumen in dem Objektvolumen refelektierten Ultraschall-Echos;
eine Einrichtung zum Gewinnen von Pixeldaten, die zu­ mindest zum Teil von an dem streuenden Medium reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Pixe­ langabe (Datum) jeweils einem der vielen Samplevolumen ent­ spricht;
eine Speichereinrichtung zum Speichern von gewonnenen Pixeldaten für jedes der vielen Samplevolumen;
eine Einrichtung zum Wiedergeben eines Pixeldatensatzes aus der Speichereinrichtung, welcher Pixeldatensatz einem interessierenden (Teil-)Volumen in dem Objektvolumen ent­ spricht;
eine Einrichtung zum Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
eine Einrichtung zum Projizieren des gefilterten Pi­ xeldatensatzes auf eine erste Bildebene, wobei ein Projekti­ onsdatensatz gebildet wird, der ein erstes projiziertes Bild darstellt;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeich­ net, daß die Filtereinrichtung ein Faltungsfilter mit einen n × n Kernel mit n ≧ 2 ist.
3. Einrichtung nach Anspruch 2, dadurch gekennzeich­ net, daß n = 3 ist.
4. Einrichtung nach Anspruch 2 oder 3, dadurch ge­ kennzeichnet, daß das Kernel die folgenden Gewichtungsfakto­ ren aufweist: 111 141 111.
5. Einrichtung nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, daß die Pixeldaten Intensitäts­ daten enthalten.
6. Einrichtung nach einem der Ansprüche 1-4, da­ durch gekennzeichnet, daß die Pixeldaten Strömungsgeschwin­ digkeitsdaten enthalten.
7. Einrichtung nach einem der Ansprüche 1-4, da­ durch gekennzeichnet, daß die Pixeldaten Strömungsenergieda­ ten enthalten.
8. Einrichtung nach einem der vorhergehenden Ansprü­ che, gekennzeichnet durch:
eine Einrichtung zum Projizieren des gefilterten Pi­ xeldatensatzes auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wobei ein ein zweites proji­ ziertes Bild repräsentierender projizierter Datensatz gebil­ det wird; und
eine Einrichtung zum Darstellen des zweiten projizier­ ten Bildes auf dem Displaymonitor.
9. Einrichtung nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, daß die Filtereinrichtung ein Median- bzw. Zentralpunktfilter ist.
10. Einrichtung nach einem der Ansprüche 1-8, da­ durch gekennzeichnet, daß die Filtereinrichtung ein Kanten­ beibehaltungsfilter ist.
11. Einrichtung zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums in einem Objektvolumen, ent­ haltend:
ein Ultraschall-Wandlerarray zum Aussenden von Ultra­ schall-Bündeln und zum Erfassen der Ultraschall-Echos, die in einer Abtastebene reflektiert werden, die das Objektvolumen bei einer Vielzahl von Samplevolumen in der Abtastebene schneidet;
eine Einrichtung zum Gewinnen von Pixeldaten, die zu­ mindest zum Teil von Ultraschall-Echos abgeleitet sind, die von dem streuenden Medium reflektiert werden, wobei jede Pixelangabe einem jeweiligen der vielen Samplevolumen in der Abtastebene entspricht;
eine Bildspeichereinrichtung zum in Echtzeit Speichern eines (Voll-)Bilds (Frame) von Pixeldaten für jede von vielen aufeinanderfolgenden Abtastebenen;
eine Filmspeichereinrichtung zum Speichern einer Viel­ zahl von Bildern von Pixeldaten, die von der Bildspeicherein­ richtung in einer Aufeinanderfolge ausgegeben werden;
eine Einrichtung zum Wiedergeben eines Satzes von Pi­ xeldaten aus der Filmspeichereinrichtung entsprechend einem interessierenden Volumen in dem Objektvolumen;
eine Einrichtung zum Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
eine Einrichtung zum Erzeugen von einer Vielzahl von Teilsätzen von gefilterten und projizierten Pixeldaten, die jeweilige Projektionen der Pixeldatensätze auf eine entspre­ chende Vielzahl von Bildebenen repräsentieren;
eine Einrichtung zum Speichern der Vielzahl von Teil­ sätzen von gefilterten und projizierten Pixeldaten in der Filmspeichereinrichtung;
eine Einrichtung zum Auswählen von einer der vielen Bildebenen;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des Teilsat­ zes von gefilterten und projizierten Pixeldaten entsprechend der ausgewählten Bildebene.
12. Einrichtung nach Anspruch 11, dadurch gekennzeich­ net, daß die Filtereinrichtung ein Faltungsfilter mit einem n × n Kernel mit n ≧ 2 ist.
13. Einrichtung nach Anspruch 11 oder 12, dadurch ge­ kennzeichnet, daß n = 3 ist.
14. Einrichtung nach einem der Ansprüche 10-13, da­ durch gekennzeichnet, daß das Kernel die folgenden Gewich­ tungsfaktoren aufweist: 111 141 111.
15. Einrichtung nach einem der Ansprüche 11-14, da­ durch gekennzeichnet, daß die Filtereinrichtung ein Median- bzw. Zentralpunktfilter ist.
16. Einrichtung nach einem der Ansprüche 11-14, da­ durch gekennzeichnet, daß die Filtereinrichtung ein Kanten beibehaltendes Filter ist.
17. Verfahren zur dreidimensionalen Bildgebung eines Ultraschall streuenden Mediums in einem Objektvolumen, ge­ kennzeichnet durch die folgenden Schritte:
Aussenden von Ultraschall-Bündeln in eine Abtastebene, die das Objektvolumen bei einer Vielzahl von Sample- bzw. Probe­ volumen in der Abtastebene schneidet;
Erfassen der von der Vielzahl von Samplevolumen in der Abtastebene reflektierten Ultraschall-Echos;
Scannen bzw. Abtasten der Abtastebene durch das Objekt­ volumen;
Gewinnen von Pixeldaten, die zumindest teilweise von Ultraschall-Echos abgeleitet werden, die von dem streuenden Medium reflektiert werden, wobei jede einzelne Pixelangabe (Datum) einem jeweiligen der vielen Samplevolumen entspricht;
Speichern der gewonnenen Pixeldaten für jedes der vie­ len Samplevolumen;
Wiedergeben eines Satzes von Pixeldaten aus den gespei­ cherten gewonnenen Pixeldaten, wobei der Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
Projizieren des gefilterten Pixeldatensatzes auf eine erste Abbildungsebene, die nicht der Abtastebene entspricht, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und
bildliches Darstellen des ersten projizierten Bildes.
18. Verfahren nach Anspruch 17, dadurch gekennzeich­ net, daß jeder Filterschritt eine Verarbeitung des Pixelda­ tensatzes durch ein Faltungsfilter mit einem n × n Kernel und mit n ≧ 2 enthält.
19. Verfahren nach Anspruch 17 oder 18, dadurch ge­ kennzeichnet, daß n = 3 ist.
20. Verfahren nach einem der Ansprüche 17-19, da­ durch gekennzeichnet, daß das Kernel die folgenden Gewich­ tungsfaktoren aufweist: 111 141 111.
DE19819831A 1997-05-07 1998-05-04 Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten Ceased DE19819831A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/852,773 US5779641A (en) 1997-05-07 1997-05-07 Method and apparatus for three-dimensional ultrasound imaging by projecting filtered pixel data

Publications (1)

Publication Number Publication Date
DE19819831A1 true DE19819831A1 (de) 1998-11-19

Family

ID=25314177

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819831A Ceased DE19819831A1 (de) 1997-05-07 1998-05-04 Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten

Country Status (4)

Country Link
US (1) US5779641A (de)
JP (1) JPH1128211A (de)
DE (1) DE19819831A1 (de)
IL (1) IL124171A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10141724A1 (de) * 2001-08-25 2003-03-06 Brueel & Kjaer Vibro Gmbh Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige
DE102014102367A1 (de) 2014-02-24 2015-08-27 Universität Rostock Vorrichtung und Verfahren zur Hohlraumdetektion

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5899999A (en) * 1996-10-16 1999-05-04 Microsoft Corporation Iterative convolution filter particularly suited for use in an image classification and retrieval system
US6102864A (en) * 1997-05-07 2000-08-15 General Electric Company Three-dimensional ultrasound imaging of velocity and power data using average or median pixel projections
US5967987A (en) * 1997-12-18 1999-10-19 Acuson Corporation Ultrasonic system and method for measurement of fluid flow
US6262749B1 (en) 1997-12-31 2001-07-17 Acuson Corporation Ultrasonic system and method for data transfer, storage and/or processing
US6171244B1 (en) 1997-12-31 2001-01-09 Acuson Corporation Ultrasonic system and method for storing data
US6135960A (en) * 1998-08-31 2000-10-24 Holmberg; Linda Jean High-resolution, three-dimensional whole body ultrasound imaging system
US5951479A (en) * 1998-09-29 1999-09-14 General Electric Company Method and apparatus for synthetic transmit aperture imaging
US6210328B1 (en) 1998-10-01 2001-04-03 Atl Ultrasound Ultrasonic diagnostic imaging system with variable spatial compounding
US6283917B1 (en) * 1998-10-01 2001-09-04 Atl Ultrasound Ultrasonic diagnostic imaging system with blurring corrected spatial compounding
US6155978A (en) * 1998-12-09 2000-12-05 General Electric Company Three-dimensional imaging by projecting morphologically filtered pixel data
EP1034742A1 (de) * 1999-03-09 2000-09-13 Kreztechnik Aktiengesellschaft Verfahren zur Untersuchung von Objekten mit Ultraschall
US6535623B1 (en) 1999-04-15 2003-03-18 Allen Robert Tannenbaum Curvature based system for the segmentation and analysis of cardiac magnetic resonance images
US6484191B1 (en) 1999-07-02 2002-11-19 Aloka Co., Ltd. Apparatus and method for the real-time calculation of local variance in images
US6530885B1 (en) * 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US7615008B2 (en) * 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US7940966B2 (en) 2000-11-24 2011-05-10 U-Systems, Inc. Full-field breast image data processing and archiving
US7556602B2 (en) 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7103205B2 (en) * 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
US7597663B2 (en) 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
KR100388407B1 (ko) * 2001-04-27 2003-06-25 주식회사 메디슨 표시 장치의 화소에 대응하는 복셀에서 수신 집속하는 3차원 초음파 영상 시스템
JP3898047B2 (ja) * 2001-07-09 2007-03-28 セイコーインスツル株式会社 血液レオロジー測定装置
WO2003043490A1 (en) * 2001-11-23 2003-05-30 Infinitt Co., Ltd. Medical image segmentation apparatus and method thereof
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
JP2005536269A (ja) * 2002-08-21 2005-12-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 適合可能な空間像合成による超音波撮像装置
JP3944059B2 (ja) * 2002-11-14 2007-07-11 アロカ株式会社 超音波診断装置
US6896657B2 (en) * 2003-05-23 2005-05-24 Scimed Life Systems, Inc. Method and system for registering ultrasound image in three-dimensional coordinate system
US20050033123A1 (en) * 2003-07-25 2005-02-10 Siemens Medical Solutions Usa, Inc. Region of interest methods and systems for ultrasound imaging
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
JP4083719B2 (ja) * 2004-08-18 2008-04-30 ザイオソフト株式会社 画像再構成における逆投影方法を実行する画像処理装置
JP4921826B2 (ja) * 2005-03-31 2012-04-25 株式会社東芝 超音波診断装置及びその制御方法
US8834371B2 (en) * 2005-03-31 2014-09-16 Kabushiki Kaisha Toshiba Ultrasound diagnostic apparatus and ultrasound image processing program
US20080170765A1 (en) * 2005-04-25 2008-07-17 Koninklijke Philips Electronics, N.V. Targeted Additive Gain Tool For Processing Ultrasound Images
CA2608119A1 (en) 2005-05-11 2006-11-16 Optosecurity Inc. Method and system for screening luggage items, cargo containers or persons
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
US20070070063A1 (en) * 2005-09-29 2007-03-29 Siemens Medical Solutions Usa, Inc. Non-photorealistic volume rendering of ultrasonic data
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
JP4864554B2 (ja) * 2006-06-12 2012-02-01 株式会社東芝 超音波診断装置、医用画像処理装置、及び医用画像処理プログラム
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US8548568B2 (en) * 2006-09-08 2013-10-01 General Electric Company Methods and apparatus for motion compensation
JP4881112B2 (ja) * 2006-09-19 2012-02-22 株式会社東芝 超音波診断装置及び画像データ生成方法
US20080081998A1 (en) * 2006-10-03 2008-04-03 General Electric Company System and method for three-dimensional and four-dimensional contrast imaging
US8332016B2 (en) * 2009-08-04 2012-12-11 Carl Zeiss Meditec, Inc. Non-linear projections of 3-D medical imaging data
KR101973221B1 (ko) 2011-09-07 2019-04-26 라피스캔 시스템스, 인코포레이티드 적하목록 데이터를 이미징/검출 프로세싱에 통합시키는 x-선 검사시스템
US10456116B2 (en) * 2014-09-30 2019-10-29 Siemens Medical Solutions Usa, Inc. Shadow suppression in ultrasound imaging
US11304676B2 (en) 2015-01-23 2022-04-19 The University Of North Carolina At Chapel Hill Apparatuses, systems, and methods for preclinical ultrasound imaging of subjects
CN110811687B (zh) * 2015-06-05 2022-04-22 深圳迈瑞生物医疗电子股份有限公司 超声流体成像方法及超声流体成像系统
CN112704516B (zh) * 2015-08-04 2023-05-26 深圳迈瑞生物医疗电子股份有限公司 三维超声流体成像方法及系统
CN108027437B (zh) * 2015-09-10 2022-07-05 皇家飞利浦有限公司 具有宽深度和详细查看的超声系统
GB2564038B (en) 2016-02-22 2021-11-10 Rapiscan Systems Inc Systems and methods for detecting threats and contraband in cargo
CN108078590B (zh) * 2018-01-03 2021-02-09 声泰特(成都)科技有限公司 基于超声频谱多普勒的血流动力学可视化方法与系统
US10803612B2 (en) * 2018-09-25 2020-10-13 General Electric Company Method and system for structure recognition in three-dimensional ultrasound data based on volume renderings

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5159931A (en) * 1988-11-25 1992-11-03 Riccardo Pini Apparatus for obtaining a three-dimensional reconstruction of anatomic structures through the acquisition of echographic images
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
US5282471A (en) * 1991-07-31 1994-02-01 Kabushiki Kaisha Toshiba Ultrasonic imaging system capable of displaying 3-dimensional angiogram in real time mode
US5241371A (en) * 1991-10-30 1993-08-31 Pioneer Electronic Corporation Image display control apparatus and still picture reproducing system
US5327894A (en) * 1993-03-01 1994-07-12 General Electric Company Wall filter using circular convolution for a color flow imaging system
US5601084A (en) * 1993-06-23 1997-02-11 University Of Washington Determining cardiac wall thickness and motion by imaging and three-dimensional modeling
US5365929A (en) * 1993-10-04 1994-11-22 Advanced Technology Laboratories, Inc. Multiple sample volume spectral Doppler
US5409007A (en) * 1993-11-26 1995-04-25 General Electric Company Filter to reduce speckle artifact in ultrasound imaging
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
US6059727A (en) * 1995-06-15 2000-05-09 The Regents Of The University Of Michigan Method and apparatus for composition and display of three-dimensional image from two-dimensional ultrasound scan data
US5566674A (en) * 1995-06-30 1996-10-22 Siemens Medical Systems, Inc. Method and apparatus for reducing ultrasound image shadowing and speckle
US5582176A (en) * 1995-08-15 1996-12-10 Medasonics Methods and apparatus for automatically determining edge frequency in doppler ultrasound signals
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10141724A1 (de) * 2001-08-25 2003-03-06 Brueel & Kjaer Vibro Gmbh Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige
DE10141724B4 (de) * 2001-08-25 2006-11-16 Brüel & Kjaer Vibro GmbH Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige
DE102014102367A1 (de) 2014-02-24 2015-08-27 Universität Rostock Vorrichtung und Verfahren zur Hohlraumdetektion

Also Published As

Publication number Publication date
US5779641A (en) 1998-07-14
IL124171A (en) 2000-10-31
JPH1128211A (ja) 1999-02-02

Similar Documents

Publication Publication Date Title
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten
DE19819794A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE102005019171B4 (de) Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE69735737T2 (de) Medizinische diagnostische dreidimensionale Ultraschall-Abbildung von Gewebetextur und Vaskulatur
DE19819801B4 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE69936418T2 (de) Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos
DE69933851T2 (de) Verfahren zur Reduzierung der Bildschärfeverzerrung in räumlich vermehrten Diagnostikbildern
DE69931647T2 (de) Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen
DE10141516B9 (de) Medizinische Diagnostische Ultraschallabbildungsverfahren für ein erweitertes Betrachtungsfeld
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE60025438T2 (de) Verfahren und Gerät zum Einstellen eines interessanten Gebiets in einer Abbildung
DE19819793A1 (de) Verfahren und Einrichtung zum Segmentieren von Farbströmungs-Mode-Daten unter Verwendung von Geschwindigkeitsinformation bei der dreidimensionalen Ultraschall-Bildgebung
DE102010049324A1 (de) Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung
US20070055161A1 (en) Ultrasonic imaging system and method for simulataneous display of blood flow and perfusion parameters
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE19531419A1 (de) Verfahren zur Erzeugung anatomischer M-Modus-Anzeigebilder
DE4236757C2 (de) Ultraschalldiagnosegerät
DE102005037806A1 (de) Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung
DE102007019652A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem
DE102015116500A1 (de) Unterdrückung von Schatten bei der Ultraschall-Bildgebung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection