DE19819831A1 - Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten - Google Patents
Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten PixeldatenInfo
- Publication number
- DE19819831A1 DE19819831A1 DE19819831A DE19819831A DE19819831A1 DE 19819831 A1 DE19819831 A1 DE 19819831A1 DE 19819831 A DE19819831 A DE 19819831A DE 19819831 A DE19819831 A DE 19819831A DE 19819831 A1 DE19819831 A1 DE 19819831A1
- Authority
- DE
- Germany
- Prior art keywords
- pixel data
- data
- pixel
- image
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8993—Three dimensional imaging systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/06—Measuring blood flow
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/5206—Two-dimensional coordinated display of distance and direction; B-scan display
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52071—Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/916—Ultrasound 3-D imaging
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Hematology (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
Diese Erfindung bezieht sich allgemein auf Ultraschall-Bild
gebung der menschlichen Anatomie zum Zweck der medizini
schen Untersuchung. Insbesondere bezieht sich die Erfindung
auf ein Verfahren und eine Einrichtung zur dreidimensionalen
Abbildung von Blutgefäßen im menschlichen Körper durch Erfas
sen der Intensität von Ultraschall-Echos, die von den Gefäßen
reflektiert werden.
Zu den am weitesten üblichen Arten der diagnostischen Ultra
schall-Bildgebung zählen die (zur Abbildung interner physika
lischer Strukturen benutzten) B- und M-Moden, das Doppler- sowie
das Farbströmungs(color flow)verfahren (wobei das
letztere hauptsächlich zur Abbildung von Strömungscharakteri
stiken, wie zum Beispiel in Blutgefäßen, eingesetzt wird).
Bei der konventionellen B-Mode-Bildgebung erzeugen Ultra
schall-Abtaster bzw. -Scanner Bilder, in denen die Helligkeit
bzw. Leuchtdichte eines Pixels auf der Intensität der
Echorückkehr basiert. Der Farbströmungs-Mode wird typischer
weise benutzt, um die Geschwindigkeit einer Fluidströmung
zum/vom Wandler zu erfassen, und er verwendet im wesentlichen
dieselbe Technik, wie sie beim Dopplerverfahren eingesetzt
wird. Während das Dopplerverfahren die Geschwindigkeit in
Abhängig von der Zeit für ein einzelnes selektiertes Sample- bzw.
Probevolumen anzeigt, bringt der Farbströmungs-Mode
gleichzeitig Hunderte von benachbarten Samplevolumen zur
Darstellung, die alle einem B-Mode-Bild überlagert und zur
Darstellung der Geschwindigkeit jedes Samplevolumens farbko
diert sind.
Die Messung der Blutströmung im Herzen und in den Gefäßen
unter Anwendung des Dopplereffekts ist bekannt. Während die
Amplitude der reflektierten Wellen zur Erzeugung von Schwarz
weißbildern des Gewebes benutzt wird, kann die Frequenzver
schiebung von rückgestreuten Wellen zur Messung der Geschwin
digkeit der rückstreuenden Teile des Gewebes oder Blutes
benutzt werden. Die Veränderung oder Verschiebung in der
rückgestreuten Frequenz nimmt zu, wenn Blut in Richtung auf
den Wandler hin strömt, und nimmt ab, wenn Blut von dem
Wandler weg strömt. Farbströmungsbilder werden erzeugt, indem
man eine Farbdarstellung der Geschwindigkeit von sich bewe
gendem Material, z. B. von Blut, einem Schwarzweißbild der
Anatomie überlagert.
Der Vorteil einer Darstellung von anatomischen Daten im
B-Mode zusammen mit Geschwindigkeitsdaten besteht darin, daß
sie für den Benutzer brauchbarere Information bietet, als
wenn die Geschwindigkeitsdaten mit einem undurchsichtigen
bzw. opaken Hintergrund dargestellt werden. Weiterhin ist es
für den Benutzer einfacher, die abzutastende Anatomie aufzu
finden, ohne die Geschwindigkeitseignung abschalten zu müs
sen.
Die vorliegende Erfindung ist in einem Ultraschall-Bild
gebungssystem verkörpert, das aus vier hauptsächlichen
Untersystemen besteht: einem Bündelformer 2 (vgl. Fig. 1),
einem Prozessor-Subsystem 4, einer Abtastkonverter/Display
steuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung
erfolgt zentral in der Hauptsteuerung 8, welche die Bedie
nereingaben über eine (nicht gezeigte) Bedienerschnittstelle
empfängt und ihrerseits die verschiedenen Untersysteme steu
ert. Die Hauptsteuerung erzeugt ebenfalls für das System die
Zeit- und Steuersignale, die über einen Systemsteuerbus 10
sowie einen (nicht gezeigten) Abtaststeuerbus verteilt wer
den.
Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän
gen von dem Wandler an den Strahl- bzw. Bündelformer. Der
Bündelformer gibt zwei aufsummierte, digitale Empfangsbündel
im Basisband aus. Die Basisbanddaten werden als Eingang an
den B-Mode-Prozessor 4A und den Farbströmungsprozessor 4B
gegeben, wo sie entsprechend dem Datenerfassungsmodus prozes
siert und als prozessierte akustische Vektor- (Bündel-) Daten
an die Abtastkonverter/Displaysteuerung 6 ausgegeben werden.
Die Abtastkonverter/Displaysteuerung 6 nimmt die prozessier
ten akustischen Daten auf und gibt die Video-Displaysignale
für die Abbildung in einem Rastercan-Format an einen Farbmo
nitor 12 aus. Die Abtastkonverter/Displaysteuerung 6 forma
tiert weiterhin in Zusammenarbeit mit der Hauptsteuerung 8
mehrfache Bilder zum Display, für Display-Anmerkungen, grafi
sche Auflagen (overlays) sowie für eine Wiedergabe von Film
schleifen und aufgezeichneten Zeitliniendaten.
Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von
dem Bündelformer in eine logarithmisch komprimierte Version
der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria
ble Amplitude der Einhüllenden des Signals als eine Grauskala
unter Verwendung eines 8-Bit Ausgangs für jedes Pixel ab. Die
Einhüllende eines Basisbandsignals ist die Größe des Vektors,
der die Basisbanddaten repräsentiert.
Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam
mern usw. reflektierten Schallwellen wird proportional zu der
Geschwindigkeit der Blutzellen verschoben, und zwar in posi
tiver Richtung für sich auf den Wandler zu bewegende Zellen
und in negativer Richtung für die sich davon weg bewegenden
Zellen. Der Farbströmungs(CF von color flow))-Prozessor 4B
wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der
Blutgeschwindigkeit in der Abbildungsebene vorzusehen. Die
Blutgeschwindigkeit wird errechnet durch Messung der Phasen
verschiebung zwischen zwei Aktivierungen (firings) bei einem
spezifischen Entfernungstor (range gate). Statt einer Messung
des Dopplerspektrums bei einem Entfernungstor in der Abbil
dung werden die Blutgeschwindigkeit von mehreren Vektorposi
tionen sowie mehrere Entfernungstore längs jedes Vektors
berechnet, und aus dieser Information wird eine zweidimensio
nale Abbildung erstellt. In speziellerer Hinsicht erzeugt der
Farbströmungsprozessor Geschwindigkeitssignale (8 Bits),
Varianz- (Turbulenz-) Signale (4 Bits) sowie Energie- bzw.
Powersignale (8 Bits). Der Bediener wählt aus, ob die Ge
schwindigkeit und Varianz oder die Energie an den Abtastkon
verter ausgegeben werden. Das Ausgangssignal wird als Eingang
für eine in dem Videoprozessor 22 enthaltene Nachschlageta
belle für die Chrominanz- bzw. Buntsteuerung gegeben. Jede
Adresse in der Nachschlagetabelle speichert 24 Bits. Für
jedes Pixel in dem herzustellenden Bild steuern 8 Bits die
Rot-Intensität, 8 Bits steuern die Grün-Intensität und 8 Bits
steuern die Blau-Intensität. Diese Bit-Muster werden derart
vorgewählt, daß mit Richtungs- oder Größenänderungen der
Strömungsgeschwindigkeit sich die Farbe des Pixels an jeder
Stelle ändert. Beispielsweise wird eine Strömung auf den
Wandler zu als rot angezeigt, und eine Strömung vom Wandler
weg wird als blau angezeigt. Je schneller die Strömung ist,
desto heller ist die Farbe.
Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver
ter/Displaysteuerung 6 nehmen jeweils die von den Prozessoren
4A und 4B prozessierten digitalen Daten auf und führen die
Koordinatentransformationen der Farbströmungs- und B-Mode-Da
ten vom Polarkoordinaten- (R-θ) Sektorformat oder vom
Cartesischen linearen Koordinatenfeld zu geeignet skalierten
Display-Pixeldaten durch, die im X-Y Displayspeicher 18
gespeichert werden. Im B-Mode werden die Intensitätsdaten im
X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei
Pixel zu 8 Bit speichert. Alternativ werden im Farbströmungs
modus die Farbströmungsdaten wie folgt im Speicher gespei
chert: Intensitätsdaten (8 Bits), Geschwindigkeits- oder
Energiedaten (8 Bits) sowie Turbulenzdaten (4 Bits). Eine
Vielzahl von aufeinanderfolgenden (Voll-)Bildern (frames) von
Farbströmungs- oder B-Mode-Daten werden im Filmspeicher auf
einer First-In/First-Out (FIFO) Basis gespeichert. Der Film
speicher wirkt als ein im Hintergrund laufender ringförmiger
Bildpufferspeicher, der kontinuierlich auf Bilddaten zu
greift, die in Echtzeit für den Benutzer zur Darstellung
gebracht werden. Wenn der Benutzer das System "einfriert",
hat er die Möglichkeit, zuvor im Filmspeicher eingefangene
Bilddaten anzuschauen. Die Grafikdaten für die Herstellung
von grafischen Auflagen auf dem dargestellten Bild werden
erzeugt und gespeichert in dem Zeitlinien/Grafikprozessor und
Displayspeicher 20. Der Videoprozessor 22 schaltet im Multi
plexbetrieb zwischen den Grafikdaten, den Bilddaten sowie den
Zeitliniendaten hin und her, um den endgültigen Videoausgang
in einem Rasterabtastformat auf dem Videomonitor 12 zu erzeu
gen. Zusätzlich sorgt er für verschiedene Grauskala- und
Farbkartierungen (maps) sowie für die Verknüpfung der Grau
skala- und Farbbilder.
Das konventionelle Ultraschall-Bildgebungssystem sammelt
B-Mode- oder Farbströmungs-Mode-Bilder in einem Filmspeicher 24
auf einer kontinuierlichen Basis. Der Filmspeicher 24 stellt
einen residenten digitalen Bildspeicher für Einzelbildbe
trachtung und für Mehrfachbildschleifenbetrachtung sowie
verschiedene Steuerungsfunktionen zur Verfügung. Das während
der Einzelbild-Filmwiedergabe dargestellte interessierende
Gebiet ist dabei dasjenige, das während der entsprechenden
Bilderfassung benutzt wurde. Der Filmspeicher arbeitet eben
falls als ein Puffer für die Übertragung von Bildern zu
digitalen Archivierungsgeräten über die Hauptsteuerung 8.
Konventionelle Ultraschall-Scanner erzeugen zweidimensionale
B-Mode-Bilder, bei denen die Helligkeit eines Pixels auf der
Intensität der Echorückkehr basiert. Bei der Farbströmungs
bildgebung wird bei einer vorhandenen Bewegung eine Doppler-Ver
schiebung in dem Rückkehrsignal proportional zu der Ge
schwindigkeit der Bewegungen erzeugt. Beispielsweise wird in
einer Arterie fließendes Blut eine Doppler-Verschiebung erzeu
gen. Die Doppler-Verschiebung kann unter Verwendung verschie
dener Farben zur Anzeige der Geschwindigkeit und Richtung der
Strömung zur Darstellung gebracht werden. Eine Strömung in
Richtung auf den Wandler zu wird typischerweise in rot ge
zeigt, während eine Strömung weg von dem Wandler in blau
gezeigt wird. Bei der Power-Dopplerbildgebung wird die in dem
zurückkommenden Dopplersignal enthaltene Energie zur Darstel
lung gebracht.
Zweidimensionale Ultraschall-Bilder sind oftmals schwer zu
interpretieren aufgrund des Unvermögens des Beobachters, sich
die zweidimensionale Darstellung der gerade abgetasteten
Anatomie zu veranschaulichen. Wird jedoch die Ultraschallson
de über einen interessierenden Bereich geführt und werden
dabei zweidimensionale Abbildungen zur Formung eines dreidi
mensionalen Volumens akkumuliert, dann läßt sich die Anatomie
viel leichter sowohl für den geübten als auch für den ungeüb
ten Betrachter vorstellen. Typischerweise werden dreidimen
sionale Abbildungen von B-Mode-Daten und Farbströmungsge
schwindigkeits- oder Energiedaten separat zur Darstellung
gebracht. Es gibt jedoch viele Gelegenheiten, bei denen beim
Darstellen der Geschwindigkeits- oder Energiedaten allein der
Betrachter ein Gefühl für die gerade abgebildete Anatomie
verliert. Durch eine Kombination von Intensitätsprojektionen
mit Projektionen von Farbströmungsgeschwindigkeit oder
Energiedaten ist es möglich, ein Gefühl für die Anatomie
beizubehalten und gleichzeitig die Geschwindigkeit oder
Energie abzubilden. Dies gibt dem Betrachter ein Gefühl
dafür, wie die mittels der Farbströmungsbildgebung darge
stellte Gefäßstruktur (vascularity) mit einem Teil der Anato
mie, zum Beispiel einem Tumor oder einer Zyste zusammenhängen
kann. Die dreidimensionale Ultraschall-Bildgebung ist von
besonderem Nutzen bei der Sichtbarmachung von Blutgefäßen bei
Gefäßeingriffen oder einer offenen Operation der Leber.
Die Ultraschall-Bildgebung leidet unter der inhärenten Arte
faktabbildung, die als Maserung oder Flecken (Speckle) be
zeichnet wird. Bei der Fleckenbildung handelt es sich um eine
Aderung bzw. Marmorierung (mottling), die man bei den aus
Interferenzmustern von mehrfach empfangenen Echos erzeugten
Bildern findet. Diese Marmorierung wird hauptsächlich von dem
toten Punkt (null) in dem akustischen Interferenzmuster
gebildet, jedoch können auch andere Anomalien in der Abbil
dung eine Marmorierung verursachen, z. B. elektronisches
Grundrauschen. Die akustischen Nullpunkte werden betont bzw.
erhöht durch die logarithmische Kompression, die zur Darstel
lung des vollen Dynamikbereichs der Ultraschall-Abbildung
erforderlich ist. Diese toten Punkte erscheinen als schwarze
Löcher in der Abbildung. Fleckenrauschen und Artefakte be
grenzen den Bereich von akzeptablen Betrachtungswinkeln bei
der dreidimensionalen Ultraschall-Bildgebung.
Da jeder Parameter, der die Summe der zurückkehrenden Echos
ändert, das Fleckenmuster verändert, existiert eine Anzahl
von konventionellen Verfahren zur Reduzierung der Bild
fleckenfehler. Zu den Beispielen für derartige konventionelle
Verfahren gehören eine mehrfache Sendefokussierung, räumli
cher und frequenzmäßiger Versatz (compounding) sowie räumli
che Tiefpaß-Filterung. Die mehrfache Sendefokussierung,
sowie die räumlichen und frequenzmäßigen Versatztechniken
leiden an verringerten (Voll-)Bildfrequenzen (frame rates),
während eine räumliche Tiefpass-Filterung eine verringerte
Auflösung besitzt.
Die vorliegende Erfindung stellt ein Verfahren sowie eine
Einrichtung dar zur dreidimensionalen Abbildung von Ultra
schalldaten, bei der Flecken- bzw. Maserungsfehlerdaten
(speckle artifact data) reduziert werden, bevor die von einem
interessierenden Volumen gewonnenen Daten auf eine Bildebene
projiziert werden. Die Einrichtung enthält einen Ultraschall-Scan
ner, der B-Mode- oder Farbströmungsmode-Bilder in einem
Filmspeicher sammelt, und zwar auf einer kontinuierlichen
Basis oder als Antwort auf ein externes Triggerereignis, d. h.
für eine Vielzahl von Schnitten (slices). Die Daten von einem
jeweiligen interessierenden Gebiet für jeden Schnitt werden
an eine Hauptsteuerung gesandt, wobei diese Daten ein inter
essierendes Volumen bilden. Die Hauptsteuerung führt einen
Algorithmus aus, der iterativ die Pixeldaten in dem interes
sierenden Volumen unter Verwendung einer Strahlwurftechnik
(ray-casting) auf mehrere gedrehte Bildebenen projiziert.
Gemäß der Erfindung glättet die Hauptsteuerung vor der Aus
führung des Projektionsalgorithmus die in den Pixeldaten
enthaltenen Maserungs- und/oder Rauschanteile durch Filtern.
Dieses Filtern wird durchgeführt mittels eines schrittweisen
Anwendens (stepping) eines Neun-Punkt-Kernels durch die
Pixeldaten in jedem interessierenden Gebiet, das von den das
interessierende Datenvolumen bildenden zweidimensionalen
Schnitten erhalten wurde.
Gemäß der bevorzugten Ausführungsform der Erfindung wird ein
Faltungsfilter zum Glätten der Maserung in den Pixeldaten
verwendet. Insbesondere wird jedes zweidimensionale aus dem
Filmspeicher ausgelesene Gebiet von Interesse in zwei Dimen
sionen mittels Faltung gefiltert, d. h. die Pixeldaten werden
sowohl in der horizontalen als auch in der vertikalen Rich
tung gefiltert.
Eine Faltungsfilterung der Bilddaten wird ausgeführt, indem
man einen gewünschten Bildbereich, zum Beispiel einen durch
ein n × n Array von Pixeln (mit n ≧ 2) dargestellten Bereich
definiert, indem man jedes der Pixel in dem n × n Array mit
einem entsprechenden Gewichtungskoeffizient gewichtet und
sodann die gewichteten Pixel aufsummiert, um einen gefilter
ten Pixelwert zu erzeugen, der für eines der Pixel in dem
n × n Array substituiert wird, z. B. für das zentrale Pixel in
einem 3 × 3 Array. Alternativ kann das interessierende Volu
men unter Anwendung eines Faltungsfilters mit einem n × n × n
Kernel gefiltert werden. Eine Faltungsfilterung läßt sich mit
digitalen Filtertechniken ausführen. Alternativ können die
Pixeldaten unter Verwendung eines Median- bzw. Zentralwert
filters oder eines Kantenbeibehaltungsfilters gefiltert
werden.
Die gefilterten Pixeldaten bilden ein neues Datenvolumen, das
sodann auf jede aufeinanderfolgende Bildebenen projiziert wird.
Die projizierten Bilder mit reduzierter Maserung und Rauschen
werden als separate (Voll-)Bilder (Frames) in dem Filmspei
cher gespeichert, wobei jedes Bild dem letzten Hintergrund
bild überlagert wird. Diese rekonstruierten Bilder werden
dann selektiv von dem Systembediener zur Darstellung ge
bracht. Die Bilder zeigen jegliche Blutgefäße in dem Objekt
volumen mit großer Klarheit. Bei einer Darstellung im Filmbe
trieb rotieren die Gefäße und man erhält ein besseres Gefühl
der Tiefenvorstellung verglichen mit dem Fall der Abbildung
eines zweidimensionalen Schnitts.
Die Erfindung wird im folgenden anhand von Ausführungsbei
spielen unter Zuhilfenahme der Zeichnungen näher erläutert.
Es zeigen:
Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio
nalen Subsysteme innerhalb eines Echtzeit-Ultraschall
Bildgebungssystems zeigt;
Fig. 2 ein Blockschaltbild der Einrichtung zur Rekonstruktion
der Bilder enthaltend aufeinanderfolgende volumetrische
Projektionen von Intensitäts- und Geschwindigkeits- oder
Energiepixeldaten gemäß einer bevorzugten Ausführungsform der
vorliegenden Erfindung;
Fig. 3 ein Flußdiagramm, das die Schritte eines Algorithmus
für die Rekonstruktion der Bilder unter Einschluß von aufein
anderfolgenden volumetrischen Projektionen von Intensitäts- und
Geschwindigkeits- oder Energiepixeldaten gemäß der bevor
zugten Ausführung der vorliegenden Erfindung zeigt;
Fig. 4 eine schematische Darstellung des abgetasteten inter
essierenden Objektvolumens, ein zugeordnetes Datenvolumen
sowie eine Bildprojektionsebene, die in die volumetrische
Herstellung einer umgekehrten Strahlwurfprojektion gemäß dem
Stand der Technik miteinbezogen ist;
Fig. 5 eine schematische Darstellung, die ein Paar von geome
trischen zweidimensionalen Konfigurationen entsprechend
gleichen Ansichten von Objekt- und Datenvolumen zeigt, und
die nützlich ist bei der Definition von notwendigen Skalier
konstanten bei der dreidimensionalen Ultraschall-Bildgebung;
Fig. 6 ein schematisches Blockschaltbild einer Einrichtung
zur Lieferung einer Projektion mit maximaler Intensität bei
der dreidimensionalen Ultraschall-Bildgebung;
Fig. 7A eine schematische Darstellung eines zweidimensionalen
Arrays von Pixeldaten;
Fig. 7B eine schematische Darstellung eines Satzes von 3 × 3
Gewichtungskoeffizienten, wie sie bei der Faltungsfilterung
gemäß der vorliegenden Erfindung benutzt werden; und
Fig. 8 ein schematisches Blockdiagramm eines Faltungsfilters
gemäß einer bevorzugten Ausführungsform der Erfindung.
Unter Bezugnahme auf Fig. 2 enthält die Hauptsteuerung 8 eine
zentrale Verarbeitungseinheit (CPU) 42 und einen Speicher 44
mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeord
neten Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf,
die für die Umsetzung des gewonnenen Volumens von Intensi
täts- oder Farbströmungs-Mode-Daten in eine Vielzahl von
dreidimensionalen unter verschiedenen Winkeln genommenen
Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Spei
cher 18 und den Filmspeicher 24 über den Systemsteuerbus
10. Insbesondere steuert die CPU 42 den Pixeldatenfluß von
dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher
24 sowie von dem Filmspeicher zum Videoprozessor 22 und zur
CPU 42 selbst. Wenn das Ultraschall-Bildgebungssystem im
Farbströmungsmodus arbeitet, wird jedes (Voll-)Bild (frame)
von Farbströmungsdaten, das einen von vielen Parallelscans- oder
-schnitten durch das untersuchte Objekt repräsentiert,
in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum
Videoprozessor 22 sowie zum Filmspeicher 24 übertragen. Ein
das abgetastete Objektvolumen repräsentierender Stapel von
Feldern bzw. Bildern wird im Abschnitt 24A des Filmspeichers
24 gespeichert. Während der Initialisierung (vgl. Schritt 26
in Fig. 3) holt die CPU 42 vom Abschnitt 24A des Filmspei
chers lediglich die einem interessierenden Objektvolumen
entsprechenden Farbströmungsdaten. Dies wird bewerkstelligt,
indem man lediglich die Farbströmungsdaten in einem interes
sierenden Gebiet von jedem gespeicherten Bild holt, das von
irgendeinem Scan gewonnen wurde, der das interessierende
Volumen geschnitten hatte. Mit anderen Worten, die dem inter
essierenden Gebiet entsprechenden Farbströmungsdaten von
jedem einen Bild eines Stapels von aufeinanderfolgenden
Bildern bilden ein interessierendes Quelldatenvolumen.
Wie aus Fig. 3 zu ersehen ist, werden die Intensitätsdaten in
dem dem interessierenden Objektvolumen entsprechenden Pixel
datensatz vor der Projektion gefiltert (Schritt 28), um
Flecken- bzw. Maserungsrauschen (Speckle-Rauschen) zu glätten
und Artefakte zu reduzieren. Dies vermeidet während der
Projektion den Verlust von Daten aufgrund von Maserungsrau
schen. Beispielsweise erzeugen Blutgefäße weniger Echo als
das umgebende Gewebe. Gefäße können deshalb unter Einsatz von
Projektionen mit minimaler Intensität abgebildet werden.
Alternativ werden im Umkehrvideo/Minimum-Mode die Intensi
tätsdaten invertiert, um die Gefäße hell anstatt dunkel zu
machen. Die Gefäße können dann unter Einsatz von Projektionen
mit maximaler Intensität abgebildet werden. Um die Auswahl
von maximalen Intensitäten, die helle Flecken im Gegensatz zu
den gewünschten Pixeldaten sind, zu verhindern, kann vor der
Projektion ein Filter zur Beseitigung solcher hellen Fleckin
tensitäten benutzt werden. Gemäß der bevorzugten Ausführung
der Erfindung werden die aus dem Filmspeicher 24 (vgl. Fig.
2) geholten Pixeldaten von der CPU 42 unter Verwendung eines
3 × 3 Faltungsfilters mit einem 111 141 111 Kernel gefiltert,
d. h. das zentrale Pixel der Intensitätsdaten in jedem 3 × 3
Pixelarray wird in jedem Schnitt oder Bild ersetzt durch
einen Intensitätswert, der proportional ist zu der Summe aus
dem vierfachen Wert des zentralen Pixels plus der Summe aus
den Werten der acht dieses Pixel umgebenden Pixel. Das gefil
terte Quelldatenvolumen wird sodann im Speicher 44 abgespei
chert (Schritt 30). In ähnlicher Weise kann ein Faltungsfil
ter benutzt werden, um schwarze Löcher in einem Bild vor der
Projektion mit minimaler Intensität zu entfernen.
Als nächstes führt die CPU 42 unter Verwendung des im
US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus
(ray casting algorithm) eine Reihe von Transformationen
durch. Die aufeinanderfolgenden Transformationen repräsentie
ren Projektionen mit maximaler, minimaler oder durchschnitt
licher Intensität, Geschwindigkeits- oder Energieprojektio
nen, die unter winkelmäßigen Inkrementen, beispielsweise in
Intervallen von 10°, innerhalb eines Winkelbereichs, z. B. von
+90° bis -90°, vorgenommen werden. Die Winkelinkremente
müssen jedoch nicht 10° sein; auch ist die Erfindung nicht
auf einen bestimmten Winkelbereich begrenzt.
In Übereinstimmung mit der bei der vorliegenden Erfindung
angewandten Strahlwurftechnik werden die volumetrisch ange
legten Projektionsbilder einer Probe 50 (vgl. Fig. 4) unter
irgendeinem willkürlichen Betrachtungswinkel zur Anzeige
gebracht, z. B. einem sphärischen Projektionswinkel, der durch
die Winkelparameter (θ, Φ) bezeichnet wird, wobei θ der
Winkel ist, den eine Verlängerung 58' eines Betrachtungs
strahls 58 auf der X-Y Ebene bildet, und wobei Φ der Winkel
des Strahls 58 bezogen auf die Verlängerung 58' ist, und zwar
beim Scannen eines Objektvolumens 52 mittels eines Ultra
schallwandlers. Das Samplevolumen 52 wird in einer derartigen
Weise abgetastet, daß man eine Folge von geschichteten be
nachbarten Schnitten (slices) oder Scheiben OS1, OS2, . . ., OSk
erzeugt, von denen jede dieselbe Anzahl von Objektvolumenele
menten (voxels) OV enthält. Jedes Voxel besitzt ein recht
eckiges Profil in der Scheibenebene (z. B. in der X-Y Ebene);
während die komplementären Seiten von gleicher Länge S sein
können, so daß dieses Profil ein Quadrat sein kann, ist die
Scheibendicke T im allgemeinen nicht gleich mit der Länge von
jeder Seite. Somit enthält der erste Objektschnitt OS1 eine
erste Anzahl von Objektvoxel OVij,1, wobei i und j die jewei
ligen Positionen des Voxels auf der X-Achse und auf der
Y-Achse sind. In gleicher Weise enthält der zweite Objekt
schnitt OS2 Objektvoxel OVij,2. Ein willkürlicher Objekt
schnitt OSk enthält Voxel OVij,k, wobei k die Position dieses
Voxels auf der Z-Achse bedeutet.
Jedes Objektvoxel OVij,k wird analysiert und sein Datenwert
(Intensität, Geschwindigkeit oder Energie) wird in ein ent
sprechendes Datenvoxel DVij,k eines Datenvolumens 54 plaziert.
Das Datenvolumen 54 ist ein einfaches kubisches i, j, k
Gitter, obwohl die Dicke eines jeden Objektschnitts OSk und
jede Flächengröße eines Objektvoxels (die Größe des Voxels in
der X-Y Ebene) im allgemeinen nicht dieselbe sein werden. Das
bedeutet, es kann nicht nur das Objektvolumen unterschiedli
che Dimensionen X, Y und Z für jedes Voxel aufweisen, sondern
es braucht auch die insgesamte Anzahl von Voxel in irgendei
ner Dimension nicht dieselbe zu sein. Beispielsweise kann ein
typischer dreidimensionaler Ultraschall-Scan jeden Schnitt
mit einer 256 × 256 Voxel enthaltenden Matrix liefern und 128
Schnitte betreffen.
Gemäß einer von der CPU 42 angewandten bekannten Technik wird
ein Bild des Objekts 50 projiziert (Schritt 34 in Fig. 3)
durch Projektion eines Strahls von einem Gitterpunkt im
Datenvoxel DVij,k in Richtung auf die Bildebene 56. Der Ein
fachheit halber kann der Gitterpunkt beispielsweise die am
nächsten an dem Datenvolumenursprung liegende Datenvoxelspit
ze sein. Der Projektionsstrahl 17 tritt aus dem Datenvolumen
54 unter einem Projektionswinkel mit sphärischen Winkelpara
metern (α, β) aus, die aus den sphärischen Winkelparametern
(θ, Φ) transformiert wurden, unter denen das Objektvolumen 52
betrachtet wird. Diese beiden Winkel sind nicht gleich, und
zwar aufgrund der geometrischen Verzerrung, die durch die
Benutzung eines kubischen Datenvolumens 54 zusammen mit einem
nicht-kubischen Objektvolumen 52 verursacht wird. Der proji
zierte Strahl 17 weist jedoch eine Verlängerung 17' in der
x-y Ebene auf, die einen Winkel α mit Bezug auf die x
Achse des Datenvolumens bildet, und der Strahl 17 bildet
einen Winkel β mit der Z Achse. Somit werden die Winkel α und
β bestimmt durch einen (nachfolgend zu beschreibenden) Rota
tionsprozeß, um der Betrachtung des Objektvolumens 52 unter
dem gewünschten Betrachtungswinkel (θ, Φ) zu entsprechen
(unter der Annahme eines Betriebs mit sphärischen Koordina
ten). Jeder der Strahlen 17 wird von dem Voxel-Gitterpunkt
des Datenvolumens in Richtung auf die Bildebene projiziert.
Obwohl alle Strahlen 17 auf irgendeinen Bereich der Bildebene
auftreffen, wird nur den in das betrachtete Bildebenenpixel
60a fallenden Strahlen erlaubt, zu den Daten für dieses
Bildebenenpixel beizutragen. Hat man somit einen Teil des
Objektvolumens 52 zur Betrachtung ausgewählt sowie einen
Betrachtungswinkel (θ, Φ), unter dem dieses ausgewählte
Objektvolumen betrachtet werden soll, wird der Datenwert in
jedem Voxel des entsprechenden Teils von dem Datenvolumen
unter einem Winkel (α, β) (entsprechend der Betrachtung des
verzerrten Datenvolumens mit Bezug auf das Objektvolumen) in
Richtung auf die Bildebene 56 projiziert. Der Datenwert in
einem ersten Voxel (zum Beispiel Voxel DVi,1,k), wird somit in
Übereinstimmung mit den gewählten Werten θ und Φ entlang dem
Strahl 17a rückprojiziert. Dieser Strahl 17a trifft bei einer
Position 64a innerhalb des Pixels 60a auf die Bildebene 56
auf, und weil dies der erste auf dieses Pixel auftreffende
Strahl ist, wird der Intensitäts-, Geschwindigkeits- oder
Energiewert des auftreffenden Strahls dem gewünschten Pixel
60a zugeteilt (bzw. darin gespeichert). Das nächste Voxel in
dem Datenvolumen (z. B. Voxel DVi,2,k) hat seinen zugehörigen
Strahl 17b unter derselben winkelmäßigen (α, β) Konfiguration
vom Voxel-Gitterpunkt projiziert, und seine Position 64b auf
der Bildebene 56 wird festgehalten. Unter der Annahme, daß
diese Auftreffposition 64b im gewünschten Pixel 60a liegt,
wird der zweite projizierte Wert (für eine Maximalpixelpro
jektion) mit dem nun gespeicherten ersten Wert verglichen,
und es wird der größere Wert im Speicher für das Pixel 60a
plaziert. Es wird verständlich sein, daß für eine Projektion
mit einem Durchschnittswert der Wert eines laufenden proji
zierten Datenvoxels zu der bereits gespeicherten Summe für
das Bildfeldpixel (image panel pixel), auf das der Projekti
onsstrahl auftrifft, hinzuaddiert wird, und die Summe
schließlich durch eine gezählte Anzahl von solchen auftref
fenden Strahlen für dieses Pixel geteilt wird. Da jedes Voxel
in dem ausgewählten Datenvolumen sequentiell eingegeben und
in Richtung auf die Bildebene 56 projiziert wird, wird
schließlich ein Datenvolumenvoxel (z. B. Voxel DVi,3,k) ent
lang seinem zugehörigen Strahl 17p projiziert und trifft
nicht innerhalb des gewünschten Pixels 60a auf, so daß sein
Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für
das Pixel 60a gespeicherten Datenwert verglichen wird. Es
wird nun für diese Projektion von Daten bei dem bestimmten
(θ, Φ) dreidimensionalen Betrachtungswinkel der maximale
Datenwert für das Pixel 60a festgelegt. Tatsächlich weist der
Strahl 17p jedoch einen Auftreffpunkt 64p auf, der in ein
anderes Pixel (z. B. Pixel 60b) der Bildebene fällt; er wird
mit dem darin gespeicherten Datenwert verglichen und der nach
dem Vergleich sich ergebende größere Wert wird in den Spei
cher für dieses Pixel zurückgeführt. Alle Datenwerte werden
auf Null zurückgesetzt, wenn eine neue Projektion erfolgen
soll. Somit wird jedes der Pixel der Bildebene beim Start
einer Bildprojektionsprozedur rückgesetzt, und alle Datenvo
lumenvoxel (in dem gesamten Raum oder in dem ausgewählten
Teil, wie durch den Teil des ausgewählten Objektvolumens 52
festgelegt) werden einzeln und sequentiell abgetastet. Der
Datenwert in jedem Datenvoxel DV wird durch einen zugeordne
ten Strahl 17 so projiziert, daß er in einem Pixel 60 davon
auf die Bildebene 56 auftrifft, wobei der Maximalwert in
jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten
Datenvolumenvoxels verglichen wird, um den größeren davon zu
bestimmen, welcher größere Wert sodann als Teil des Maximal
wertbildes gespeichert wird. In der Praxis wird für eine
maximale Pixelprojektion der gespeicherte Maximalwert ledig
lich dann verändert, wenn der neuerliche Wert des projizier
ten Datenvoxels größer ist als der bereits für das Bildebe
nenpixel gespeicherte Datenwert, auf den der neuerliche
Projektionsstrahl auftrifft.
Gemäß einem anderen Aspekt der obigen Technik wird die Daten
projektion (im Schritt 36 in Figur. 3) skaliert und es wird
eine etwaige Anisotropie zwischen dem Objektvolumen und der
Bildebene durch lediglich einen einzigen Satz von Berechnun
gen beseitigt, nachdem die Rückprojektion abgeschlossen ist.
Es wird nun auf Fig. 5 Bezug genommen. Da es sich bei dem
Objektvolumen 52 um ein reales Volumen handelt, während es
sich bei dem Datenvolumen 54 um ein abstraktes Konzept han
delt, ist es nötig, den Betrag der Verzerrung der Projekti
onsdaten aufgrund der Darstellung des kubischen Datenvolumen
gitters 54 unter einem unterschiedlichen Winkel γ in einer
ersten Ebene zu bestimmen und sodann den Winkel ψ, unter dem
eine willkürliche Betrachtungsrichtung 66 mit Bezug sowohl
auf das Objektvolumen 52 als auch auf das Datenvolumen 54
positioniert wird. Die offenbaren Dimensionen von jedem Voxel
werden sich in dem Maße ändern, wie sich die effektiven
Erhebungswinkel ψ und γ ändern. Wenn das Aspektverhältnis A
(definiert als das Verhältnis der tatsächlichen Scheibendicke
T im Objektvolumen 52 zur tatsächlichen Pixelgröße S in
demselben Objektvolumen 52) nicht eins beträgt (d. h. größer
oder gleich eins ist, da das Objektvoxel kein kubisches Voxel
ist, wie man es beim Datenvolumen 54 antrifft), dann werden
die Erhebungswinkel ψ und γ verschieden sein, und der effek
tive Erhebungswinkel ψ im Datenvolumen wird gegenüber dem
tatsächlichen Erhebungswinkel γ in dem Objektvolumen unter
schiedlich sein. Die Rotation der Daten erfolgt gemäß einem
Objekterhebungswinkel, der erhalten wird durch:
Danach können die projizierten Daten so skaliert werden, daß
sie (wenn die Drehung um die horizontale Achse erfolgt) die
korrekte Höhe in dem Objektvolumen erhalten, und zwar durch
eine Multiplikation aller projizierten Datenhöhen mit dem
Höhenskalierungsfaktor. Die alte projizierte Bildhöhe H kann
mit einem effektiven Skalierungsfaktor Es korrigiert werden,
wobei gilt
und die neue Höhe H' = H.Es ist. Dasselbe trifft für die
Breite zu, wenn die Drehung um die vertikale Achse erfolgt.
Unter Verwendung der obigen Beziehung führt die Rotation der
Datenvolumenwinkel (α, β) zu den Winkeln (θ, Φ), weil die
Verzerrung lediglich entlang einer Achse auftritt, so daß der
Winkel θ gleich dem Winkel α ist. Die Elemente der 3 × 3
Rotationsmatrix [M] können bestimmt werden, und bei den gege
benen zwei in Betracht kommenden Drehungswinkeln werden diese
Beziehungen benutzt, um die Transformationen vom Datenvolumen
zur Bildebene zu bestimmen:
X' = M1X + M2Y + M3Z + XO
Y' = M4X + M5Y + M6Z + YO
Y' = M4X + M5Y + M6Z + YO
wobei M1-M6 die ersten beiden Zeilen der Rotationsmatrix
sind (d. h. M1 = -sinθ, M2 = cosθ sinψ, M3 = 0, M4 = -cosθ
sinψ2, M5 = -sinθ sinψ und M6 = cosψ), X' und Y' die Posi
tionen des projizierten Punktes auf der Bildebene sind, und
wobei XO und YO die X und die Y Versetzungen (jeweils bezogen
auf die niedrigsten X und Y Punktwerte) der Bildebene sind,
bei denen der ausgewählte Teil der Bildebene beginnt. Nachdem
die Daten auf die Bildebene 56 projiziert sind, wird das Bild
zur Korrektur des Effekts der anisotropen Objektvoxel ska
liert. Es wird ersichtlich sein, daß die Faktoren M1-M6 zu
Beginn einer Projektion (bei gegebenen θ und Φ) vorberechnet
(Schritt 32 in Fig. 3) und für alle Rotationsberechnungen
benutzt werden können.
Fig. 6 zeigt eine Einrichtung zur Durchführung der oben
beschriebenen Strahlwurftechnik, die in der Hauptsteuerung 8
(oder in einem separaten zugeordneten Prozessor) vorgesehen
ist. Eine derartige Einrichtung weist eine dreidimensionale
Datenspeichereinrichtung 70 zum Speichern von Schnittdaten
auf, wie sie an einem Dateneingang 70a vom Filmspeicher 24
erhalten werden. Die mit jedem Objektvoxel zusammenhängenden
Daten werden bei der Adresse des betreffenden Voxels gespei
chert, und zwar als Reaktion auf eine Eingangsinformation für
die Voxeladresse, die an einem Voxeladreßeingang 70b von
einer CPU 74 erhalten wird. Sobald die Datenspeichereinrich
tung gefüllt ist (entsprechend der Übertragung aller erfor
derlichen Daten vom Objektvolumen 52 zum Datenvolumen 54),
wird der interessierende Teil des Objektvolumens ausgewählt,
und es werden seine Startecke sowie die Ausdehnung in den X,
Y und Z Richtungen festlegende Daten von der CPU 74 an einem
Eingang 72a einer Adreßgeneratoreinrichtung 72 gesandt. Die
Einrichtung 72 liefert sequentiell an einem Adreßausgang 72b
die X, Y und Z Adressen für jedes Voxel innerhalb des ausge
wählten Objektvolumens. Der Ausgang 72b ist mit einem Aus
gangsdatenadreßeingang 70c der Datenspeichereinrichtung 70
verbunden, welche veranlaßt, daß die gespeicherten Intensi
tätsdaten für das betreffende eine sodann adressierte Voxel
vom Datenspeicherausgang 70d ausgegeben werden. Die Aufeinan
derfolge der X, Y und Z Voxeladressen wird ebenfalls an einen
ersten Eingang 76a einer Berechnungseinrichtung 76 für die
Rotationsparameter gegeben, welche Einrichtung über die CPU
74 die Winkelinformation (α, β) als die berechneten Matrix
elementwerte M1-M6 erhält, um an einem Ausgang 76c die
Adresse X', Y' des Bildebenenpixel bereitzustellen, das
diesem Objektpixel X, Y, Z entspricht, wenn man es unter
einem ausgewählten Betrachtungswinkel (θ, Φ) betrachtet. Die
Information für den Betrachtungswinkel (θ, Φ) wird in das
System eingegeben und von der CPU 74 verarbeitet. Die Ergeb
nisse werden an die Eingänge 78b und 78c einer Sichtmatrix
einrichtung 78 gegeben, um Matrixelemente M1-M6 an ihrem
Ausgang 78a und damit an der Berechnungseinrichtung 76 für
die Drehungsparameter vorzusehen. Die Pixeladresse X', Y' in
der Bildebene erscheint an einem Adreßeingang 80a eines
Bildpufferspeichers, der als eine Bildebenenspeichereinrich
tung 80 wirkt. Gleichzeitig erscheinen die von dem Datenvolu
men zur Projektionsebene projizierten Intensitätsdaten vom
Ausgang 70d der dreidimensionalen Datenspeichereinrichtung an
dem Eingang 80b für neue Daten der Bildebenenspeichereinrich
tung. Diese Daten erscheinen ebenfalls am Eingang 82a für
neue Daten einer Datenvergleichseinrichtung 82. Zuvor in der
Bildebenenspeichereinrichtung 80 für diese Adresse gespei
cherte Intensitätsdaten am Eingang 80a erscheinen an einem
Ausgang 80c für alte Daten und damit an einem Eingang 82b für
alte Daten in der Vergleichseinrichtung. Die alten und neuen
Daten an den jeweiligen Eingängen 82b/82a werden in der
Einrichtung 82 verglichen, und ein Ausgang 82c davon wird auf
einen ausgewählten logischen Zustand gesetzt (z. B. einen
oberen logischen Pegel), wenn die neuen Daten am Eingang 82a
eine größere Amplitude aufweisen als die alten Daten am
Eingang 82b. Der Ausgang 82c ist mit einem Eingang 80d der
Bildebenenspeichereinrichtung für Ersatz- (substitute) Steu
erdaten verbunden um zu veranlassen, daß die unter der vom
Eingang 80a gesteuerten Adresse gespeicherten Daten geändert
werden, um neue Daten am Eingang 80b anzunehmen, wenn sich
der Steuereingang für die Ersatzdaten 80d auf dem gewählten
logischen Pegel befindet. Somit werden die gespeicherten
Daten zu Anfang rückgesetzt, wie bei einem Signal durch einen
Daten/Steuereingang 80e (von der CPU 74), und es werden die
Daten mit dem größten Wert für jede Pixelstelle X', Y' in der
Bildebene gespeichert, und zwar als Antwort auf einen Ver
gleich, der anzeigt, ob die neuen Daten den Wert der zuvor
gespeicherten alten Daten übersteigen. Nachdem alle der
ausgewählten Adressen sequentiell vom Adreßgenerator 72
abgetastet worden sind, werden die in der Bildebenenspei
chereinrichtung 80 gespeicherten Daten in der CPU 74 ska
liert, und die skalierten Bildebenendaten können von der
Speichereinrichtung 80 zur Anzeige, zur permanenten Speiche
rung oder zu ähnlichen Zwecken entnommen werden.
Gemäß einem weiteren Aspekt der Erfindung werden die skalier
ten Bildebenendaten vor einer Anzeige (Display) kartiert
(mapped), um eine gewünschte Helligkeit sowie einen gewünsch
ten Kontrastbereich zu erzielen (Schritt 38 in Fig. 3) Beim
Einlesen des interessierenden Bereichs für die Quellbilder,
auf dem die dreidimensionale Rekonstruktion basiert, wird als
Option ein Säulendiagramm bzw. Histogramm der Anzahl von
Pixel mit einer gegebenen Intensität in der Hauptsteuerung 8
erstellt. Alternativ kann das Histogramm unter Benutzung der
projizierten Bilder gebildet werden. Zur selben Zeit wird die
maximale Pixelintensität bestimmt. Es werden die Pixel in
jedem Bereich (bin) gezählt, bis ein vorgegebener Prozentsatz
der insgesamten Anzahl von Pixel erreicht ist. Diese Be
reichszahl (bin number) wird die Pixelschwelle. Es wird
sodann eine Karte erzeugt, und zwar derart, daß jeder Pixel
wert mit der gewünschten Helligkeit und dem gewünschten
Kontrastbereich über oder unter der Pixelschwelle abhängig
von dem beabsichtigten Ergebnis kartiert wird.
Gemäß der vorliegenden Erfindung werden die Pixel in dem
interessierenden Gebiet eines jeden in dem Filmspeicher 24
(vgl. Fig. 1) gespeicherten Schnitts (Slice) oder Bildes
(Frame) mittels der CPU 42 einer Faltungsfilterung unterzogen
und sodann im Speicher 44 (vgl. Fig. 2) gespeichert. Die in
dem Filmspeicher gespeicherten Pixel des interessierenden
Gebiets können daraus ausgelesen und als aufeinanderfolgende
Pixel oder als ein Array von Pixel an das Faltungsfilter
angelegt werden. Die von dem in der CPU 42 eingebauten Fal
tungsfilter durchgeführten Arbeitsschritte werden mit Bezug
auf Fig. 8 näher beschrieben.
Die Einrichtung gemäß der Erfindung enthält ein Faltungsfil
ter mit einer Vielzahl von Anzapfungen zur Aufnahme einer
entsprechenden Vielzahl von Gewichtungskoeffizienten. Dieser
Satz von Gewichtungskoeffizienten kann im Speicher 44 mit
wahlfreiem Zugriff gespeichert und von der CPU 42 aus dem
Speicher wieder entnommen werden. Es können mehrfache Sätze
von Gewichtungskoeffizienten als Nachschlagetabellen im
Speicher 44 gespeichert sein, wobei jeweils ein Satz als
Reaktion auf eine vom Systembediener erfolgte Auswahl wieder
gegeben wird. Gemäß der bevorzugten Ausführungsform ist die
Anzahl der Gewichtungskoeffizienten in dem Satz gleich neun,
wobei jeder davon als eine Mehrbit-Digitalzahl (z. B. 8 Bit)
dargestellt sein kann. Die neun Gewichtungskoeffizienten
(W1 bis W9 in Fig. 7B) sind als ein 3 × 3 Kernel angeordnet,
das effektiv derart durch das gesamte Pixelgebiet von Inte
resse bewegt wird, daß der Mittelpunkt des Kernels über jeden
Bereichsvektor in Folge nach unten geführt wird (mit Ausnahme
der ersten und letzten Bereichsvektoren und mit Ausnahme der
ersten und letzten Datenpunkte jedes Vektors).
Unter Bezugnahme auf Fig. 7A wird beispielsweise das 9-Punkt
Kernel (vgl. Fig. 7B) nach unten bewegt relativ zu den ersten
drei Vektoren, nämlich DV4,4,1-DV4,1,1, DV3,4,1-DV3,1,1 und DV2,4,1-DV2,1,1,
so daß diese ersten drei Vektoren von Pixeldaten zur
Bildung eines ersten neuen gefilterten Vektors prozessiert
werden, der an einer anderen Stelle gespeichert wird. Beim
ersten Filterungsvorgang werden die Gewichtungskoeffizienten
auf das 3 × 3 Pixelarray in der linken oberen Ecke des in
Fig. 7A gezeigten Arrays angewendet. Der Gewichtungskoeffizi
ent W1 wird benutzt zur Gewichtung des Pixels DV4,4,1; der
Gewichtungskoeffizient W2 wird benutzt zur Gewichtung des
Pixels DV3,4,1; der Gewichtungskoeffizient W3 wird benutzt zur
Gewichtung des Pixels DV2,4,1; der Gewichtungskoeffizient W4
wird benutzt zur Gewichtung des Pixels DV4,3,1 usw. Das Fal
tungsfilter erzeugt ein prozessiertes (d. h. gefiltertes)
Pixel, das für das Pixel DV3,3,1 substituiert wird. Dieses
gefilterte Pixel DV3,3,1 fil kann wie folgt berechnet werden:
DV3,3,1 fil = DV4,4,1.W1 + DV3,4,1.W2 + DV2,4,1.W3
+ DV4,3,1.W4 + DV3,3,1.W5 + DV2,3,1.W6
+ DV4,2,1.W7 + DV3,2,1.W8 + DV2,2,1.W9.
+ DV4,3,1.W4 + DV3,3,1.W5 + DV2,3,1.W6
+ DV4,2,1.W7 + DV3,2,1.W8 + DV2,2,1.W9.
Das gefilterte durch das Faltungsfilter hergestellte Pixel
ist somit die Summe der 3 × 3 Pixel, die das prozessierte
sowie die umgebenden Pixel einschließen, wobei jedes dieser
Pixel durch einen entsprechenden der Gewichtungskoeffizienten
W1-W9 gewichtet wird. In der nächsten Stufe wird das 9-Punkt
Kernel in Fig. 7B angewandt auf das 3 × 3 Pixelarray in der
linken unteren Ecke des Arrays in Fig. 7A, um DV3,2,1 fil zu
erhalten. In diesem vereinfachten Beispiel bilden die
Pixel DV3,3,1 fil und DV3,2,1 fil den ersten neuen gefilterten Vektor. Für
eine Spalte mit mehr als fünf Pixel wird dieser Prozeß
solange wiederholt, bis das letzte Pixel in der Spalte gefil
tert worden ist. Danach werden die zweiten (DV3,4,1-DV3,1,1)
dritten (DV2,4,1-DV2,1,1) und vierten (DV1,4,1-DV1,1,1) benachbarten
Vektoren der Pixeldaten prozessiert, um einen zweiten neuen
gefilterten Vektor zu bilden, der neben dem ersten neuen
gefilterten Vektor abgespeichert wird. Dieser Prozeß wird
wiederholt, bis ein neuer Satz von gefilterten Vektoren, die
ein neues gefiltertes Pixelbild bilden, gewonnen und an einer
neuen Stelle abgespeichert worden ist.
Wenn die Quelldaten Intensitätsdaten und Geschwindigkeits- oder
Power-Doppler-Daten enthalten, kann die oben erwähnte
Faltungsfilterungsbehandlung separat für jede Komponente
durchgeführt werden.
Gemäß der bevorzugten Ausführung der vorliegenden Erfindung
beträgt der Gewichtungskoeffizient W5 = 4, während die ande
ren acht Gewichtungskoeffizienten gleich eins sind. Ein
derartiges Faltungsfilter kann in der in Fig. 8 gezeigten
Weise ausgeführt sein, obwohl es von Fachleuten auf dem
Gebiet der digitalen Filterung verstanden wird, daß andere
Implementierungen benutzt werden könnten.
Unter Bezugnahme auf Fig. 8 kann das Faltungsfilter schema
tisch dargestellt werden als enthaltend: eine Vielzahl von
Pixelverzögerungselementen 86a-86i, eine Vielzahl von Multi
plizierern 88a-88i, sowie eine Vielzahl von Addierern 90a-90i.
Die Pixelverzögerungselemente sind als Schieberegister
reihen geschaltet, wobei jedes Verzögerungselement so ausge
legt ist, daß es einen Pixelwert über eine Zeitperiode spei
chert, die gleich der Rate bzw. Frequenz ist, mit der die
Pixel aus dem Speicher 44 (vgl. Fig. 1) ausgelesen werden.
Die Pixelverzögerungselemente 86a-86c sind als ein Schiebere
gister geschaltet; die Pixelverzögerungselemente 86d-86f sind
als ein weiteres Schieberegister geschaltet; die Pixelverzö
gerungselemente 86g-86i sind als ein drittes Schieberegister
geschaltet. Diese Schieberegister werden benutzt, um ein
3 × 3 Pixelarray für die Multiplizierer 88a-88i zu schaffen.
Das die Pixelverzögerungen 86a-86c aufweisende Schieberegi
ster ist so geschaltet, daß es aufeinanderfolgende Pixel
direkt aus dem Speicher 44 erhält. Das die Pixelverzögerungen
86d-86f enthaltende Schieberegister ist mit einem Zeilenspei
cher 82 verbunden, der seinerseits vom Speicher 44 ausgelese
ne aufeinanderfolgende Pixel zugeführt bekommt. Der Zeilen
speicher 82 verzögert die vom Speicher 44 angelegten Pixel um
ein Horizontalzeilenintervall. In gleicher Weise ist das die
Pixelverzögerungen 86g-86i enthaltende Schieberegister mit
einem Zeilenspeicher 84 gekoppelt, der seinerseits in Kaskade
mit dem Zeilenspeicher 82 geschaltet ist, und den bereits vom
Zeilenspeicher 10 verzögerten Pixeln eine Verzögerung von
einem Horizontalzeilenintervall auferlegt. Somit bewirken die
Zeilenspeicher 82 und 84, daß ein bestimmtes Pixel in einer
Horizontalzeile zeitlich koinzident ist mit den Pixeln in
derselben Spalte, jedoch in den zwei vorhergehenden Zeilen.
Beispielsweise ist unter Bezugnahme auf Fig. 7A ersichtlich,
daß, wenn das Pixel DV3,2,1 vom Speicher 44 geliefert wird,
das Pixel DV3,3,1 am Ausgang des Zeilenspeichers 82 und Pixel
DV3,4,1 am Ausgang des Zeilenspeichers 84 bereitgestellt wird.
Der Multiplizierer 88a erhält den Gewichtungskoeffizienten W1
sowie den Datenwertausgang des Pixels vom Verzögerungselement
86a und bildet das Produkt dieser Eingänge. In gleicher Weise
erhält der Multiplizierer 88b den Gewichtungskoeffizienten W2
und den Datenwertausgang des Pixels vom Verzögerungselement
86a und bildet das Produkt dieser Eingänge. Neun Produktwerte
werden unter Verwendung der neun Gewichtungskoeffizienten und
der neun Pixeldatenwerte, die das prozessierte 3 × 3 Array
enthält, erzeugt. Diese neun Produktwerte werden mittels der
Addierer 90a-90h aufsummiert, um einen neuen gefilterten
Pixeldatenwert zu bilden. Das Faltungsfilter arbeitet konti
nuierlich, bis ein neues gefiltertes Bild (Frame) von Pi
xeldaten gewonnen worden ist.
Die vorliegende Erfindung ist nicht beschränkt auf die Ver
wendung einer Faltungsfilterung. Alternativ können die Pi
xeldaten unter Benutzung eines Median- bzw. Zentralwertfil
ters oder eines Kantenbeibehaltungsfilters gefiltert werden.
Die Projektionstechnik wird separat angewendet auf die
B-Mode-Intensitätsdaten sowie die Farbströmungsgeschwindig
keits- oder Energiedaten für das interessierende von dem
Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in dem
projizierten Bild schließt die transformierten Intensitätsda
ten und die transformierten Geschwindigkeits- oder Energieda
ten ein, welche von der Projektion auf eine vorgegebene
Bildebene abgeleitet wurden. Zusätzlich speichert während der
Zeit, in welcher der Filmspeicher vom Bediener "eingefroren"
war, die CPU 42 als Option das letzte Bild (Frame) aus dem XY
Speicher 18 unter mehrfachen aufeinanderfolgenden Adressen im
Abschnitt 24B des Filmspeichers 24. Die projizierten Bildda
ten für den ersten projizierten Betrachtungswinkel werden in
die erste Adresse im Filmspeicherabschnitt 24B eingeschrie
ben, so daß die projizierten Bilddaten in einem interessie
renden Bereich dem Hintergrundbild (background frame) überla
gert werden. Dieser Prozeß wird für jedes Winkelinkrement
wiederholt bis alle projizierten Bilder im Filmspeicherab
schnitt 24B gespeichert sind, wobei jedes projizierte
(Voll)Bild (Frame) aus einem interessierenden Gebiet besteht,
das transformierte Daten und als Option einen Peripheriehin
tergrund enthält, der das interessierende Gebiet umgibt und
aus Hintergrundbilddaten besteht, die nicht von transformier
ten Daten aus dem interessierenden Gebiet überschrieben sind.
Das Hintergrundbild macht es deutlicher, von wo aus jede zur
Darstellung gebrachte Projektion betrachtet wird. Der Bedie
ner kann dann jedes der projizierten Bilder für die Darstel
lung auswählen. Zusätzlich kann die Abfolge der projizierten
Bilder erneut auf dem Displaymonitor abgespielt werden, um
das Objektvolumen so darzustellen, als wenn es vor dem Be
trachter rotieren würde.
Gemäß einer bevorzugten Ausführung der Erfindung besitzt das
Ultraschall-Bildgebungssystem mehrere verschiedene Projekti
onsmoden. Beispielsweise kann die Projektion Maximalwert- oder
Minimalwert-Pixel enthalten. Alternativ kann ein für die
Darstellung von Blutgefäßen nützlicher Mode ausgewählt wer
den, bei dem die Pixeldaten invertiert und dann die Maximal
werte auf die Bildebene projiziert werden. Gemäß einem weite
ren Modus kann die Strahlwurftechnik eingesetzt werden, um
eine Oberflächendarstellung (surface rendering) zu liefern.
Die vorhergehende bevorzugte Ausführung wurde zum Zwecke der
Veranschaulichung beschrieben. Abänderungen und Modifikatio
nen des Grundkonzepts der Erfindung werden sich unschwer für
Fachleute auf den Gebieten der Ultraschallbildgebung oder der
Computergrafik ergeben. Alle derartigen Abänderungen und
Modifikationen sollen durch die nachfolgend aufgeführten
Ansprüche mitumfaßt werden.
Claims (20)
1. Einrichtung zur dreidimensionalen Bildgebung eines
Ultraschall streuenden Mediums in einem Objektvolumen, ent
haltend:
ein Ultraschall-Wandlerarray zum Aussenden von Ultra schall-Bündeln und zum Erfassen von an einer Vielzahl von Sample- bzw. Probevolumen in dem Objektvolumen refelektierten Ultraschall-Echos;
eine Einrichtung zum Gewinnen von Pixeldaten, die zu mindest zum Teil von an dem streuenden Medium reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Pixe langabe (Datum) jeweils einem der vielen Samplevolumen ent spricht;
eine Speichereinrichtung zum Speichern von gewonnenen Pixeldaten für jedes der vielen Samplevolumen;
eine Einrichtung zum Wiedergeben eines Pixeldatensatzes aus der Speichereinrichtung, welcher Pixeldatensatz einem interessierenden (Teil-)Volumen in dem Objektvolumen ent spricht;
eine Einrichtung zum Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
eine Einrichtung zum Projizieren des gefilterten Pi xeldatensatzes auf eine erste Bildebene, wobei ein Projekti onsdatensatz gebildet wird, der ein erstes projiziertes Bild darstellt;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
ein Ultraschall-Wandlerarray zum Aussenden von Ultra schall-Bündeln und zum Erfassen von an einer Vielzahl von Sample- bzw. Probevolumen in dem Objektvolumen refelektierten Ultraschall-Echos;
eine Einrichtung zum Gewinnen von Pixeldaten, die zu mindest zum Teil von an dem streuenden Medium reflektierten Ultraschall-Echos abgeleitet sind, wobei jede einzelne Pixe langabe (Datum) jeweils einem der vielen Samplevolumen ent spricht;
eine Speichereinrichtung zum Speichern von gewonnenen Pixeldaten für jedes der vielen Samplevolumen;
eine Einrichtung zum Wiedergeben eines Pixeldatensatzes aus der Speichereinrichtung, welcher Pixeldatensatz einem interessierenden (Teil-)Volumen in dem Objektvolumen ent spricht;
eine Einrichtung zum Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
eine Einrichtung zum Projizieren des gefilterten Pi xeldatensatzes auf eine erste Bildebene, wobei ein Projekti onsdatensatz gebildet wird, der ein erstes projiziertes Bild darstellt;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeich
net, daß die Filtereinrichtung ein Faltungsfilter mit einen
n × n Kernel mit n ≧ 2 ist.
3. Einrichtung nach Anspruch 2, dadurch gekennzeich
net, daß n = 3 ist.
4. Einrichtung nach Anspruch 2 oder 3, dadurch ge
kennzeichnet, daß das Kernel die folgenden Gewichtungsfakto
ren aufweist: 111 141 111.
5. Einrichtung nach einem der vorhergehenden Ansprü
che, dadurch gekennzeichnet, daß die Pixeldaten Intensitäts
daten enthalten.
6. Einrichtung nach einem der Ansprüche 1-4, da
durch gekennzeichnet, daß die Pixeldaten Strömungsgeschwin
digkeitsdaten enthalten.
7. Einrichtung nach einem der Ansprüche 1-4, da
durch gekennzeichnet, daß die Pixeldaten Strömungsenergieda
ten enthalten.
8. Einrichtung nach einem der vorhergehenden Ansprü
che, gekennzeichnet durch:
eine Einrichtung zum Projizieren des gefilterten Pi xeldatensatzes auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wobei ein ein zweites proji ziertes Bild repräsentierender projizierter Datensatz gebil det wird; und
eine Einrichtung zum Darstellen des zweiten projizier ten Bildes auf dem Displaymonitor.
eine Einrichtung zum Projizieren des gefilterten Pi xeldatensatzes auf eine zweite Bildebene, die relativ zu der ersten Bildebene gedreht ist, wobei ein ein zweites proji ziertes Bild repräsentierender projizierter Datensatz gebil det wird; und
eine Einrichtung zum Darstellen des zweiten projizier ten Bildes auf dem Displaymonitor.
9. Einrichtung nach einem der vorhergehenden Ansprü
che, dadurch gekennzeichnet, daß die Filtereinrichtung ein
Median- bzw. Zentralpunktfilter ist.
10. Einrichtung nach einem der Ansprüche 1-8, da
durch gekennzeichnet, daß die Filtereinrichtung ein Kanten
beibehaltungsfilter ist.
11. Einrichtung zur dreidimensionalen Bildgebung eines
Ultraschall streuenden Mediums in einem Objektvolumen, ent
haltend:
ein Ultraschall-Wandlerarray zum Aussenden von Ultra schall-Bündeln und zum Erfassen der Ultraschall-Echos, die in einer Abtastebene reflektiert werden, die das Objektvolumen bei einer Vielzahl von Samplevolumen in der Abtastebene schneidet;
eine Einrichtung zum Gewinnen von Pixeldaten, die zu mindest zum Teil von Ultraschall-Echos abgeleitet sind, die von dem streuenden Medium reflektiert werden, wobei jede Pixelangabe einem jeweiligen der vielen Samplevolumen in der Abtastebene entspricht;
eine Bildspeichereinrichtung zum in Echtzeit Speichern eines (Voll-)Bilds (Frame) von Pixeldaten für jede von vielen aufeinanderfolgenden Abtastebenen;
eine Filmspeichereinrichtung zum Speichern einer Viel zahl von Bildern von Pixeldaten, die von der Bildspeicherein richtung in einer Aufeinanderfolge ausgegeben werden;
eine Einrichtung zum Wiedergeben eines Satzes von Pi xeldaten aus der Filmspeichereinrichtung entsprechend einem interessierenden Volumen in dem Objektvolumen;
eine Einrichtung zum Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
eine Einrichtung zum Erzeugen von einer Vielzahl von Teilsätzen von gefilterten und projizierten Pixeldaten, die jeweilige Projektionen der Pixeldatensätze auf eine entspre chende Vielzahl von Bildebenen repräsentieren;
eine Einrichtung zum Speichern der Vielzahl von Teil sätzen von gefilterten und projizierten Pixeldaten in der Filmspeichereinrichtung;
eine Einrichtung zum Auswählen von einer der vielen Bildebenen;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des Teilsat zes von gefilterten und projizierten Pixeldaten entsprechend der ausgewählten Bildebene.
ein Ultraschall-Wandlerarray zum Aussenden von Ultra schall-Bündeln und zum Erfassen der Ultraschall-Echos, die in einer Abtastebene reflektiert werden, die das Objektvolumen bei einer Vielzahl von Samplevolumen in der Abtastebene schneidet;
eine Einrichtung zum Gewinnen von Pixeldaten, die zu mindest zum Teil von Ultraschall-Echos abgeleitet sind, die von dem streuenden Medium reflektiert werden, wobei jede Pixelangabe einem jeweiligen der vielen Samplevolumen in der Abtastebene entspricht;
eine Bildspeichereinrichtung zum in Echtzeit Speichern eines (Voll-)Bilds (Frame) von Pixeldaten für jede von vielen aufeinanderfolgenden Abtastebenen;
eine Filmspeichereinrichtung zum Speichern einer Viel zahl von Bildern von Pixeldaten, die von der Bildspeicherein richtung in einer Aufeinanderfolge ausgegeben werden;
eine Einrichtung zum Wiedergeben eines Satzes von Pi xeldaten aus der Filmspeichereinrichtung entsprechend einem interessierenden Volumen in dem Objektvolumen;
eine Einrichtung zum Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
eine Einrichtung zum Erzeugen von einer Vielzahl von Teilsätzen von gefilterten und projizierten Pixeldaten, die jeweilige Projektionen der Pixeldatensätze auf eine entspre chende Vielzahl von Bildebenen repräsentieren;
eine Einrichtung zum Speichern der Vielzahl von Teil sätzen von gefilterten und projizierten Pixeldaten in der Filmspeichereinrichtung;
eine Einrichtung zum Auswählen von einer der vielen Bildebenen;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des Teilsat zes von gefilterten und projizierten Pixeldaten entsprechend der ausgewählten Bildebene.
12. Einrichtung nach Anspruch 11, dadurch gekennzeich
net, daß die Filtereinrichtung ein Faltungsfilter mit einem
n × n Kernel mit n ≧ 2 ist.
13. Einrichtung nach Anspruch 11 oder 12, dadurch ge
kennzeichnet, daß n = 3 ist.
14. Einrichtung nach einem der Ansprüche 10-13, da
durch gekennzeichnet, daß das Kernel die folgenden Gewich
tungsfaktoren aufweist: 111 141 111.
15. Einrichtung nach einem der Ansprüche 11-14, da
durch gekennzeichnet, daß die Filtereinrichtung ein
Median- bzw. Zentralpunktfilter ist.
16. Einrichtung nach einem der Ansprüche 11-14, da
durch gekennzeichnet, daß die Filtereinrichtung ein Kanten
beibehaltendes Filter ist.
17. Verfahren zur dreidimensionalen Bildgebung eines
Ultraschall streuenden Mediums in einem Objektvolumen, ge
kennzeichnet durch die folgenden Schritte:
Aussenden von Ultraschall-Bündeln in eine Abtastebene, die das Objektvolumen bei einer Vielzahl von Sample- bzw. Probe volumen in der Abtastebene schneidet;
Erfassen der von der Vielzahl von Samplevolumen in der Abtastebene reflektierten Ultraschall-Echos;
Scannen bzw. Abtasten der Abtastebene durch das Objekt volumen;
Gewinnen von Pixeldaten, die zumindest teilweise von Ultraschall-Echos abgeleitet werden, die von dem streuenden Medium reflektiert werden, wobei jede einzelne Pixelangabe (Datum) einem jeweiligen der vielen Samplevolumen entspricht;
Speichern der gewonnenen Pixeldaten für jedes der vie len Samplevolumen;
Wiedergeben eines Satzes von Pixeldaten aus den gespei cherten gewonnenen Pixeldaten, wobei der Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
Projizieren des gefilterten Pixeldatensatzes auf eine erste Abbildungsebene, die nicht der Abtastebene entspricht, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und
bildliches Darstellen des ersten projizierten Bildes.
Aussenden von Ultraschall-Bündeln in eine Abtastebene, die das Objektvolumen bei einer Vielzahl von Sample- bzw. Probe volumen in der Abtastebene schneidet;
Erfassen der von der Vielzahl von Samplevolumen in der Abtastebene reflektierten Ultraschall-Echos;
Scannen bzw. Abtasten der Abtastebene durch das Objekt volumen;
Gewinnen von Pixeldaten, die zumindest teilweise von Ultraschall-Echos abgeleitet werden, die von dem streuenden Medium reflektiert werden, wobei jede einzelne Pixelangabe (Datum) einem jeweiligen der vielen Samplevolumen entspricht;
Speichern der gewonnenen Pixeldaten für jedes der vie len Samplevolumen;
Wiedergeben eines Satzes von Pixeldaten aus den gespei cherten gewonnenen Pixeldaten, wobei der Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Filtern des Pixeldatensatzes zur Verminderung von Flecken (Speckle);
Projizieren des gefilterten Pixeldatensatzes auf eine erste Abbildungsebene, die nicht der Abtastebene entspricht, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und
bildliches Darstellen des ersten projizierten Bildes.
18. Verfahren nach Anspruch 17, dadurch gekennzeich
net, daß jeder Filterschritt eine Verarbeitung des Pixelda
tensatzes durch ein Faltungsfilter mit einem n × n Kernel und
mit n ≧ 2 enthält.
19. Verfahren nach Anspruch 17 oder 18, dadurch ge
kennzeichnet, daß n = 3 ist.
20. Verfahren nach einem der Ansprüche 17-19, da
durch gekennzeichnet, daß das Kernel die folgenden Gewich
tungsfaktoren aufweist: 111 141 111.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/852,773 US5779641A (en) | 1997-05-07 | 1997-05-07 | Method and apparatus for three-dimensional ultrasound imaging by projecting filtered pixel data |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19819831A1 true DE19819831A1 (de) | 1998-11-19 |
Family
ID=25314177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19819831A Ceased DE19819831A1 (de) | 1997-05-07 | 1998-05-04 | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten |
Country Status (4)
Country | Link |
---|---|
US (1) | US5779641A (de) |
JP (1) | JPH1128211A (de) |
DE (1) | DE19819831A1 (de) |
IL (1) | IL124171A (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10141724A1 (de) * | 2001-08-25 | 2003-03-06 | Brueel & Kjaer Vibro Gmbh | Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige |
DE102014102367A1 (de) | 2014-02-24 | 2015-08-27 | Universität Rostock | Vorrichtung und Verfahren zur Hohlraumdetektion |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5899999A (en) * | 1996-10-16 | 1999-05-04 | Microsoft Corporation | Iterative convolution filter particularly suited for use in an image classification and retrieval system |
US6102864A (en) * | 1997-05-07 | 2000-08-15 | General Electric Company | Three-dimensional ultrasound imaging of velocity and power data using average or median pixel projections |
US5967987A (en) * | 1997-12-18 | 1999-10-19 | Acuson Corporation | Ultrasonic system and method for measurement of fluid flow |
US6171244B1 (en) * | 1997-12-31 | 2001-01-09 | Acuson Corporation | Ultrasonic system and method for storing data |
US6262749B1 (en) | 1997-12-31 | 2001-07-17 | Acuson Corporation | Ultrasonic system and method for data transfer, storage and/or processing |
US6135960A (en) * | 1998-08-31 | 2000-10-24 | Holmberg; Linda Jean | High-resolution, three-dimensional whole body ultrasound imaging system |
US5951479A (en) * | 1998-09-29 | 1999-09-14 | General Electric Company | Method and apparatus for synthetic transmit aperture imaging |
US6210328B1 (en) * | 1998-10-01 | 2001-04-03 | Atl Ultrasound | Ultrasonic diagnostic imaging system with variable spatial compounding |
US6283917B1 (en) * | 1998-10-01 | 2001-09-04 | Atl Ultrasound | Ultrasonic diagnostic imaging system with blurring corrected spatial compounding |
US6155978A (en) * | 1998-12-09 | 2000-12-05 | General Electric Company | Three-dimensional imaging by projecting morphologically filtered pixel data |
EP1034742A1 (de) | 1999-03-09 | 2000-09-13 | Kreztechnik Aktiengesellschaft | Verfahren zur Untersuchung von Objekten mit Ultraschall |
US6535623B1 (en) * | 1999-04-15 | 2003-03-18 | Allen Robert Tannenbaum | Curvature based system for the segmentation and analysis of cardiac magnetic resonance images |
US6484191B1 (en) | 1999-07-02 | 2002-11-19 | Aloka Co., Ltd. | Apparatus and method for the real-time calculation of local variance in images |
US6530885B1 (en) * | 2000-03-17 | 2003-03-11 | Atl Ultrasound, Inc. | Spatially compounded three dimensional ultrasonic images |
US7103205B2 (en) * | 2000-11-24 | 2006-09-05 | U-Systems, Inc. | Breast cancer screening with ultrasound image overlays |
US7597663B2 (en) | 2000-11-24 | 2009-10-06 | U-Systems, Inc. | Adjunctive ultrasound processing and display for breast cancer screening |
US7615008B2 (en) * | 2000-11-24 | 2009-11-10 | U-Systems, Inc. | Processing and displaying breast ultrasound information |
US7940966B2 (en) | 2000-11-24 | 2011-05-10 | U-Systems, Inc. | Full-field breast image data processing and archiving |
US7556602B2 (en) * | 2000-11-24 | 2009-07-07 | U-Systems, Inc. | Breast cancer screening with adjunctive ultrasound mammography |
KR100388407B1 (ko) * | 2001-04-27 | 2003-06-25 | 주식회사 메디슨 | 표시 장치의 화소에 대응하는 복셀에서 수신 집속하는 3차원 초음파 영상 시스템 |
JP3898047B2 (ja) * | 2001-07-09 | 2007-03-28 | セイコーインスツル株式会社 | 血液レオロジー測定装置 |
WO2003043490A1 (en) * | 2001-11-23 | 2003-05-30 | Infinitt Co., Ltd. | Medical image segmentation apparatus and method thereof |
KR100439756B1 (ko) * | 2002-01-09 | 2004-07-12 | 주식회사 인피니트테크놀로지 | 3차원 가상내시경 화면 표시장치 및 그 방법 |
AU2003251104A1 (en) * | 2002-08-21 | 2004-03-11 | Koninklijke Philips Electronics N.V. | Ultrasonic imaging apparatus with adaptable spatial image combination |
JP3944059B2 (ja) * | 2002-11-14 | 2007-07-11 | アロカ株式会社 | 超音波診断装置 |
US6896657B2 (en) * | 2003-05-23 | 2005-05-24 | Scimed Life Systems, Inc. | Method and system for registering ultrasound image in three-dimensional coordinate system |
US20050033123A1 (en) * | 2003-07-25 | 2005-02-10 | Siemens Medical Solutions Usa, Inc. | Region of interest methods and systems for ultrasound imaging |
US20050110793A1 (en) * | 2003-11-21 | 2005-05-26 | Steen Erik N. | Methods and systems for graphics processing in a medical imaging system |
JP4083719B2 (ja) * | 2004-08-18 | 2008-04-30 | ザイオソフト株式会社 | 画像再構成における逆投影方法を実行する画像処理装置 |
US8834371B2 (en) * | 2005-03-31 | 2014-09-16 | Kabushiki Kaisha Toshiba | Ultrasound diagnostic apparatus and ultrasound image processing program |
JP4921826B2 (ja) * | 2005-03-31 | 2012-04-25 | 株式会社東芝 | 超音波診断装置及びその制御方法 |
CN101166475A (zh) | 2005-04-25 | 2008-04-23 | 皇家飞利浦电子股份有限公司 | 用于处理超声图像的目标化附加增益工具 |
US20090174554A1 (en) | 2005-05-11 | 2009-07-09 | Eric Bergeron | Method and system for screening luggage items, cargo containers or persons |
US7991242B2 (en) | 2005-05-11 | 2011-08-02 | Optosecurity Inc. | Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality |
US20070070063A1 (en) * | 2005-09-29 | 2007-03-29 | Siemens Medical Solutions Usa, Inc. | Non-photorealistic volume rendering of ultrasonic data |
US7899232B2 (en) | 2006-05-11 | 2011-03-01 | Optosecurity Inc. | Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same |
JP4864554B2 (ja) * | 2006-06-12 | 2012-02-01 | 株式会社東芝 | 超音波診断装置、医用画像処理装置、及び医用画像処理プログラム |
US8494210B2 (en) | 2007-03-30 | 2013-07-23 | Optosecurity Inc. | User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same |
US8548568B2 (en) * | 2006-09-08 | 2013-10-01 | General Electric Company | Methods and apparatus for motion compensation |
JP4881112B2 (ja) * | 2006-09-19 | 2012-02-22 | 株式会社東芝 | 超音波診断装置及び画像データ生成方法 |
US20080081998A1 (en) * | 2006-10-03 | 2008-04-03 | General Electric Company | System and method for three-dimensional and four-dimensional contrast imaging |
US8332016B2 (en) | 2009-08-04 | 2012-12-11 | Carl Zeiss Meditec, Inc. | Non-linear projections of 3-D medical imaging data |
AU2012304490B2 (en) | 2011-09-07 | 2015-06-25 | Rapiscan Systems, Inc. | X-ray inspection system that integrates manifest data with imaging/detection processing |
US10456116B2 (en) * | 2014-09-30 | 2019-10-29 | Siemens Medical Solutions Usa, Inc. | Shadow suppression in ultrasound imaging |
CA2974377C (en) | 2015-01-23 | 2023-08-01 | The University Of North Carolina At Chapel Hill | Apparatuses, systems, and methods for preclinical ultrasound imaging of subjects |
WO2016192114A1 (zh) * | 2015-06-05 | 2016-12-08 | 深圳迈瑞生物医疗电子股份有限公司 | 超声流体成像方法及超声流体成像系统 |
WO2017020256A1 (zh) * | 2015-08-04 | 2017-02-09 | 深圳迈瑞生物医疗电子股份有限公司 | 三维超声流体成像方法及系统 |
EP3347735B1 (de) * | 2015-09-10 | 2021-06-02 | Koninklijke Philips N.V. | Ultraschallsystem mit weiter tiefe und detaillierter ansicht |
US10302807B2 (en) | 2016-02-22 | 2019-05-28 | Rapiscan Systems, Inc. | Systems and methods for detecting threats and contraband in cargo |
CN108078590B (zh) * | 2018-01-03 | 2021-02-09 | 声泰特(成都)科技有限公司 | 基于超声频谱多普勒的血流动力学可视化方法与系统 |
US10803612B2 (en) * | 2018-09-25 | 2020-10-13 | General Electric Company | Method and system for structure recognition in three-dimensional ultrasound data based on volume renderings |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159931A (en) * | 1988-11-25 | 1992-11-03 | Riccardo Pini | Apparatus for obtaining a three-dimensional reconstruction of anatomic structures through the acquisition of echographic images |
US5226113A (en) * | 1989-10-30 | 1993-07-06 | General Electric Company | Method and apparatus for volumetric projection rendering using reverse ray casting |
US5282471A (en) * | 1991-07-31 | 1994-02-01 | Kabushiki Kaisha Toshiba | Ultrasonic imaging system capable of displaying 3-dimensional angiogram in real time mode |
US5241371A (en) * | 1991-10-30 | 1993-08-31 | Pioneer Electronic Corporation | Image display control apparatus and still picture reproducing system |
US5327894A (en) * | 1993-03-01 | 1994-07-12 | General Electric Company | Wall filter using circular convolution for a color flow imaging system |
US5601084A (en) * | 1993-06-23 | 1997-02-11 | University Of Washington | Determining cardiac wall thickness and motion by imaging and three-dimensional modeling |
US5365929A (en) * | 1993-10-04 | 1994-11-22 | Advanced Technology Laboratories, Inc. | Multiple sample volume spectral Doppler |
US5409007A (en) * | 1993-11-26 | 1995-04-25 | General Electric Company | Filter to reduce speckle artifact in ultrasound imaging |
US5474073A (en) * | 1994-11-22 | 1995-12-12 | Advanced Technology Laboratories, Inc. | Ultrasonic diagnostic scanning for three dimensional display |
US5485842A (en) * | 1994-11-30 | 1996-01-23 | Advanced Technology Laboratories, Inc. | Ultrasonic diagnostic scan conversion for three dimensional display processing |
US5655535A (en) * | 1996-03-29 | 1997-08-12 | Siemens Medical Systems, Inc. | 3-Dimensional compound ultrasound field of view |
WO1997000482A1 (en) * | 1995-06-15 | 1997-01-03 | The Regents Of The University Of Michigan | Method and apparatus for composition and display of three-dimensional image from two-dimensional ultrasound |
US5566674A (en) * | 1995-06-30 | 1996-10-22 | Siemens Medical Systems, Inc. | Method and apparatus for reducing ultrasound image shadowing and speckle |
US5582176A (en) * | 1995-08-15 | 1996-12-10 | Medasonics | Methods and apparatus for automatically determining edge frequency in doppler ultrasound signals |
US5582173A (en) * | 1995-09-18 | 1996-12-10 | Siemens Medical Systems, Inc. | System and method for 3-D medical imaging using 2-D scan data |
-
1997
- 1997-05-07 US US08/852,773 patent/US5779641A/en not_active Expired - Lifetime
-
1998
- 1998-04-22 IL IL12417198A patent/IL124171A/xx not_active IP Right Cessation
- 1998-05-04 DE DE19819831A patent/DE19819831A1/de not_active Ceased
- 1998-05-06 JP JP10123446A patent/JPH1128211A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10141724A1 (de) * | 2001-08-25 | 2003-03-06 | Brueel & Kjaer Vibro Gmbh | Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige |
DE10141724B4 (de) * | 2001-08-25 | 2006-11-16 | Brüel & Kjaer Vibro GmbH | Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige |
DE102014102367A1 (de) | 2014-02-24 | 2015-08-27 | Universität Rostock | Vorrichtung und Verfahren zur Hohlraumdetektion |
Also Published As
Publication number | Publication date |
---|---|
US5779641A (en) | 1998-07-14 |
JPH1128211A (ja) | 1999-02-02 |
IL124171A (en) | 2000-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19819831A1 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten | |
DE19819794A1 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten | |
DE19819892B4 (de) | Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung | |
DE19819800A1 (de) | Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern | |
DE19819832B4 (de) | Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung | |
DE3686401T2 (de) | Darstellung von stromlinien in inhomogenen medien. | |
DE60309486T2 (de) | Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL | |
DE102005019171B4 (de) | Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten | |
DE69735737T2 (de) | Medizinische diagnostische dreidimensionale Ultraschall-Abbildung von Gewebetextur und Vaskulatur | |
DE69527409T2 (de) | Diagnostische Ultraschall-Abtastung für dreidimensionale Anzeige | |
DE69516816T2 (de) | Ultraschall-Diagnostik mit Abtastumsetzung für dreidimensionale Anzeigeverarbeitung | |
DE19819801B4 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite | |
DE69619262T2 (de) | Dreidimensionales bildverarbeitungssystem | |
DE69727994T2 (de) | Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung | |
DE69706766T2 (de) | Ultraschall-Diagnose-Vorrichtung und Verfahren zur Erzeugung von Ultraschall-Bildern mit der Vorrichtung | |
DE69936418T2 (de) | Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos | |
DE3689399T2 (de) | Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen. | |
DE19531419B4 (de) | Verfahren zur Erzeugung anatomischer M-Modus-Anzeigebilder | |
DE69933851T2 (de) | Verfahren zur Reduzierung der Bildschärfeverzerrung in räumlich vermehrten Diagnostikbildern | |
DE69931647T2 (de) | Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen | |
DE69316780T2 (de) | On-line-akustisches, densitometrisches Gerät für die Anwendung zur Ultraschallbilderfassung | |
DE60025438T2 (de) | Verfahren und Gerät zum Einstellen eines interessanten Gebiets in einer Abbildung | |
DE19819793A1 (de) | Verfahren und Einrichtung zum Segmentieren von Farbströmungs-Mode-Daten unter Verwendung von Geschwindigkeitsinformation bei der dreidimensionalen Ultraschall-Bildgebung | |
DE102010049324A1 (de) | Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung | |
DE102004043676B4 (de) | Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8131 | Rejection |