DE19819832A1 - Verfahren und Einrichtung zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung - Google Patents
Verfahren und Einrichtung zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-BildgebungInfo
- Publication number
- DE19819832A1 DE19819832A1 DE19819832A DE19819832A DE19819832A1 DE 19819832 A1 DE19819832 A1 DE 19819832A1 DE 19819832 A DE19819832 A DE 19819832A DE 19819832 A DE19819832 A DE 19819832A DE 19819832 A1 DE19819832 A1 DE 19819832A1
- Authority
- DE
- Germany
- Prior art keywords
- pixel data
- data
- volume
- ultrasound
- focal length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B42/00—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
- G03B42/06—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/06—Measuring blood flow
- A61B8/065—Measuring blood flow to determine blood output from the heart
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/488—Diagnostic techniques involving Doppler signals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/916—Ultrasound 3-D imaging
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Hematology (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Computer Graphics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Cardiology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
Diese Erfindung bezieht sich allgemein auf Ultraschall-Bild
gebung der menschlichen Anatomie zum Zweck der medizinischen
Untersuchung. Insbesondere bezieht sich die Erfindung auf
eine Einrichtung zur dreidimensionalen Abbildung des mensch
lichen Körpers sowie des darin fließenden Blutes durch Erfas
sen der vom Gewebe oder Blut reflektierten Ultraschall-Echos.
Zu den am weitesten üblichen Arten der diagnostischen Ultra
schall-Bildgebung zählen die (zur Abbildung interner physika
lischer Strukturen benutzten) B- und M-Moden, das Doppler- sowie
das Farbströmungs(CF von color flow)verfahren (wobei
das letztere hauptsächlich zur Abbildung von Strömungscharak
teristiken, wie zum Beispiel in Blutgefäßen, eingesetzt
wird). Bei der konventionellen B-Mode-Bildgebung erzeugen
Ultraschall-Abtaster bzw. -Scanner Bilder, in denen die
Helligkeit bzw. Leuchtdichte eines Pixels auf der Intensität
der Echorückkehr basiert. Der Farbströmungs-Mode wird typi
scherweise benutzt, um die Geschwindigkeit einer Fluidströ
mung zum/vom Wandler zu erfassen, und er verwendet im wesent
lichen dieselbe Technik, wie sie beim Dopplerverfahren einge
setzt wird. Während das Dopplerverfahren die Geschwindigkeit
in Abhängigkeit von der Zeit für ein einzelnes selektiertes
Sample- bzw. Probevolumen anzeigt, bringt der Farbströ
mungs-Mode gleichzeitig Hunderte von benachbarten Samplevolumen zur
Darstellung, die alle einem B-Mode-Bild überlagert und zur
Darstellung der Geschwindigkeit jedes Samplevolumens farbko
diert sind.
Die Messung der Blutströmung im Herzen und in den Gefäßen
unter Anwendung des Dopplereffekts ist bekannt. Während die
Amplitude der reflektierten Wellen zur Erzeugung von Schwarz
weißbildern des Gewebes benutzt wird, kann die Frequenzver
schiebung von rückgestreuten Wellen zur Messung der Geschwin
digkeit der rückstreuenden Bestandteile des Gewebes oder
Blutes benutzt werden. Die rückgestreute Frequenz nimmt zu,
wenn Blut in Richtung auf den Wandler hin strömt, und nimmt
ab, wenn Blut von dem Wandler weg strömt. Farbströmungsbilder
werden erzeugt, indem man eine Farbdarstellung der Geschwin
digkeit von sich bewegendem Material, z. B. von Blut, dem
Schwarzweißbild der Anatomie überlagert. Die gemessene Ge
schwindigkeit der Strömung bei jedem Pixel bestimmt seine
Farbe.
Die vorliegende Erfindung ist in einem Ultraschall-Bild
gebungssystem eingebaut, das aus vier hauptsächlichen
Untersystemen besteht: einem Bündelformer 2 (vgl. Fig. 1),
einem Prozessor-Subsystem 4, einer Abtastkonverter/Display
steuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung
ist zentral in der Hauptsteuerung 8 vorgesehen, welche die
Bedienereingaben über eine (nicht gezeigte) Bedienerschnitt
stelle empfängt und ihrerseits die verschiedenen Untersysteme
steuert. Die Hauptsteuerung erzeugt ebenfalls für das System
die Zeit- und Steuersignale, die über einen Systemsteuerbus
10 sowie einen (nicht gezeigten) Abtaststeuerbus verteilt
werden.
Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän
gen von dem Wandler an den Strahl- bzw. Bündelformer. Unter
Bezugnahme auf Fig. 2 enthält ein konventionelles Ultra
schall-Bildgebungssystem ein Wandlerarray 50, daß mehrere
separat betriebene Wandlerelemente 52 aufweist, von denen
jedes einen Ausstoß (burst) von Ultraschallenergie erzeugt,
wenn es über einen von einem (nicht gezeigten) Sender erzeug
ten Impulsverlauf mit Energie beaufschlagt wird. Die von dem
untersuchten Objekt zum Wandlerarray 50 zurückreflektierte
Ultraschallenergie wird von jedem empfangenden Wandlerelement
52 in ein elektrisches Signal umgesetzt und separat an den
Bündelformer 2 angelegt.
Die bei jedem Ausstoß von Ultraschall-Energie erzeugten
Echosignale reflektieren an den Objekten, die sich in aufein
anderfolgenden Entfernungen entlang dem Ultraschallstrahl
befinden. Die Echosignale werden von jedem Wandlerelement 52
separat abgefühlt, und die Größe des Echosignals zu einem
bestimmten Zeitpunkt repräsentiert den Betrag der bei einem
spezifischen Abstand auftretenden Reflexion. Aufgrund der
Unterschiede in den Ausbreitungswegen zwischen einem Ultra
schall streuenden Samplevolumen und jedem Wandlerelement 52
werden diese Echosignale jedoch nicht gleichzeitig erfaßt und
ihre Amplituden werden nicht gleich sein. Der Bündelformer 2
verstärkt die separaten Echosignale, teilt jedem die richtige
Zeitverzögerung zu und summiert sie auf zur Bildung eines
einzigen Echosignals, das ein genaues Maß der ingesamten
Ultraschallenergie ist, die von dem Samplevolumen reflektiert
wird. Jeder Strahlformungskanal 54 empfängt das analoge
Echosignal von einem entsprechenden Wandlerelement 52.
Um gleichzeitig die elektrischen Signale zu summieren, die
von den auf jedes Wandlerelement 52 auftreffenden Echos
erzeugt werden, werden in jedem separaten Strahlformungskanal
54 mittels einer Strahlformersteuerung 56 Zeitverzögerungen
eingebracht. Die Bündel-Zeitverzögerungen für den Empfang
sind dieselben Verzögerungen wie die Sendeverzögerungen. Die
Zeitverzögerung von jedem Strahlformungskanal ändert sich
jedoch kontinuierlich während des Empfangs des Echos um eine
dynamische Fokussierung des aus dem Abstand, von wo das
Echosignal ausgeht, empfangenen Bündels vorzusehen. Die
Strahlformungskanäle weisen weiterhin (nicht gezeigte) Schal
tungen für das Aufbereiten bzw. Apodisieren und Filtern der
empfangenen Impulse auf.
Die in den Summierer 44 eintretenden Signale werden verzö
gert, so daß sie mit den verzögerten Signalen von jedem der
anderen Strahlformungskanäle 54 summiert werden. Die summier
ten Signale geben die Größe und Phase des von einem entlang
dem gesteuerten Bündel angeordneten Samplevolumen reflektier
ten Echosignals an. Ein Signalprozessor oder Detektor 4
konvertiert das empfangene Signal zu Displaydaten.
Der Bündelformer gibt zwei aufsummierte digitale Empfangsbün
del im Basisband aus. Die Basisbanddaten werden als Eingang
an den B-Mode-Prozessor 4A und an den Farbströmungsprozessor
4B gegeben, wo sie entsprechend dem Datenerfassungsmodus
prozessiert und als prozessierte akustische Vektor-(Bün
del-)Daten an den Abtastkonverter/Displayprozessor 6 ausgegeben
werden. Der Abtastkonverter/Displayprozessor 6 nimmt die
prozessierten akustischen Daten auf und gibt die Video-Display
signale für die Abbildung in einem Rasterscanformat an
einen Farbmonitor 12 aus.
Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von
dem Bündelformer in eine logarithmisch komprimierte Version
der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria
ble Amplitude der Einhüllenden des Signals als eine Grauskala
unter Verwendung eines 8-Bit-Ausgangs für jedes Pixel ab. Die
Einhüllende eines Basisbandsignals ist die Größe des Vektors,
der die Basisbanddaten repräsentiert.
Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam
mern usw. reflektierten Schallwellen wird proportional zu der
Geschwindigkeit der Blutzellen verschoben, und zwar in posi
tiver Richtung für sich auf den Wandler zu bewegenden Zellen
und in negativer Richtung für die sich davon wegbewegenden
Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um
eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindig
keit in der Abbildungsebene vorzusehen. Die Blutgeschwindig
keit wird errechnet durch Messung der Phasenverschiebung
zwischen zwei Aktivierungen (firings) bei einem spezifischen
Entfernungstor (range gate). Statt einer Messung des Doppler
spektrums bei einem Entfernungstor in der Abbildung wird die
mittlere Blutgeschwindigkeit von mehreren Vektorpositionen
und mehreren Entfernungstorer entlang jedem Vektor berechnet,
und aus dieser Information wird eine zweidimensionale Abbil
dung erstellt. In speziellerer Hinsicht erzeugt der Farbströ
mungsprozessor Geschwindigkeitssignale (8 Bits), Varianz-(Tur
bulenz-)Signale (4 Bits), sowie Energie- bzw. Powersi
gnale (8 Bits). Der Bediener wählt aus, ob die Geschwindig
keit und Varianz oder die Energie an den Abtastkonverter
ausgegeben werden. Letztlich wird das Ausgangssignal als
Eingang für eine in den Videoprozessor 22 enthaltene Nach
schlagetabelle für die Chrominanz- bzw. Buntsteuerung gege
ben.
Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver
ter/Displaysteuerung 6 neben jeweils die von den Prozessoren
4A und 4B prozessierten digitalen Daten auf und führen die
Koordinaten-Transformation der Farbströmungs-B-Mode-Daten
vom Polarkoordinaten-(R-θ)Sektorformat oder vom Cartesi
schen linearen Koordinatenfeld zu geeignet skalierten Dis
play-Pixeldaten in Cartesichen Koordinaten durch, die im X-Y
Displayspeicher 18 gespeichert werden. Im B-Mode werden die
Intensitätsdaten im X-Y Displayspeicher 18 gespeichert, wobei
jede Adresse drei Intensitätspixel zu 8 Bit speichert. Im
Farbströmungsmodus werden die Daten im Speicher wie folgt
gespeichert: Intensitätsdaten (8 Bit), Geschwindigkeits- oder
Energiedaten (8 Bit) und Turbulenzdaten (4 Bit).
Der Abtastkonverter 6 konvertiert die akustischen Bilddaten
von Polarkoordinaten-(R-θ)Sektorformat oder vom Cartesi
schen linearen Koordinatenfeld zu geeignet skalierten Dis
play-Pixeldaten in Cartesischen Koordinaten bei der Videofre
quenz. Diese Abtast-konvertierten akustischen Daten werden
sodann zur Darstellung auf dem Displaymonitor 12 ausgegeben.
Im B-Mode bildet der Monitor die zeitvariable Amplitude der
Einhüllenden des Signals als eine Grauskala ab, d. h. die
Helligkeit eines Pixels basiert auf der Intensität der
Echorückkehr. Im Farbströmungsmodus, wenn eine Bewegung
vorliegt, zum Beispiel in einer Arterie fließendes Blut, wird
eine Doppler-Verschiebung in dem rückkehrenden Signal propor
tional zur Geschwindigkeit der Bewegungen erzeugt. Die Anzei
ge bildet die Blutströmung ab, d. h. die Doppler-Verschiebung
verwendet verschiedene Farben, z. B. Rot für eine Strömung zum
Wandler hin und Blau für eine Strömung vom Wandler weg. Bei
der Power-Doppler-Bildgebung wird die in dem zurückkehrenden
Dopplersignal enthaltene Energie zur Darstellung gebracht.
Aufeinanderfolgende (Voll-)Bilder (Frames) von Farbströ
mungs- oder B-Mode-Daten werden im Filmspeicher auf einer
First-In/First-Out(FIFO)-Basis gespeichert. Die Speicherung kann
kontinuierlich erfolgen oder als Ergebnis eines externen
Triggervorgangs. Der Filmspeicher ist ein im Hintergrund
laufender ringförmiger Bildpufferspeicher, der die Bilddaten
erfaßt, die in Echtzeit für den Benutzer zur Darstellung
gebracht werden. Wenn der Benutzer das System "einfriert" hat
er die Möglichkeit, zuvor im Filmspeicher eingefangene Bild
daten anzuschauen. Die Grafikdaten für die Herstellung von
grafischen Auflagen (overlays) auf dem dargestellten Bild
werden erzeugt und gespeichert in dem Zeilinien/Grafik
prozessor und Displayspeicher 20. Der Videoprozessor 22
schaltet im Multiplexbetrieb zwischen den Grafikdaten, den
Bilddaten und den Zeitliniendaten hin und her, um den endgül
tigen Videoausgang in einem Rasterscanformat auf dem Video
monitor 12 zu erzeugen. Zusätzlich sorgt er für verschiedene
Grauskala- und Farbkartierungen (maps) sowie für die Verknüp
fung der Grauskala- und Farbbilder.
Konventionelle Ultraschall-Scanner erzeugen zweidimensionale
Bilder eines "Schnitts" (slice) durch einen Anatomiebereich.
Zweidimensionale Ultraschallbilder sind oft schwer zu inter
pretieren aufgrund des Unvermögens des Beobachters, sich die
Darstellung der gerade abgetasteten Anatomie zu veranschauli
chen. Wird jedoch die Ultraschallsonde über einen interessie
renden Bereich geführt und werden dabei zweidimensionale
Abbildungen zur Formung eines dreidimensionalen Volumens
akkumuliert, dann ist die Anatomie leichter vorstellbar. Die
Daten können auf eine Anzahl von Wegen manipuliert werden,
einschließlich einer Volumen- oder Oberflächenerstellung.
Zusätzlich können die Daten erneut abgetastet und in anderen
Ebenen dargestellt werden als denjenigen, in denen die Daten
ursprünglich gesammelt worden sind. Dies erlaubt dem Benut
zer, Ansichten der Anatomie zu erhalten, die angesichts der
gegebenen Anatomie und des Unvermögens, die Sonde exakt zu
positionieren, nicht möglich sein können.
Die obigen Techniken sind zur Darstellung von Ultraschallda
ten mit unterschiedlichen Graden von Erfolg benutzt worden.
Ein Problem besteht darin, daß ein Mangel an (sowohl räumli
cher als auch kontrastmäßiger) Auflösung verbunden mit Flec
ken (Speckle) und Rauschen in den zweidimensionalen Bildern
es schwierig macht, das projizierte Bild richtig zu segmen
tieren. Der Mangel an Auflösung bei zweidimensionalen Bildern
rührt von einer Anzahl von Faktoren her, einschließlich dem
Unvermögen, eine gleichmäßige Fokussierung des Bündels über
einen großen Bereich aufrechtzuerhalten, einem Mangel an
Bandbreite und Dynamikbereich sowie einer hohen f-Zahl
(Blendwert) des Systems. Ein weiteres Problem war der be
grenzte Bereich für die Höhenfokussierung des von einem
Wandlerarray mit einer einzelnen Zeile und einem festen
Einzelfokus erzeugten Bündels. Die bei der Rekonstruktion
eines dreidimensionalen Bildes verwendeten Quelldatenschnitte
variieren aufgrund der ungleichmäßigen vertikalen bzw. Höhen
bündelweite in ihrer Dicke. Daher verschlechtern sich die
rekonstruierten Bilder sukzessive in dem Maße, wie die Pro
jektionen oder wieder abgetasteten Bilder sich einem Winkel
senkrecht zu der Erfassungsebene annähern. Es besteht somit
ein Bedarf dafür, die f-Zahl abzusenken und die Bandbreite
des Systems zu erhöhen, um sowohl die räumliche als auch die
kontrastmäßige Auflösung der zweidimensionalen Bilder zu
verbessern, und es besteht ein weiterer Bedarf nach einer
Steuerung des Erhebungs- bzw. Höhenfokus des Ultraschallbün
dels über einen größeren Bereich, um einen viel dünneren
Schnitt mit gleichmäßigerer Dicke zu erhalten, der eine
verbesserte Segmentierung bei der dreidimensionalen Bildge
bung ermöglicht.
Die vorliegende Erfindung stellt ein Verfahren sowie eine
Einrichtung zur dreidimensionalen Bildgebung mittels Projek
tion von Ultraschalldaten dar, die durch Abtasten bzw. Scan
nen eines interessierenden Volumens gewonnen wurden. Das
Objektvolumen wird unter Verwendung einer Vielzahl von
Schnitten mit im wesentlichen gleichmäßiger Dicke abgetastet.
Der Ultraschall-Scanner sammelt B-Mode- oder Farbströ
mungs-Mode-Bilder in einem Filmspeicher auf einer kontinuierlichen
Basis oder als Reaktion auf einen externen Triggervorgang,
d. h. für eine Vielzahl von Schnitten. Die von einem jeweili
gen interessierenden Gebiet für jeden Schnitt erhaltenen
Samplevolumendaten werden an eine Hauptsteuerung gesandt,
wobei diese Daten ein interessierendes Volumen bilden. Die
Hauptsteuerung führt einen Algorithmus aus, der die Samplevo
lumendaten in dem interessierenden Volumen unter Einsatz
einer Strahlwurftechnik auf mehrere gedrehte Bildebenen
projiziert. Die Samplevolumendaten für jede Projektion werden
gespeichert, und zwar optional mit dem Teil des letzten
außerhalb des interessierenden Gebiets liegenden Hintergrund
bild, in einem separaten Bild (frame), in dem Filmspeicher.
Diese rekonstruierten Bilder werden sodann selektiv von dem
Systembediener zur Anzeige gebracht.
Gemäß der vorliegenden Erfindung wird die Segmentierung der
dreidimensionalen Projektionsbilder verbessert durch Verrin
gern der Dicke und Erhöhen der Auflösung (d. h. Verringern der
Punktausbreitungsfunktion) der zweidimensionalen Schnitte,
von denen die Projektionen abgeleitet werden. Die Schnittdic
ke wird verringert durch Erhöhen des Höhenfokus des Bündels.
Die zweidimensionale Auflösung wird erhöht durch Öffnen der
Apertur, d. h. durch Verringern der f-Zahl, sowie durch Erhö
hen der Bandbreite. Das Ergebnis ist eine außerordentlich
kleine Voxelgröße.
Das Verfahren nach der Erfindung verwendet eine Anzahl von
Techniken einschließlich der Benutzung von mehrfachen Sende-Brenn
weiten sowie von Sende- und Empfangsaperturen mit klei
nen f-Zahlen, d. h. 0,5 bis 2,0 für den B-Mode und 1,0 bis 3,0
für den Farbströmungs-Mode. Die Benutzung von Mehrfachbrenn
weiten mit niedrigen f-Zahlen erlaubt eine enge Fokussierung
über einen größeren Schärfentiefenbereich. Darüber hinaus
können besondere Wellenformen und besondere Verstärkungskur
ven für unterschiedliche Brennweiten (Fokalzonen) benutzt
werden. Insbesondere kann die Mittenfrequenz der Wellenform
mit zunehmender Tiefe verringert werden, um eine geringere
Dämpfung und größere Durchdringung zu erreichen, während die
Ausstoßwellenlänge (waveform burst length) mit zunehmender
Tiefe erhöht werden kann, um die Empfindlichkeit bei größeren
Tiefen zu verbessern.
Bei der B-Mode-Bildgebung werden für jedes akustische Bild
(Frame) mehrfache Fokalzonen aktiviert (fired) und die außer
halb des Fokus liegenden Daten werden bei der Bündelformung
ausgesondert. Bei der Farbströmungs-Mode-Bildgebung wird jede
Fokalzone auf ein separates akustisches Bild aktiviert und
ein adaptiver Bildmittelungsalgorithmus wird für das Zusam
menmischen der innerhalb des Fokus liegenden Daten von jedem
dieser akustischen Bilder benutzt.
Eine gleichmäßige vertikale Bündelweite wird erzielt durch
Verwendung eines Wandlerarrays mit mehreren Zeilen, das eine
zentrale Zeile bzw. Reihe von Wandlerelementen aufweist, die
zwischen ersten und zweiten äußeren Zeilen von paarweisen
Wandlerelementen angeordnet ist. Vorzugsweise ist die zentra
le Reihe mit Elementen ausgeführt, die eine kleinere Fläche
besitzen als die kombinierte Fläche der paarweisen Elemente
der äußeren Zeilen. Diese Geometrie bietet eine exzellente
Höhenleistungsfähigkeit (dünnerer und gleichmäßigerer Bild
schnitt, größere Kontrastauflösung), insbesondere im ausge
sprochenen Nahfeld. Vorzugsweise weist das Array fünf Zeilen
sowie eine mehrfokale Linse auf, wobei die kombinierte Fläche
jedes Elementpaares in den äußersten Zeilen größer ist als
die Fläche jedes Elements in der zentralen Zeile und größer
ist als die kombinierte Fläche von jedem Elementpaar in den
Zwischenzeilen.
Gemäß der bevorzugten Ausführung der Erfindung werden der
vertikale bzw. Höhenfokus, die Mittenfrequenz der Wellenform
sowie die Wellenausstoßlänge jeweils als Funktion der Tiefe
geändert. Man kann deshalb eine Anzahl von Fokalzonen pro
grammieren und eine bessere Punktausbreitungsfunktion über
das gesamte Bild erzielen. Zusätzlich ist es durch Einstel
lung der bündelformenden Parameter möglich, die Anzahl von
aktiven Elementen zu erhöhen und dadurch die Apertur der
Sonde (probe) zu öffnen, d. h. die Blenden- bzw. f-Zahl zu
verkleinern. Dies hat den Effekt der Verkleinerung der Sei
tenkeulen, was ein besseres Spitze-zu-Spitze Grundrauschver
hältnis erzeugt, was seinerseits die Kontrastauflösung ver
bessert. Ein breiterer Dynamikbereich läßt sich erzielen
durch Erhöhen der Datenbitweite in dem Ultraschallsystem und
durch Verringern des insgesamten Grundrauschens des Systems.
Das Ultraschall-Bildgebungssystem gemäß einer bevorzugten
Ausführung der Erfindung weist einen digitalen Bündelformer
auf, der es den bündelformenden Parametern des Systems er
laubt, den Bündelfokus sowohl hinsichtlich des Azimut als
auch der Höhe (Elevation) mit der Tiefe zu ändern. Eine
zweite bevorzugte Ausführung weist einen digitalen Bündelfor
mer auf, der es den strahlformenden Systemparametern gestat
tet, den Azimutfokus des Bündels sowie eine Linse mit festem
Fokus zu ändern, um den Höhenfokus mit der Tiefe zu ändern.
Somit kann eine schmalere und gleichmäßigere Bündelweite über
einen viel größeren Bereich aufrechterhalten werden. Zusätz
lich erlaubt es der digitale Bündelformer, daß die Apertur
der Sonde so gesteuert wird, daß sie eine weitere Apertur und
daher eine geringere f-Zahl erzeugt.
Die Erfindung wird im folgenden anhand von Ausführungsbei
spielen unter Zuhilfenahme der Zeichnungen näher erläutert.
Es zeigen:
Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio
nalen Untersysteme in einem Echtzeit-Ultraschall-Bildgebungs
system zeigt;
Fig. 2 ein Blockschaltbild eines typischen 128-Kanal Bündel
formers in einem konventionellen Ultraschall-Bildgebungs
system;
Fig. 3 eine schematische Darstellung des akustischen bzw.
Schallbündelprofils, das sich ergibt, wenn das Ultraschall-Wand
lerarray eine Apertur mit einer relativ hohen f-Zahl
besitzt;
Fig. 4 eine schematische Darstellung des akustischen Bündel
profils, das sich ergibt, wenn das Ultraschall-Wandlerarray
eine Apertur mit einer relativ niedrigen f-Zahl aufweist;
Fig. 5 eine schematische Darstellung des akustischen Bündel
profils, das sich ergibt, wenn gemäß der vorliegenden Erfin
dung mehrfache Sende-Fokalzonen benutzt werden;
Fig. 6 eine vertikale Querschnittsansicht eines mehrzeiligen
Wandlerarrays, das in dem dreidimensionalen Ultraschall-Bild
gebungssystem der vorliegenden Erfindung verwendet werden
kann, um den Höhenfokus mit zunehmender Tiefe zu verändern;
Fig. 7 ein Blockschaltbild der Einrichtung zur Bildrekon
struktion mit aufeinanderfolgenden volumetrischen Projektio
nen von Pixeldaten gemäß einer bevorzugten Ausführung der
vorliegenden Erfindung; und
Fig. 8 ein Flußdiagramm der Schritte eines Algorithmus zur
Bildrekonstruktion mit aufeinanderfolgenden volumetrischen
Projektionen von Intensitäts- und Geschwindigkeits- oder
Energiepixeldaten gemäß der bevorzugten Ausführungsform der
vorliegenden Erfindung.
Gemäß einem Aspekt der vorliegenden Erfindung werden kleine
Sende- und Empfangs-f-Zahlen (d. h. weite Aperturen) für eine
verbesserte räumliche Auflösung benutzt. Die Auswirkung der
Verwendung von Aperturen mit kleiner f-Zahl auf das Schall
bündelprofil ist in den Fig. 3 und 4 dargestellt. Fig. 3
zeigt das Ergebnis der Benutzung einer höheren f-Zahl
(kleinere Apertur). Die laterale Fokussierung ist am Brenn
punkt nicht sehr scharf, obwohl die Schärfentiefe in der
Entfernungsdimension einigermaßen groß ist. Das in Fig. 4
gezeigte Bündel ist das Ergebnis bei Benutzung einer niedri
gen f-Zahl (größere Apertur). Die laterale Fokussierung ist
enger am Brennpunkt und die Schärfentiefe ist schmaler. Gemäß
den bevorzugten Ausführungen der Erfindung ist der Bereich
von f-Zahlen für den B-Mode 0,5 bis 2,0 und für den Farbströ
mungs-Mode 1,0 bis 3,0.
Gemäß einem weiteren Merkmal der vorliegenden Erfindung
werden mehrfache Sende-Fokalzonen benutzt. Eine Benutzung von
mehrfachen Fokalzonen mit niederigen f-Zahlen löst das Schär
fentiefenproblem und erlaubt eine enge Fokussierung über
einen größeren Schärfentiefenbereich, wie in Fig. 5 gezeigt
ist. Gemäß dem System nach der vorliegenden Erfindung können
entlang jeder Abtastzeile 1 bis 8 Fokalzonen benutzt werden.
Das Aktivieren (firing) von mehrfachen Fokalzonen gemäß der
Erfindung bedeutet eine Herausforderung für den bereits
hinsichtlich der Bildrate begrenzten Farbbild-Mode, da für
jede Fokalzone komplette Pakete ausgesandt bzw. aktiviert
werden müssen. Diese Herausforderung wird überwunden, indem
man jede Fokalzone auf einem separaten akustischen Bild
(Frame) aktiviert. Somit ändert sich die Lage der Fokalzone
von Bild zu Bild.
Zusätzlich können für jede Fokalzone spezielle Wellenformen
benutzt werden. Im Nahfeld weisen die Sende-Wellenformen
relativ kurze Ausstoßlängen (burst lengths) auf. Beispiels
weise weisen bei der B-Mode-Abbildung gemäß einer bevorzugten
Ausführung der Erfindung die Sende-Wellenformen im Nahfeld
vorzugsweise nur einen Impuls auf, der mit der Pulswiederho
lungsfrequenz wiederholt wird. Die Benutzung von Wellenformen
mit kürzerer Ausstoßlänge resultiert in einer besseren axia
len Auflösung, wogegen man die Empfindlichkeit ansetzt
(weniger Energie in der Wellenform), was man kompensieren
kann, indem man eine größere Apertur im Nahfeld benutzt.
Wellenformen mit längerer Ausstoßlänge werden oft im Fernbe
reich benötigt, um die geforderte Eindringtiefe bzw. Durch
dringung zu erzielen. Gemäß einem weiteren Aspekt der Erfin
dung können die Sende-Wellenformen von Fokalzone zu Fokalzone
variieren. Die Benutzung einer Wellenform mit niedrigerer
Frequenz resultiert in einer stärkeren Eindringtiefe und die
Benutzung einer Wellenform mit höherer Frequenz resultiert in
einer besseren Nahfeldauflösung.
Für eine B-Mode-Abbildung des Unterleibs sendet das System
gemäß der Erfindung in einem Bereich von 2,5-5 MHz unter
Verwendung einer Apertur mit einer f-Zahl von 1,0. Für die
B-Mode-Abbildung von kleineren Körperteilen sendet das System
gemäß der Erfindung in einem Bereich von 8,75-12 MHz unter
Verwendung einer Apertur mit einer f-Zahl von 1,5. Die bevor
zugte Anzahl von Fokalzonen beträgt 2 bis 8.
Im Farbströmungs-Mode beträgt der bevorzugte Bereich für die
Demodulationsfrequenz 1,25 bis 8 MHz, in Abhängigkeit von der
Sonde, und die bevorzugte Anzahl von Sendezyklen (d. h. die
Ausstoß(burst)länge) für jede Fokalzone beträgt 2 bis 8
Zyklen, abhängig von der Sende-Fokaltiefe der Mittenfrequenz
und der gewünschten axialen Auflösung. Beispielsweise ist
gemäß einem Aufbau zur Bündelformung mit hoher Auflösung für
den Farbströmungs-Mode die Demodulationsfrequenz 5 MHz für
alle Fokalzonen; die Anzahl von Sendezyklen ist 3 für die
ersten 10 Fokalzonenpositionen (z. B. bei einer Abdeckung von
0,4 bis 3,1 cm); und die Anzahl von Sendezyklen beträgt 4 für
die 11-te und 12-te Fokalzonenposition (z. B. bei 3,4 bzw. 3,7 cm).
Gemäß einem noch weiteren Aspekt der Erfindung werden beson
dere Verstärkungskurven für jede Fokalzone benutzt. Der
Ausdruck "Verstärkungskurve", wie er hier benutzt wird,
bezieht sich auf die Art, in der sich die Empfängerverstär
kung des Systems mit der Tiefe ändert. Bei größeren Tiefen
wird mehr Verstärkung benötigt als bei flacheren Tiefen, weil
die Dämpfung des akustischen Signals bei größeren Tiefen
größer ist. Um ein über die Tiefe relativ gleichmäßiges Bild
(gleichmäßig in der Verstärkung) zu erzeugen, muß typischer
weise eine größere Verstärkung auf die tieferen Tiefen ange
wendet werden. Gemäß der Erfindung erscheint jedoch die
meiste Energie des ausgesendeten Signals bei oder in der
Nähe der Sende-Fokalzone. Eine Verstärkungsanpassung wird
vorgenommen unter Einsatz einer speziellen Verstärkungskurve
für jede Fokalzone. Die Verstärkungskurven sind ein Zahlen
satz in einer Datei (file) für jede Fokalzone, welche Zahlen
die an das Signal in dieser Verarbeitungsstufe angelegte
Verstärkung repräsentieren. Diese Verstärkungskurven werden
an die Abgleicheinrichtung angelegt, die Teil des Bündelfor
mers ist.
Im Farbströmungs-Mode wird die Verstärkung so eingestellt,
daß das Signal etwas größer an der Fokalzone ist und kleiner
etwas entfernt von der Fokalzone. Auf diese Weise erfaßt der
Farbströmungs-Bildmittelungsalgorithmus das im Fokus auftre
tende Signal und minimiert die nicht im Fokus liegenden
Anteile von "abseits" liegenden Fokalzonen.
Beim Scannen im Farbströmungs-Mode wird ein zweidimensionales
Bild erzeugt, indem man einen vertikalen Vektor nach dem
anderen von links nach rechts aussendet bzw. auslöst, um
einen einzelnen zweidimensionalen Satz von Pixeldaten aufzu
bauen, der das Bild formen wird. Dieser Satz von vertikalen
Datenvektoren ist bekannt als ein akustisches (Voll-)Bild
(Frame) von Farbströmungsdaten. Wenn beim Scannen im
Farbströmungs-Mode ein jeweiliges akustisches Bild von
Farbströmungsdaten gewonnen worden ist, wird es weiter verar
beitet, während das nächste akustische Datenbild gewonnen
wird. Gemäß dem Konzept der vorliegenden Erfindung besitzt
jedes akustische Bild (Frame) für seine Vektoren eine Sende-Fokal
zonenposition, die gegenüber der Fokalposition der
vorhergehenden und nachfolgenden akustischen Bilder unter
schiedlich sein kann. Ein adaptiver Algorithmus zur Mittelung
der Bilder wird benutzt, um die im Fokus liegenden Daten von
jedem dieser akustischen Bilder bei der Vorbereitung für die
Darstellung zusammenzumischen. Gemäß der bevorzugten Ausfüh
rungsform werden die Fokalzonen kombiniert unter Verwendung
eines nicht linearen datenabhängigen Bildmittelungsalgorith
mus. Der Vorteil dieses Verfahrens ist der, daß dabei keine
weitere Reduktion der realen Bildfrequenz auftritt, da keine
zusätzlichen Auslösungen (firings) über den traditionellen
Einzelfokus-Farb-Mode hinaus benötigt werden. Jeder gegebene
Strömungssignalpegel in dem Bild würde hinsichtlich seiner
Amplitude stärker sein, wenn die am nächsten an dieser Strö
mung liegende Fokalzone gesendet wurde. Dieselbe Strömung
würde mit schwächerer Amplitude erscheinen, wenn die anderen
"abseits" liegenden Fokalzonen ausgelöst wurden. Der Bildmit
telungsalgorithmus macht sich diese Tatsache zunutze, indem
er die stärkere im Fokus liegende Strömungsamplitude länger
anhält als die schwächere außerhalb des Fokus liegende Strö
mungsamplitude und dadurch ein resultierendes angezeigtes
Bild erzeugt, das sowohl eine höhere räumliche Auflösung als
auch eine größere Empfindlichkeit bietet. Dies funktioniert
gut auch im Geschwindigkeits-Mode, da eine schwächere, außer
halb des Fokus liegende Strömung abseits von der Sende-Fokal
zone, dazu tendiert, unter die Amplitudenschwelle des Ge
schwindigkeits-Mode abzufallen und nicht zur Anzeige gebracht
wird. Die starke im Fokus liegende Strömung am oder in der
Nähe des Sendefokus tendiert dazu, über dieser Schwelle zu
liegen, und daher wird das Geschwindigkeitssignal zur Anzeige
gebracht.
Gemäß der bevorzugten Ausführung der Erfindung wird eine
optimale vertikale bzw. Höhen-Leistungsfähigkeit (minimale
Bildschnittdicke und maximale Kontrastauflösung) erreicht mit
mehrzeiligen Wandlerarrays mit einer kürzeren (d. h. weniger
hohen) Mittelzeile und größeren (d. h. mit größerer Höhe)
ausgebildeten (äußersten) Zeilen. Die äußersten Zeilen sind
ebenfalls größer in der Erhebungsrichtung als jegliche Zwi
schenzeilen.
Als ein Beispiel für die Anwendung der obigen Array-Aus
legungsprinzipien zeigt Fig. 6 ein fünfzeiliges 1,25D
Array mit einer kleinen zentralen Zeile 102a und großen
äußersten Zeilen 102d und 102e, welches Array in dem System
nach der vorliegenden Erfindung verwendet werden kann. Die
Zeilenkanten liegen bei Abständen (1/4, 1/2, 1) ymax von der
Array-Mittellinie. Somit weisen die paarweisen Elemente der
Zwischenzeilen 102b und 102c eine Fläche auf, die gleich ist
zu der Fläche jedes Elements der mittleren Zeile 102a; und
die paarweisen Elemente der äußersten Zeilen 102d und 102e
besitzen eine Fläche gleich dem Doppelten der Fläche jedes
Elements der mittleren Zeile 102a. Die Ultraschallimpulse
werden ausgesendet über eine Mehrfachfokuslinse 116 mit
Linsenbrennweiten von 35, 65 und 90 mm. Der zentrale Ab
schnitt der Linse 116 mit einer Brennweite von 35 mm fokus
siert die von der zentralen Zeile 102a gesendeten Ultra
schallbündel; die benachbarten Linsenabschnitte (mit 65 mm
Brennweite) fokussieren die jeweils von den Zeilen 102b und
102c gesendeten Bündel; und die äußersten Linsenabschnitte
(mit 90 mm Brennweite) fokussieren die jeweils von den äußer
sten Zeilen 102d und 102e gesendeten Bündel. Die Mehrfachfo
kuslinse verbessert die Gleichmäßigkeit des vertikalen bzw.
Höhenprofils des Bündels, indem sie die zentrale Zeile im
Nahfeld fokussiert, soweit lediglich die zentrale Zeile aktiv
ist, und indem es die äußeren Zeilen im Fernbereich fokus
siert, welches das einzige Gebiet ist, in dem diese aktiv
sind.
In dem in Fig. 6 gezeigten 1,25D Array ist eine Vielzahl von
Multiplexern 114 jeweils mit einer entsprechenden Vielzahl
von Signalleitungen 118 verbunden (lediglich ein Multiplexer
und eine Signalleitung sind in Fig. 3 zu sehen). Jede Signal
leitung 118 ist mit einem entsprechenden (in Fig. 3 nicht
gezeigten) Strahlformungskanal verbunden. Jeder Multiplexer
114 besitzt drei interne Schalter, welche die Signalleitungen
108a-108c im Multiplexbetrieb zur Verbindung mit der Signal
leitung 118 schalten. Jede Spalte von Wandlerelementen ist
mit einem entsprechenden Satz solcher Signalleitungen verbun
den; das zentrale Zeilenelement 102a ist mit der Signallei
tung 108a verbunden; die paarweisen Elemente 102b, 102c der
Zwischenzeilen sind mit der Signalleitung 108b verbunden; und
die paarweisen Elemente 102d, 102e der äußersten Zeilen sind
an die Signalleitung 108c angeschlossen. In der Praxis sind
die Elementpaare (d. h. die Verbindung von 102b mit 102c und
von 102d mit 102e) innerhalb des Sondenkopfes miteinander
verbunden, während die Multiplexer innerhalb des Sondenkop
fes, am konsolenseitigen Ende des Sondenkabels oder innerhalb
der Systemkonsole selbst lokalisiert sein können.
Da der Zustandswechsel der Multiplexerschalter Rauschen
erzeugt, erfordert die Benutzung dieser Sonde typischerweise
drei Sende-Empfangszyklen pro Bündel. Bei geschlossenen
Multiplexerschaltern 114a für die zentrale Zeile der Elemente
102a und bei geöffneten Schaltern 114b und 114c werden die
Sendeverzögerungen so eingestellt, daß sie eine Azimutfokus
sierung im Nahfeld vorsehen und der Nahbereichsteil der
Bündeldaten gewonnen wird. Als nächstes werden die Schalter
114a und 114b geschlossen, die Sende- und Empfangsverzögerun
gen umkonfiguriert, und es werden unter Benutzung der Zeilen
102a, 102b und 102c die Mittelfelddaten gewonnen. Schließlich
werden alle Multiplexerschalter geschlossen, die Sende- und
Empfangsverzögerungen werden umkonfiguriert, und die Fern
felddaten werden unter Benutzung der Zeilen 102a-102e gewon
nen. Die Daten von den drei Zonen werden in dem Abbildungssy
stem miteinander verwoben, wobei dafür Sorge getragen wird,
die Empfindlichkeitsveränderung beim Übergang zu kompensie
ren. Somit wird gemäß der vorliegenden Erfindung der Bündel
fokus sowohl in der vertikalen bzw. Erhebungs- als auch in
der Azimutrichtung als Funktion der Tiefe verändert.
Wenn die Abbildungstiefe vom Nahfeld zum Fernfeld hin zu
nimmt, werden weitere Zeilen von Wandlerelementen hinzugezo
gen. Um eine gleichmäßige Leistungsfähigkeit in der vertika
len bzw. Höhendimension über einen maximalen Bereich zu
erzielen, würde man es vorziehen, daß die effektive Brennwei
te bzw. Fokaldistanz des Array mit der Zunahme der aktiven
Apertur zunimmt. Bei dem in Fig. 6 gezeigten Array wird die
gesamte Höhenfokussierung durch die akustische Linse vorgese
hen. Um die Fokusposition mit der Aperturvergrößerung zu
erhöhen, wird eine Mehrfachfokuslinse benutzt.
Gemäß einer Variante der in Fig. 6 gezeigten bevorzugten
Ausführungsform besitzt jedes Wandlerelement in der zentralen
Zeile 102a eine vorbestimmte Fläche, jedes Paar von Wandler
elementen in den äußeren Zeilen 102d und 102e besitzt eine
erste kombinierte Fläche, die größer ist als die vorbestimmte
Fläche, und jedes Paar von Wandlerelementen in den Zwischen
zeilen 102b und 102c weist eine zweite kombinierte Fläche
auf, die größer ist als die vorbestimmte Fläche, jedoch
kleiner als die erste kombinierte Fläche.
Eine vertikale bzw. höhenmäßige Bündelsteuerung für das in
Fig. 6 gezeigte Array wird mit lediglich einer Linse und
einem Multiplexer erreicht. Alle Elemente innerhalb jeder
vertikalen Spalte des Arrays sind mit demselben Strahlfor
mungskanal verbunden und teilen sich dieselbe elektronische
Zeitverzögerung und Schattierung. Jedoch könnten ebenfalls
1,5D Arrays in der vorliegenden Erfindung benutzt werden, um
die vertikale Fokussierung zu erzielen. 1,5D Arrays benutzen
eine dynamische Fokussierung und Schattierung zur Steuerung
des Höhenbündels. Bei Vorliegen von Höhensymmetrie (keine
Steuerung) erfordert dies einen unabhängigen Strahlformungs
kanal für jeden Satz von paarweisen vertikalen (elevational)
Elementen.
Die oben beschriebenen Techniken werden angewandt, um einen
Stapel von Bildern (frames) von Pixeldaten zu erhalten, die
von einem Objektvolumen gewonnen werden. Wenn die Sonde
(probe) über einen Anatomiebereich, sei es durch freihändiges
Scannen oder mittels eines Systems für die Sondenbewegung,
geschwenkt wird, kann ein dreidimensionales Volumen erhalten
werden. Die Position von jedem Vollbild (frame image) mit
Bezug zum nächsten kann auf eine Anzahl von Wegen bestimmt
werden. Die Scan-Bewegung der Sonde kann in irgendeiner Weise
erfolgen, z. B. durch eine lineare Bewegung der Sonde, durch
Hin- und Herbewegen der Sonde über einen Winkel oder durch
eine Drehbewegung der Sonde über einen Winkel senkrecht zur
Sonden(stirn)fläche. Wenn die Sonde mit einer konstanten
Geschwindigkeit weiterbewegt wird, über eine bekannte Distanz
oder durch einen bekannten Winkelbereich, kann der Abstand
zwischen jedem der Bilder leicht bestimmt werden. Die Ab
standsbestimmung der Sondenbewegung läßt sich auf zahlreichen
Wegen bestimmten, z. B. durch einfache Abstandsmessung mit
einem geeigneten Meßgerät, unter Verwendung von Markierungen
auf oder innerhalb der Anatomie, oder durch Anbringen von
Positionsfühlern an der Sonde. Die Sonde kann ebenfalls längs
einem willkürlichen Weg geführt werden, und die von den auf
der Sonde montierten Positionsfühlern genommenen Daten können
zur Bestimmung der Lokalisierung jedes Bildes benutzt werden.
Diese Bilder können dann auf ein Cartesisches Volumen pla
ziert werden. Zusätzlich kann die Sonde in einem Gerät gehal
tert werden, das die Sonde entlang einem bekannten Weg führt.
Unter Bezugnahme auf die Fig. 7 und 8 wird nun das Verfah
ren zum Projizieren von Samplevolumendaten in dreidimensiona
le Bilder gemäß der Erfindung beschrieben. Wie aus Fig. 7 zu
ersehen, enthält die Hauptsteuerung 8 eine zentrale Verarbei
tungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem
Zugriff. Die CPU 42 weist einen darin angeordneten Nur-Lese-Spei
cher (ROM) zum Speichern der Routinen auf, die für die
Umsetzung des gewonnenen Volumens von Intensitäts- oder
Farbströmungs-Mode-Daten in eine Vielzahl von dreidimensiona
len unter verschiedenen Winkeln genommenen Projektionsbildern
benutzt werden. Die CPU 42 steuert den XY-Speicher 18 und den
Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere
steuert die CPU 42 den Pixeldatenfluß von dem XY-Speicher 18
zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem
Filmspeicher 24 zum Videoprozessor 22 und zur CPU 42 selbst.
Jedes (Voll-)Bild (frame) von Pixeldaten, das einen von
vielen Scans oder Schnitten durch das untersuchte Objekt
repräsentiert, wird in dem XY-Speicher 18 gespeichert und im
nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher
24 übertragen. Ein das abgetastete Objektvolumen repräsentie
render Stapel von Bildern wird im Abschnitt 24A des Filmspei
chers 24 gespeichert. Während der Initialisierung (vgl. den
Schritt 26 in Fig. 8) holt die CPU 42 vom Abschnitt 24A des
Filmspeichers nur die einem interessierenden Objektvolumen
entsprechenden Pixeldaten. Dies wird erreicht, indem man
lediglich die Pixeldaten in einem interessierenden Gebiet von
jedem gespeicherten Bild holt, das von irgendeinem Scan
gewonnen wurde, der das interessierende Volumen schneidet.
Mit anderen Worten, die dem interessierenden Gebiet entspre
chenden Pixeldaten von jedem einen Bild eines Stapels von
aufeinanderfolgenden Bildern bilden ein interessierendes
Quelldatenvolumen.
Wie aus Fig. 8 zu ersehen ist, werden die Intensitätsdaten in
dem dem interessierenden Objektvolumen entsprechenden Pixel
datensatz vor der Projektion als Option gefiltert (Schritt
28), um Fleckenrauschen (Speckle-Rauschen) zu glätten und
Artefakte zu reduzieren. Dies vermeidet während der Projekti
on den Verlust von Daten aufgrund von Maserungsrauschen.
Beispielsweise erzeugen Blutgefäße weniger Echo als das
umgebende Gewebe. Gefäße können deshalb unter Einsatz von
Projektionen mit minimaler Intensität abgebildet werden.
Alternativ werden im Umkehrvideo/Minimum-Mode die Intensi
tätsdaten invertiert, um die Gefäße hell anstatt dunkel zu
machen. Die Gefäße können dann unter Einsatz von Projektionen
mit maximaler Intensität abgebildet werden. Um die Auswahl
von maximalen Intensitäten, die helle Flecken im Gegensatz zu
den gewünschten Pixeldaten sind, zu verhindern, kann vor der
Projektion ein Filter zur Beseitigung solcher hellen Fleckin
tensitäten benutzt werden. Die aus dem Filmspeicher geholten
Pixeldaten können von der CPU 42 unter Verwendung eines 3 × 3
Faltungsfilters mit einem 111 141 111 Kernel gefiltert wer
den, d. h. das zentrale Pixel der Intensitätsdaten in jedem
3 × 3 Pixelarray wird in jedem Schnitt oder Bild ersetzt
durch einen Intensitätswert, der proportional ist zu der
Summe aus dem vierfachen Wert des zentralen Pixels plus der
Summe aus den Werten der acht dieses Pixel umgebenden Pixel.
Das gefilterte Quelldatenvolumen wird sodann im Speicher 44
abgespeichert (Schritt 30). In ähnlicher Weise kann ein
Faltungsfilter benutzt werden, um schwarze Löcher in einem
Bild vor der Projektion mit minimaler Intensität zu entfer
nen.
Als nächstes führt die CPU 42 unter Verwendung des im
US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus
(ray casting algorithm), dessen Inhalt hier durch Bezugnahme
ausdrücklich eingefügt wird, eine Reihe von Transformationen
durch. Die aufeinanderfolgenden Transformationen repräsentie
ren Projektionen mit maximaler, minimaler oder durchschnitt
licher Intensität, Geschwindigkeit oder Energie, die unter
winkelmäßigen Inkrementen, beispielsweise in Intervallen von
10°, innerhalb eines Winkelbereichs, z. B. von +90° bis -90°,
vorgenommen werden. Die Winkelinkremente müssen jedoch nicht
10° sein; auch ist die Erfindung nicht auf einen bestimmten
Winkelbereich begrenzt.
In Übereinstimmung mit der bei der vorliegenden Erfindung
angewandten Strahlwurftechnik werden die volumetrisch ange
legten Projektionsbilder einer Abtastung unter irgendeinem
willkürlichen Betrachtungswinkel zur Anzeige gebracht, und
zwar beim Scannen eines Objektvolumens mittels eines Ultra
schall-Wandlerarrays mit im wesentlichen gleichmäßiger verti
kaler bzw. Höhen-Bündelweite. Das Samplevolumen wird in einer
derartigen Weise abgetastet, daß man eine Folge von geschich
teten benachbarten Schnitten (slices) erzeugt, von denen
jeder dieselbe Anzahl von Objektvolumenelementen (voxels)
enthält. Jedes Voxel besitzt ein rechteckiges Profil in der
Scheibenebene (z. B. in der X-Y Ebene). Während die komplemen
tären Seiten von gleicher Länge sein können, so daß dieses
Profil quadratisch sein kann ist die Scheibendicke im allge
meinen größer als die Länge jeder Seite.
Jedes Objektvoxel wird analysiert und sein Datenwert
(Intensität, Geschwindigkeit oder Energie) wird in ein ent
sprechendes Datenvoxel eines Datenvolumens plaziert. Das
Datenvolumen ist ein einfaches kubisches Gitter, obwohl die
Dicke eines jeden Objektschnitts und jede (Stirn-)Flächen
größe eines Objektvoxels (die Größe des Voxels in der X-Y
Ebene) im allgemeinen nicht dieselbe sein werden.
Gemäß einer von der CPU 42 angewandten bekannten Technik wird
ein Bild des Objekts projiziert (Schritt 34 in Fig. 8) durch
Projektion eines Strahls (ray casting) von einem Gitterpunkt
in jedem Datenvoxel in Richtung auf eine Bildebene. Der
Einfachheit halber kann der Gitterpunkt beispielsweise die am
nächsten an dem Datenvolumenursprung liegende Datenvoxelspit
ze (vertex) sein. Obwohl alle Strahlen auf irgendeinen Teil
der Bildebene auftreffen, wird nur den in das betrachtete
Bildebenenpixel fallenden Strahlen erlaubt, zu den Daten für
dieses Bildebenenpixel beizutragen. Für eine maximale Pixel
projektion wird jeder projizierte Wert mit dem momentan
gespeicherten Wert verglichen, und der größere der beiden
Werte wird in dem Speicher für dieses Pixel 60a plaziert. Für
eine minimale Pixelprojektion wird der kleinere der beiden
Werte gespeichert. Da jedes Voxel in dem ausgewählten Daten
volumen sequentiell eingegeben und in Richtung auf die Bilde
bene projiziert wird, wird schließlich ein Datenvolumenvoxel
entlang seinem zugehörigen Strahl projiziert und trifft nicht
innerhalb des gewünschten Pixels auf, so daß sein Datenwert
(z. B. die Intensität) nicht mit dem gegenwärtig für das Pixel
gespeicherten Datenwert verglichen wird. Es wird nun für
diese Projektion von Daten bei dem bestimmten dreidimensiona
len Betrachtungswinkel der maximale Datenwert für dieses
Pixel festgelegt. Alle Datenwerte werden auf Null zurückge
setzt, wenn eine neue Projektion erfolgen soll. Somit wird
jedes der Pixel der Bildebene beim Start einer Bildprojekti
onsprozedur rückgesetzt, und alle Datenvolumenvoxel (in dem
gesamten Raum oder in dem ausgewählten Teil, wie durch den
Teil des ausgewählten Objektvolumens festgelegt) werden
einzeln und sequentiell abgetastet. Der Datenwert in jedem
Datenvoxel wird durch einen zugeordneten Strahl so proji
ziert, daß er in einem Pixel davon auf die Bildebene auf
trifft, wobei der Maximalwert in jedem Pixel mit dem gegen
wärtigen Wert des strahlprojizierten Datenvolumenvoxels
verglichen wird, um den größeren davon zu bestimmend welcher
größere Wert sodann als Teil des Maximalwertbildes gespei
chert wird.
Gemäß einem anderen Aspekt der obigen Technik wird die Daten
projektion (im Schritt 36 in Figur. 8) skaliert, und es wird
eine etwaige Anisotropie zwischen dem Objektvolumen und der
Bildebene durch lediglich einen einzigen Satz von Berechnun
gen beseitigt, nachdem die Rückprojektion abgeschlossen ist.
Da es sich bei dem Objektvolumen um ein reales Volumen han
delt, während es sich bei dem Datenvolumen um ein abstraktes
Konzept handelt, ist es nötig, den Betrag der Verzerrung der
Projektionsdaten aufgrund der Darstellung des kubischen
Datenvolumengitters unter einem unterschiedlichen Winkel in
einer ersten Ebene zu bestimmen gegenüber dem Winkel, unter
dem eine willkürliche Betrachtungsrichtung mit Bezug sowohl
auf das Objektvolumen als auch auf das Datenvolumen positio
niert wird. Die offenbaren Dimensionen von jedem Voxel werden
sich in dem Maße ändern, wie sich die effektiven Erhebungs
winkel ändern. Wenn das Aspektverhältnis A (definiert als das
Verhältnis der tatsächlichen Scheibendicke im Objektvolumen
zur tatsächlichen Pixelgröße in demselben Objektvolumen)
nicht eins beträgt (d. h. größer oder gleich eins ist), dann
werden die Erhebungswinkel verschieden sein, und der effekti
ve Erhebungswinkel in dem Datenvolumen wird gegenüber dem
tatsächlichen Erhebungswinkel in dem Objektvolumen unter
schiedlich sein. Die Daten werden dann in Übereinstimmung mit
einem Objekterhebungswinkel gedreht. Danach können die proji
zierten Daten so skaliert werden, daß sie (wenn die Drehung
um die horizontale Achse erfolgt) die korrekte Höhe in dem
Objektvolumen erhalten, und zwar durch eine Multiplikation
aller projizierten Datenhöhen mit einem Höhenskalierungsfak
tor. Die Elemente einer 3 × 3 Rotationsmatrix können bestimmt
werden (wie im US-Patent No. 5,226,113 beschrieben), und
diese Beziehungen werden benutzt, um die Transformationen vom
Datenvolumen zur Bildebene zu bestimmen. Nachdem die Daten
auf die Bildebene projiziert sind, wird das Bild zur Korrek
tur des Effekts der anisotropen Objektvoxel skaliert. Die
Faktoren in der Rotationsmatrix können zu Beginn einer Pro
jektion vorberechnet (Schritt 32 in Fig. 8) und für alle
Rotationsberechnungen benutzt werden.
Gemäß einem weiteren Aspekt der Erfindung werden die skalier
ten Bildebenendaten vor einer Anzeige (Display) kartiert
(mapped), um eine gewünschte Helligkeit sowie einen gewünsch
ten Kontrastbereich zu erreichen (Schritt 38 in Fig. 8).
Das in Fig. 8 gezeigte Verfahren kann angewendet werden auf
die B-Mode-Intensitätsdaten sowie auf die Farbströmungsge
schwindigkeits- oder Energiedaten für das interessierende von
dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in
dem projizierten Bild schließt die transformierten Intensi
tätsdaten und die transformierten Geschwindigkeits- oder
Energiedaten ein, welche von der Projektion auf eine vorgege
bene Bildebene abgeleitet wurden. Zusätzlich speichert wäh
rend der Zeit, in welcher der Filmspeicher vom Bediener
"eingefroren", war, die CPU 42 als Option das letzte Bild
(frame) aus dem XY Speicher 18 unter mehrfachen aufeinander
folgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die
projizierten Bilddaten für den ersten projizierten Betrach
tungswinkel werden in die erste Adresse im Filmspeicherab
schnitt 24D eingeschrieben, so daß die projizierten Bilddaten
in einem interessierenden Bereich dem Hintergrundbild
(background frame) überlagert werden. Dieser Prozeß wird für
jedes Winkelinkrement wiederholt, bis alle projizierten
Bilder im Filmspeicherabschnitt 24B gespeichert sind, wobei
jedes projizierte Bild (frame) aus einem interessierenden
Gebiet besteht, das transformierte Daten und als Option einen
Peripheriehintergrund enthält, der das interessierende Gebiet
umgibt und aus Hintergrundbilddaten besteht, die nicht von
transformierten Daten aus dem interessierenden Gebiet über
schrieben sind. Das Hintergrundbild macht es deutlicher, von
wo aus jede zur Darstellung gebrachte Projektion betrachtet
wird. Der Bediener kann dann ein jedes der projizierten
Bilder für die Darstellung auswählen. Zusätzlich kann die
Abfolge der projizierten Bilder erneut auf dem Displaymonitor
abgespielt werden, um das Objektvolumen so darzustellen, als
wenn es vor dem Betrachter rotieren würde.
Die vorhergehenden bevorzugten Ausführungen wurden zum Zwecke
der Veranschaulichung beschrieben. Abänderungen und Modifika
tionen des Grundkonzepts werden sich unschwer für Fachleute
auf den Gebieten der Ultraschall-Bildgebung oder der Compu
tergrafik ergeben. Alle derartigen Abänderungen und Modifika
tionen sollen durch die nachfolgend aufgeführten Ansprüche
mitumfaßt werden.
Claims (18)
1. Einrichtung zur dreidimensionalen Bildgebung von
Ultraschall streuenden Bestandteilen in einem Objektvolumen,
enthaltend:
ein Ultraschall-Wandlerarray zum Aussenden von Ultra schallbündeln und zum Erfassen von an dem Objektvolumen reflektierten Ultraschall-Echos;
eine erste Einrichtung zum Verändern der Azimutfokus sierung des Wandlerarrays, um Veränderungen in der Brennweite zu erreichen;
eine zweite Einrichtung zum Verändern der vertikalen bzw. Höhenfokussierung des Wandlerarrays als Funktion der Brennweite;
eine dritte Einrichtung zum Verändern einer Charakteri stik der für den Betrieb des Wandlerarrays benutzen Wellen form als Funktion der Brennweite;
eine Einrichtung zum Koordinieren der ersten, zweiten sowie dritten Veränderungseinrichtung, um ein Quellvolumen von Pixeldaten zu gewinnen, das von Sample- bzw. Probevolumen in dem Objektvolumen abgeleitet ist;
eine Speichereinrichtung zum Speichern des Quellvolu mens von Pixeldaten;
eine Einrichtung zum Wiedergeben eines Satzes von Pi xeldaten aus der Speichereinrichtung entsprechend einem interessierenden Volumen in dem Objektvolumen;
eine Einrichtung zum Projizieren des Pixeldatensatzes auf eine erste Bildebene, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
ein Ultraschall-Wandlerarray zum Aussenden von Ultra schallbündeln und zum Erfassen von an dem Objektvolumen reflektierten Ultraschall-Echos;
eine erste Einrichtung zum Verändern der Azimutfokus sierung des Wandlerarrays, um Veränderungen in der Brennweite zu erreichen;
eine zweite Einrichtung zum Verändern der vertikalen bzw. Höhenfokussierung des Wandlerarrays als Funktion der Brennweite;
eine dritte Einrichtung zum Verändern einer Charakteri stik der für den Betrieb des Wandlerarrays benutzen Wellen form als Funktion der Brennweite;
eine Einrichtung zum Koordinieren der ersten, zweiten sowie dritten Veränderungseinrichtung, um ein Quellvolumen von Pixeldaten zu gewinnen, das von Sample- bzw. Probevolumen in dem Objektvolumen abgeleitet ist;
eine Speichereinrichtung zum Speichern des Quellvolu mens von Pixeldaten;
eine Einrichtung zum Wiedergeben eines Satzes von Pi xeldaten aus der Speichereinrichtung entsprechend einem interessierenden Volumen in dem Objektvolumen;
eine Einrichtung zum Projizieren des Pixeldatensatzes auf eine erste Bildebene, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeich
net, daß die Pixeldaten B-Mode-Intensitätsdaten enthalten.
3. Einrichtung nach Anspruch 1, dadurch gekennzeich
net, daß die Pixeldaten Geschwindigkeitsdaten enthalten.
4. Einrichtung nach Anspruch 1, dadurch gekennzeich
net, daß die Pixeldaten Power-Dopplerdaten enthalten.
5. Einrichtung nach einem der vorhergehenden Ansprü
che, dadurch gekennzeichnet, daß die dritte Veränderungsein
richtung die Ausstoßlänge (burst length) der Sende-Wellenform
mit zunehmender Brennweite vergrößert.
6. Einrichtung nach einem der Ansprüche 1-4, da
durch gekennzeichnet, daß die dritte Veränderungseinrichtung
die Frequenz der Sende-Wellenform mit zunehmender Brennweite
verringert.
7. Einrichtung nach einem der vorhergehenden Ansprü
che, dadurch gekennzeichnet, daß das Wandlerarray mit einer
lateralen Apertur mit einer f-Zahl von kleiner 1,5 betrieben
wird.
8. Einrichtung nach einem der vorhergehenden Ansprü
che, dadurch gekennzeichnet, daß die zweite Veränderungsein
richtung das Wandlerarray derart steuert, daß es eine verti
kale bzw. Höhenapertur aufweist, die mit vergrößerter Brenn
weite vergrößert wird.
9. Einrichtung nach einem der vorhergehenden Ansprü
che, gekennzeichnet durch:
eine Einrichtung zum Projizieren des Pixeldatensatzes auf eine zweite Bildebene, die relativ zur ersten Bildebene gedreht ist, wobei ein ein zweites projiziertes Bild reprä sentierender projizierter Datensatz gebildet wird; und
eine Einrichtung zum bildlichen Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
eine Einrichtung zum Projizieren des Pixeldatensatzes auf eine zweite Bildebene, die relativ zur ersten Bildebene gedreht ist, wobei ein ein zweites projiziertes Bild reprä sentierender projizierter Datensatz gebildet wird; und
eine Einrichtung zum bildlichen Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
10. Verfahren zur dreidimensionalen Bildgebung von Ul
traschall streuenden Bestandteilen in einem Objektvolumen,
gekennzeichnet durch die Schritte:
Aussenden von Ultraschallbündeln in das Objektvolumen;
Erfassen der von dem Objektvolumen als Reaktion auf die Aussendung von Ultraschallbündeln reflektierten Ultra schall-Echos;
Steuern des Azimutfokus der gesendeten Ultraschallbün del, um Brennweitenveränderungen zu erhalten;
Steuern des vertikalen bzw. Höhenfokus der gesendeten Ultraschallbündel als Funktion der Brennweite;
Einstellen einer Charakteristik einer Sende-Wellenform als Funktion der Brennweite;
Koordinieren der Veränderung im Azimut- und Höhenfokus sowie der Anpassungen der Sende-Wellenformcharakteristik, um ein Quellvolumen von Pixeldaten zu gewinnen, welche von Samplevolumen in dem Objektvolumen abgeleitet sind;
Wiedergeben eines Satzes von Pixeldaten von dem Quell volumen, wobei dieser Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Projizieren des Pixeldatensatzes auf eine erste Bilde bene, wobei ein ein erstes projiziertes Bild repräsentieren der projizierter Datensatz gebildet wird; und
bildliches Darstellen des ersten projizierten Bildes.
Aussenden von Ultraschallbündeln in das Objektvolumen;
Erfassen der von dem Objektvolumen als Reaktion auf die Aussendung von Ultraschallbündeln reflektierten Ultra schall-Echos;
Steuern des Azimutfokus der gesendeten Ultraschallbün del, um Brennweitenveränderungen zu erhalten;
Steuern des vertikalen bzw. Höhenfokus der gesendeten Ultraschallbündel als Funktion der Brennweite;
Einstellen einer Charakteristik einer Sende-Wellenform als Funktion der Brennweite;
Koordinieren der Veränderung im Azimut- und Höhenfokus sowie der Anpassungen der Sende-Wellenformcharakteristik, um ein Quellvolumen von Pixeldaten zu gewinnen, welche von Samplevolumen in dem Objektvolumen abgeleitet sind;
Wiedergeben eines Satzes von Pixeldaten von dem Quell volumen, wobei dieser Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Projizieren des Pixeldatensatzes auf eine erste Bilde bene, wobei ein ein erstes projiziertes Bild repräsentieren der projizierter Datensatz gebildet wird; und
bildliches Darstellen des ersten projizierten Bildes.
11. Verfahren nach Anspruch 10, dadurch gekennzeich
net, daß die Pixeldaten B-Mode-Intensitätsdaten enthalten.
12. Verfahren nach Anspruch 10, dadurch gekennzeich
net, daß die Pixeldaten Geschwindigkeitsdaten enthalten.
13. Verfahren nach Anspruch 10, dadurch gekennzeich
net, daß die Pixeldaten Power-Doppler-Daten enthalten.
14. Verfahren nach einem der Ansprüche 10 bis 13, da
durch gekennzeichnet, daß die Ausstoßlänge (burst length) der
Sende-Wellenform mit einer Zunahme der Brennweite erhöht
wird.
15. Verfahren nach einem der Ansprüche 10 bis 14, da
durch gekennzeichnet, daß die Frequenz der Sende-Wellenform
mit einer Zunahme der Brennweite verringert wird.
16. Verfahren nach einem der Ansprüche 10 bis 15, da
durch gekennzeichnet, daß die Ultraschallbündel von einem
Wandlerarray gesendet und empfangen werden, das mit einer
lateralen Apertur mit einer f-Zahl von kleiner 1,5 betrieben
wird.
17. Verfahren nach einem der Ansprüche 10 bis 16, da
durch gekennzeichnet, daß die Ultraschallbündel von einem
Wandlerarray gesendet und empfangen werden, das mit einer
vertikalen bzw. Höhenapertur betrieben wird, die mit zuneh
mender Brennweite vergrößert wird.
18. Verfahren nach einem der Ansprüche 10 bis 17, ge
kennzeichnet durch die Schritte:
Projizieren des Pixeldatensatzes auf eine zweite Bild ebene, die relativ zur ersten Bildebene gedreht ist, wobei ein ein zweites projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und
bildliches Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
Projizieren des Pixeldatensatzes auf eine zweite Bild ebene, die relativ zur ersten Bildebene gedreht ist, wobei ein ein zweites projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und
bildliches Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US852699 | 1986-04-16 | ||
US08/852,699 US5865750A (en) | 1997-05-07 | 1997-05-07 | Method and apparatus for enhancing segmentation in three-dimensional ultrasound imaging |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19819832A1 true DE19819832A1 (de) | 1998-11-12 |
DE19819832B4 DE19819832B4 (de) | 2015-03-12 |
Family
ID=25314017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19819832.9A Expired - Fee Related DE19819832B4 (de) | 1997-05-07 | 1998-05-04 | Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung |
Country Status (4)
Country | Link |
---|---|
US (1) | US5865750A (de) |
JP (1) | JPH1128210A (de) |
DE (1) | DE19819832B4 (de) |
IL (1) | IL124165A (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1005833A1 (de) * | 1998-12-01 | 2000-06-07 | General Electric Company | Verfahren und Gerät zur automatischen Kompensierung von Zeit/Verstärkung und/oder Seitenintensität/Verstärkung bei der Ultraschallabbildung in B-Mode |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11164833A (ja) * | 1997-09-30 | 1999-06-22 | Toshiba Corp | 医用画像診断装置 |
JP4201483B2 (ja) * | 1997-12-31 | 2008-12-24 | ジー イー ウルトラサウンド イスラエル リミテッド | 断層撮影スライスの相対位置決定方法及び装置 |
JP4260920B2 (ja) * | 1998-05-13 | 2009-04-30 | 株式会社東芝 | 超音波診断装置 |
US6071241A (en) * | 1998-12-31 | 2000-06-06 | General Electric Company | Ultrasound color flow display optimization by adjustment of threshold using sampling |
EP1171780A1 (de) * | 1999-04-20 | 2002-01-16 | Synthes Ag Chur | Vorrichtung zur perkutanen bestimmung von koordinaten auf der oberfläche eines menschliches oder tierischen organs |
US6139501A (en) * | 1999-06-08 | 2000-10-31 | Atl Ultrasound, Inc. | Coincident tissue and motion ultrasonic diagnostic imaging |
US6685645B1 (en) | 2001-10-20 | 2004-02-03 | Zonare Medical Systems, Inc. | Broad-beam imaging |
US6503199B1 (en) * | 1999-11-03 | 2003-01-07 | Atl Ultrasound | Uniform volumetric scanning ultrasonic diagnostic imaging system |
US6484063B1 (en) | 1999-11-10 | 2002-11-19 | Visteon Global Technologies, Inc. | System and method of inspecting tooling for feasibility |
IL134017A (en) * | 2000-01-13 | 2008-04-13 | Capsule View Inc | Camera for photography inside the intestines |
US6515657B1 (en) | 2000-02-11 | 2003-02-04 | Claudio I. Zanelli | Ultrasonic imager |
US6517484B1 (en) * | 2000-02-28 | 2003-02-11 | Wilk Patent Development Corporation | Ultrasonic imaging system and associated method |
US6221022B1 (en) | 2000-04-03 | 2001-04-24 | G.E. Medical Systems Global Technology Company Llc | Multiple transmit scanning to increase ultrasonic frame rate |
US6744911B1 (en) | 2000-11-22 | 2004-06-01 | General Electric Company | Tomographic segmentation |
US7615008B2 (en) * | 2000-11-24 | 2009-11-10 | U-Systems, Inc. | Processing and displaying breast ultrasound information |
US7556602B2 (en) * | 2000-11-24 | 2009-07-07 | U-Systems, Inc. | Breast cancer screening with adjunctive ultrasound mammography |
US7597663B2 (en) | 2000-11-24 | 2009-10-06 | U-Systems, Inc. | Adjunctive ultrasound processing and display for breast cancer screening |
US7103205B2 (en) * | 2000-11-24 | 2006-09-05 | U-Systems, Inc. | Breast cancer screening with ultrasound image overlays |
US7940966B2 (en) | 2000-11-24 | 2011-05-10 | U-Systems, Inc. | Full-field breast image data processing and archiving |
US6547735B1 (en) | 2001-12-05 | 2003-04-15 | Koninklijke Philips Electronics N.V. | Partial rayline volumetric scanning ultrasonic diagnostic imaging system |
US6723050B2 (en) | 2001-12-19 | 2004-04-20 | Koninklijke Philips Electronics N.V. | Volume rendered three dimensional ultrasonic images with polar coordinates |
US6866632B1 (en) * | 2002-09-18 | 2005-03-15 | Zonare Medical Systems, Inc. | Adaptive receive aperture for ultrasound image reconstruction |
US7850613B2 (en) * | 2003-05-30 | 2010-12-14 | Orison Corporation | Apparatus and method for three dimensional ultrasound breast imaging |
US20050110793A1 (en) * | 2003-11-21 | 2005-05-26 | Steen Erik N. | Methods and systems for graphics processing in a medical imaging system |
JP4664209B2 (ja) * | 2003-12-19 | 2011-04-06 | 株式会社日立メディコ | 超音波診断装置およびその撮像を実行する超音波イメージングプログラム |
US7914454B2 (en) * | 2004-06-25 | 2011-03-29 | Wilk Ultrasound Of Canada, Inc. | Real-time 3D ultrasonic imaging apparatus and method |
US20060173350A1 (en) * | 2005-01-11 | 2006-08-03 | Scimed Life Systems, Inc. | Systems and methods for three dimensional imaging with an orientation adjustable array |
WO2007054544A1 (en) * | 2005-11-10 | 2007-05-18 | Bracco Research Sa | Detection of immobilized contrast agent in medical imaging applications based on flow dynamics analysis |
JP5028041B2 (ja) * | 2006-07-14 | 2012-09-19 | 親良 炭 | ビームフォーミング装置及び方法 |
JP4881112B2 (ja) * | 2006-09-19 | 2012-02-22 | 株式会社東芝 | 超音波診断装置及び画像データ生成方法 |
JP2008228873A (ja) * | 2007-03-19 | 2008-10-02 | Hitachi Medical Corp | 超音波探触子及び超音波診断装置 |
US8323201B2 (en) | 2007-08-06 | 2012-12-04 | Orison Corporation | System and method for three-dimensional ultrasound imaging |
CN102551811B (zh) * | 2010-12-30 | 2015-11-25 | 深圳迈瑞生物医疗电子股份有限公司 | 一种彩色血流增益调整的方法及装置 |
JP6253350B2 (ja) * | 2013-10-31 | 2017-12-27 | フクダ電子株式会社 | 超音波診断装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5226113A (en) * | 1989-10-30 | 1993-07-06 | General Electric Company | Method and apparatus for volumetric projection rendering using reverse ray casting |
JP3090718B2 (ja) * | 1990-07-11 | 2000-09-25 | 株式会社東芝 | 超音波診断装置 |
JP3187148B2 (ja) * | 1991-08-26 | 2001-07-11 | 株式会社東芝 | 超音波診断装置 |
US5322067A (en) * | 1993-02-03 | 1994-06-21 | Hewlett-Packard Company | Method and apparatus for determining the volume of a body cavity in real time |
US5365929A (en) * | 1993-10-04 | 1994-11-22 | Advanced Technology Laboratories, Inc. | Multiple sample volume spectral Doppler |
US5409007A (en) * | 1993-11-26 | 1995-04-25 | General Electric Company | Filter to reduce speckle artifact in ultrasound imaging |
US5474073A (en) * | 1994-11-22 | 1995-12-12 | Advanced Technology Laboratories, Inc. | Ultrasonic diagnostic scanning for three dimensional display |
US5485842A (en) * | 1994-11-30 | 1996-01-23 | Advanced Technology Laboratories, Inc. | Ultrasonic diagnostic scan conversion for three dimensional display processing |
US5655535A (en) * | 1996-03-29 | 1997-08-12 | Siemens Medical Systems, Inc. | 3-Dimensional compound ultrasound field of view |
WO1997000482A1 (en) * | 1995-06-15 | 1997-01-03 | The Regents Of The University Of Michigan | Method and apparatus for composition and display of three-dimensional image from two-dimensional ultrasound |
US5582173A (en) * | 1995-09-18 | 1996-12-10 | Siemens Medical Systems, Inc. | System and method for 3-D medical imaging using 2-D scan data |
US5588435A (en) * | 1995-11-22 | 1996-12-31 | Siemens Medical Systems, Inc. | System and method for automatic measurement of body structures |
-
1997
- 1997-05-07 US US08/852,699 patent/US5865750A/en not_active Expired - Lifetime
-
1998
- 1998-04-22 IL IL12416598A patent/IL124165A/xx not_active IP Right Cessation
- 1998-05-04 DE DE19819832.9A patent/DE19819832B4/de not_active Expired - Fee Related
- 1998-05-06 JP JP10123445A patent/JPH1128210A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1005833A1 (de) * | 1998-12-01 | 2000-06-07 | General Electric Company | Verfahren und Gerät zur automatischen Kompensierung von Zeit/Verstärkung und/oder Seitenintensität/Verstärkung bei der Ultraschallabbildung in B-Mode |
US6102859A (en) * | 1998-12-01 | 2000-08-15 | General Electric Company | Method and apparatus for automatic time and/or lateral gain compensation in B-mode ultrasound imaging |
Also Published As
Publication number | Publication date |
---|---|
US5865750A (en) | 1999-02-02 |
DE19819832B4 (de) | 2015-03-12 |
JPH1128210A (ja) | 1999-02-02 |
IL124165A (en) | 2000-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19819832B4 (de) | Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung | |
DE19819801B4 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite | |
DE3686401T2 (de) | Darstellung von stromlinien in inhomogenen medien. | |
DE60316584T2 (de) | Ultraschallabbildungssystem und verfahren für eine benutzergeführte dreidimensionale volumenscansequenz | |
DE60309486T2 (de) | Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL | |
DE19819893B4 (de) | Verfahren und Einrichtung zum Verbessern der Auflösung und Empfindlichkeit bei der Farbströmungs-Ultraschall-Bildgebung | |
DE60025438T2 (de) | Verfahren und Gerät zum Einstellen eines interessanten Gebiets in einer Abbildung | |
DE19819892B4 (de) | Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung | |
DE69923430T2 (de) | Diagnostisches Ultraschall-Bilderzeugungssystem mit variabler räumlicher Bildzusammensetzung | |
DE19819831A1 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten | |
DE60222476T2 (de) | Ultraschallwandler | |
DE19819800A1 (de) | Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern | |
DE19819794A1 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten | |
DE69933851T2 (de) | Verfahren zur Reduzierung der Bildschärfeverzerrung in räumlich vermehrten Diagnostikbildern | |
DE69533183T2 (de) | Vorrichtung zur darstellung des gefäss-inneren mittels ultraschall | |
DE69727994T2 (de) | Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung | |
DE69937422T2 (de) | Ultraschallabbildung mittels kodierter Anregung beim Senden und selektiver Filterung beim Empfang | |
DE19960078A1 (de) | Ultraschall-Bildgebung mit optimaler Bildqualität im interessierenden Bereich | |
DE69930709T2 (de) | Verfahren und Gerät zur Optimierung der Sendsignal-Wellenformung in Ultraschall-B-Mode-Bilderzeugung | |
DE10322157A1 (de) | Anzeigevorrichtung für Subtraktionsabbildungsverfahren | |
DE202004021722U1 (de) | Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts | |
DE19842191A1 (de) | Verfahren und Einrichtung zur Kohärenzfilterung von Ultraschallbildern | |
DE10238747A1 (de) | Verfahren und Gerät zur verbesserten Orts- und Zeitauflösung bei der Ultraschallabbildung | |
DE19756730A1 (de) | Verfahren, Einrichtung und Anwendungen zur Verknüpfung von Sende-Wellenfunktionen zur Gewinnung einer synthetichen Wellenform in einem Ultraschall-Bildgebungssystem | |
DE102004053161A1 (de) | Betrachtungsrichtungsabhängige Erfassung oder Verarbeitung für eine 3D Ultraschallbildgebung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |