DE19819832A1 - Verfahren und Einrichtung zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung - Google Patents

Verfahren und Einrichtung zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung

Info

Publication number
DE19819832A1
DE19819832A1 DE19819832A DE19819832A DE19819832A1 DE 19819832 A1 DE19819832 A1 DE 19819832A1 DE 19819832 A DE19819832 A DE 19819832A DE 19819832 A DE19819832 A DE 19819832A DE 19819832 A1 DE19819832 A1 DE 19819832A1
Authority
DE
Germany
Prior art keywords
pixel data
data
volume
ultrasound
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19819832A
Other languages
English (en)
Other versions
DE19819832B4 (de
Inventor
William Thomas Hatfield
Todd Michael Tillman
Michael John Harsh
David John Muzilla
Anne Lindsey Hall
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19819832A1 publication Critical patent/DE19819832A1/de
Application granted granted Critical
Publication of DE19819832B4 publication Critical patent/DE19819832B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • A61B8/065Measuring blood flow to determine blood output from the heart
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hematology (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Cardiology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

Diese Erfindung bezieht sich allgemein auf Ultraschall-Bild­ gebung der menschlichen Anatomie zum Zweck der medizinischen Untersuchung. Insbesondere bezieht sich die Erfindung auf eine Einrichtung zur dreidimensionalen Abbildung des mensch­ lichen Körpers sowie des darin fließenden Blutes durch Erfas­ sen der vom Gewebe oder Blut reflektierten Ultraschall-Echos.
Zu den am weitesten üblichen Arten der diagnostischen Ultra­ schall-Bildgebung zählen die (zur Abbildung interner physika­ lischer Strukturen benutzten) B- und M-Moden, das Doppler- sowie das Farbströmungs(CF von color flow)verfahren (wobei das letztere hauptsächlich zur Abbildung von Strömungscharak­ teristiken, wie zum Beispiel in Blutgefäßen, eingesetzt wird). Bei der konventionellen B-Mode-Bildgebung erzeugen Ultraschall-Abtaster bzw. -Scanner Bilder, in denen die Helligkeit bzw. Leuchtdichte eines Pixels auf der Intensität der Echorückkehr basiert. Der Farbströmungs-Mode wird typi­ scherweise benutzt, um die Geschwindigkeit einer Fluidströ­ mung zum/vom Wandler zu erfassen, und er verwendet im wesent­ lichen dieselbe Technik, wie sie beim Dopplerverfahren einge­ setzt wird. Während das Dopplerverfahren die Geschwindigkeit in Abhängigkeit von der Zeit für ein einzelnes selektiertes Sample- bzw. Probevolumen anzeigt, bringt der Farbströ­ mungs-Mode gleichzeitig Hunderte von benachbarten Samplevolumen zur Darstellung, die alle einem B-Mode-Bild überlagert und zur Darstellung der Geschwindigkeit jedes Samplevolumens farbko­ diert sind.
Die Messung der Blutströmung im Herzen und in den Gefäßen unter Anwendung des Dopplereffekts ist bekannt. Während die Amplitude der reflektierten Wellen zur Erzeugung von Schwarz­ weißbildern des Gewebes benutzt wird, kann die Frequenzver­ schiebung von rückgestreuten Wellen zur Messung der Geschwin­ digkeit der rückstreuenden Bestandteile des Gewebes oder Blutes benutzt werden. Die rückgestreute Frequenz nimmt zu, wenn Blut in Richtung auf den Wandler hin strömt, und nimmt ab, wenn Blut von dem Wandler weg strömt. Farbströmungsbilder werden erzeugt, indem man eine Farbdarstellung der Geschwin­ digkeit von sich bewegendem Material, z. B. von Blut, dem Schwarzweißbild der Anatomie überlagert. Die gemessene Ge­ schwindigkeit der Strömung bei jedem Pixel bestimmt seine Farbe.
Die vorliegende Erfindung ist in einem Ultraschall-Bild­ gebungssystem eingebaut, das aus vier hauptsächlichen Untersystemen besteht: einem Bündelformer 2 (vgl. Fig. 1), einem Prozessor-Subsystem 4, einer Abtastkonverter/Display­ steuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung ist zentral in der Hauptsteuerung 8 vorgesehen, welche die Bedienereingaben über eine (nicht gezeigte) Bedienerschnitt­ stelle empfängt und ihrerseits die verschiedenen Untersysteme steuert. Die Hauptsteuerung erzeugt ebenfalls für das System die Zeit- und Steuersignale, die über einen Systemsteuerbus 10 sowie einen (nicht gezeigten) Abtaststeuerbus verteilt werden.
Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän­ gen von dem Wandler an den Strahl- bzw. Bündelformer. Unter Bezugnahme auf Fig. 2 enthält ein konventionelles Ultra­ schall-Bildgebungssystem ein Wandlerarray 50, daß mehrere separat betriebene Wandlerelemente 52 aufweist, von denen jedes einen Ausstoß (burst) von Ultraschallenergie erzeugt, wenn es über einen von einem (nicht gezeigten) Sender erzeug­ ten Impulsverlauf mit Energie beaufschlagt wird. Die von dem untersuchten Objekt zum Wandlerarray 50 zurückreflektierte Ultraschallenergie wird von jedem empfangenden Wandlerelement 52 in ein elektrisches Signal umgesetzt und separat an den Bündelformer 2 angelegt.
Die bei jedem Ausstoß von Ultraschall-Energie erzeugten Echosignale reflektieren an den Objekten, die sich in aufein­ anderfolgenden Entfernungen entlang dem Ultraschallstrahl befinden. Die Echosignale werden von jedem Wandlerelement 52 separat abgefühlt, und die Größe des Echosignals zu einem bestimmten Zeitpunkt repräsentiert den Betrag der bei einem spezifischen Abstand auftretenden Reflexion. Aufgrund der Unterschiede in den Ausbreitungswegen zwischen einem Ultra­ schall streuenden Samplevolumen und jedem Wandlerelement 52 werden diese Echosignale jedoch nicht gleichzeitig erfaßt und ihre Amplituden werden nicht gleich sein. Der Bündelformer 2 verstärkt die separaten Echosignale, teilt jedem die richtige Zeitverzögerung zu und summiert sie auf zur Bildung eines einzigen Echosignals, das ein genaues Maß der ingesamten Ultraschallenergie ist, die von dem Samplevolumen reflektiert wird. Jeder Strahlformungskanal 54 empfängt das analoge Echosignal von einem entsprechenden Wandlerelement 52.
Um gleichzeitig die elektrischen Signale zu summieren, die von den auf jedes Wandlerelement 52 auftreffenden Echos erzeugt werden, werden in jedem separaten Strahlformungskanal 54 mittels einer Strahlformersteuerung 56 Zeitverzögerungen eingebracht. Die Bündel-Zeitverzögerungen für den Empfang sind dieselben Verzögerungen wie die Sendeverzögerungen. Die Zeitverzögerung von jedem Strahlformungskanal ändert sich jedoch kontinuierlich während des Empfangs des Echos um eine dynamische Fokussierung des aus dem Abstand, von wo das Echosignal ausgeht, empfangenen Bündels vorzusehen. Die Strahlformungskanäle weisen weiterhin (nicht gezeigte) Schal­ tungen für das Aufbereiten bzw. Apodisieren und Filtern der empfangenen Impulse auf.
Die in den Summierer 44 eintretenden Signale werden verzö­ gert, so daß sie mit den verzögerten Signalen von jedem der anderen Strahlformungskanäle 54 summiert werden. Die summier­ ten Signale geben die Größe und Phase des von einem entlang dem gesteuerten Bündel angeordneten Samplevolumen reflektier­ ten Echosignals an. Ein Signalprozessor oder Detektor 4 konvertiert das empfangene Signal zu Displaydaten.
Der Bündelformer gibt zwei aufsummierte digitale Empfangsbün­ del im Basisband aus. Die Basisbanddaten werden als Eingang an den B-Mode-Prozessor 4A und an den Farbströmungsprozessor 4B gegeben, wo sie entsprechend dem Datenerfassungsmodus prozessiert und als prozessierte akustische Vektor-(Bün­ del-)Daten an den Abtastkonverter/Displayprozessor 6 ausgegeben werden. Der Abtastkonverter/Displayprozessor 6 nimmt die prozessierten akustischen Daten auf und gibt die Video-Display­ signale für die Abbildung in einem Rasterscanformat an einen Farbmonitor 12 aus.
Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von dem Bündelformer in eine logarithmisch komprimierte Version der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria­ ble Amplitude der Einhüllenden des Signals als eine Grauskala unter Verwendung eines 8-Bit-Ausgangs für jedes Pixel ab. Die Einhüllende eines Basisbandsignals ist die Größe des Vektors, der die Basisbanddaten repräsentiert.
Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam­ mern usw. reflektierten Schallwellen wird proportional zu der Geschwindigkeit der Blutzellen verschoben, und zwar in posi­ tiver Richtung für sich auf den Wandler zu bewegenden Zellen und in negativer Richtung für die sich davon wegbewegenden Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindig­ keit in der Abbildungsebene vorzusehen. Die Blutgeschwindig­ keit wird errechnet durch Messung der Phasenverschiebung zwischen zwei Aktivierungen (firings) bei einem spezifischen Entfernungstor (range gate). Statt einer Messung des Doppler­ spektrums bei einem Entfernungstor in der Abbildung wird die mittlere Blutgeschwindigkeit von mehreren Vektorpositionen und mehreren Entfernungstorer entlang jedem Vektor berechnet, und aus dieser Information wird eine zweidimensionale Abbil­ dung erstellt. In speziellerer Hinsicht erzeugt der Farbströ­ mungsprozessor Geschwindigkeitssignale (8 Bits), Varianz-(Tur­ bulenz-)Signale (4 Bits), sowie Energie- bzw. Powersi­ gnale (8 Bits). Der Bediener wählt aus, ob die Geschwindig­ keit und Varianz oder die Energie an den Abtastkonverter ausgegeben werden. Letztlich wird das Ausgangssignal als Eingang für eine in den Videoprozessor 22 enthaltene Nach­ schlagetabelle für die Chrominanz- bzw. Buntsteuerung gege­ ben.
Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver­ ter/Displaysteuerung 6 neben jeweils die von den Prozessoren 4A und 4B prozessierten digitalen Daten auf und führen die Koordinaten-Transformation der Farbströmungs-B-Mode-Daten vom Polarkoordinaten-(R-θ)Sektorformat oder vom Cartesi­ schen linearen Koordinatenfeld zu geeignet skalierten Dis­ play-Pixeldaten in Cartesichen Koordinaten durch, die im X-Y Displayspeicher 18 gespeichert werden. Im B-Mode werden die Intensitätsdaten im X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei Intensitätspixel zu 8 Bit speichert. Im Farbströmungsmodus werden die Daten im Speicher wie folgt gespeichert: Intensitätsdaten (8 Bit), Geschwindigkeits- oder Energiedaten (8 Bit) und Turbulenzdaten (4 Bit).
Der Abtastkonverter 6 konvertiert die akustischen Bilddaten von Polarkoordinaten-(R-θ)Sektorformat oder vom Cartesi­ schen linearen Koordinatenfeld zu geeignet skalierten Dis­ play-Pixeldaten in Cartesischen Koordinaten bei der Videofre­ quenz. Diese Abtast-konvertierten akustischen Daten werden sodann zur Darstellung auf dem Displaymonitor 12 ausgegeben. Im B-Mode bildet der Monitor die zeitvariable Amplitude der Einhüllenden des Signals als eine Grauskala ab, d. h. die Helligkeit eines Pixels basiert auf der Intensität der Echorückkehr. Im Farbströmungsmodus, wenn eine Bewegung vorliegt, zum Beispiel in einer Arterie fließendes Blut, wird eine Doppler-Verschiebung in dem rückkehrenden Signal propor­ tional zur Geschwindigkeit der Bewegungen erzeugt. Die Anzei­ ge bildet die Blutströmung ab, d. h. die Doppler-Verschiebung verwendet verschiedene Farben, z. B. Rot für eine Strömung zum Wandler hin und Blau für eine Strömung vom Wandler weg. Bei der Power-Doppler-Bildgebung wird die in dem zurückkehrenden Dopplersignal enthaltene Energie zur Darstellung gebracht.
Aufeinanderfolgende (Voll-)Bilder (Frames) von Farbströ­ mungs- oder B-Mode-Daten werden im Filmspeicher auf einer First-In/First-Out(FIFO)-Basis gespeichert. Die Speicherung kann kontinuierlich erfolgen oder als Ergebnis eines externen Triggervorgangs. Der Filmspeicher ist ein im Hintergrund laufender ringförmiger Bildpufferspeicher, der die Bilddaten erfaßt, die in Echtzeit für den Benutzer zur Darstellung gebracht werden. Wenn der Benutzer das System "einfriert" hat er die Möglichkeit, zuvor im Filmspeicher eingefangene Bild­ daten anzuschauen. Die Grafikdaten für die Herstellung von grafischen Auflagen (overlays) auf dem dargestellten Bild werden erzeugt und gespeichert in dem Zeilinien/Grafik­ prozessor und Displayspeicher 20. Der Videoprozessor 22 schaltet im Multiplexbetrieb zwischen den Grafikdaten, den Bilddaten und den Zeitliniendaten hin und her, um den endgül­ tigen Videoausgang in einem Rasterscanformat auf dem Video­ monitor 12 zu erzeugen. Zusätzlich sorgt er für verschiedene Grauskala- und Farbkartierungen (maps) sowie für die Verknüp­ fung der Grauskala- und Farbbilder.
Konventionelle Ultraschall-Scanner erzeugen zweidimensionale Bilder eines "Schnitts" (slice) durch einen Anatomiebereich. Zweidimensionale Ultraschallbilder sind oft schwer zu inter­ pretieren aufgrund des Unvermögens des Beobachters, sich die Darstellung der gerade abgetasteten Anatomie zu veranschauli­ chen. Wird jedoch die Ultraschallsonde über einen interessie­ renden Bereich geführt und werden dabei zweidimensionale Abbildungen zur Formung eines dreidimensionalen Volumens akkumuliert, dann ist die Anatomie leichter vorstellbar. Die Daten können auf eine Anzahl von Wegen manipuliert werden, einschließlich einer Volumen- oder Oberflächenerstellung. Zusätzlich können die Daten erneut abgetastet und in anderen Ebenen dargestellt werden als denjenigen, in denen die Daten ursprünglich gesammelt worden sind. Dies erlaubt dem Benut­ zer, Ansichten der Anatomie zu erhalten, die angesichts der gegebenen Anatomie und des Unvermögens, die Sonde exakt zu positionieren, nicht möglich sein können.
Die obigen Techniken sind zur Darstellung von Ultraschallda­ ten mit unterschiedlichen Graden von Erfolg benutzt worden. Ein Problem besteht darin, daß ein Mangel an (sowohl räumli­ cher als auch kontrastmäßiger) Auflösung verbunden mit Flec­ ken (Speckle) und Rauschen in den zweidimensionalen Bildern es schwierig macht, das projizierte Bild richtig zu segmen­ tieren. Der Mangel an Auflösung bei zweidimensionalen Bildern rührt von einer Anzahl von Faktoren her, einschließlich dem Unvermögen, eine gleichmäßige Fokussierung des Bündels über einen großen Bereich aufrechtzuerhalten, einem Mangel an Bandbreite und Dynamikbereich sowie einer hohen f-Zahl (Blendwert) des Systems. Ein weiteres Problem war der be­ grenzte Bereich für die Höhenfokussierung des von einem Wandlerarray mit einer einzelnen Zeile und einem festen Einzelfokus erzeugten Bündels. Die bei der Rekonstruktion eines dreidimensionalen Bildes verwendeten Quelldatenschnitte variieren aufgrund der ungleichmäßigen vertikalen bzw. Höhen­ bündelweite in ihrer Dicke. Daher verschlechtern sich die rekonstruierten Bilder sukzessive in dem Maße, wie die Pro­ jektionen oder wieder abgetasteten Bilder sich einem Winkel senkrecht zu der Erfassungsebene annähern. Es besteht somit ein Bedarf dafür, die f-Zahl abzusenken und die Bandbreite des Systems zu erhöhen, um sowohl die räumliche als auch die kontrastmäßige Auflösung der zweidimensionalen Bilder zu verbessern, und es besteht ein weiterer Bedarf nach einer Steuerung des Erhebungs- bzw. Höhenfokus des Ultraschallbün­ dels über einen größeren Bereich, um einen viel dünneren Schnitt mit gleichmäßigerer Dicke zu erhalten, der eine verbesserte Segmentierung bei der dreidimensionalen Bildge­ bung ermöglicht.
Die vorliegende Erfindung stellt ein Verfahren sowie eine Einrichtung zur dreidimensionalen Bildgebung mittels Projek­ tion von Ultraschalldaten dar, die durch Abtasten bzw. Scan­ nen eines interessierenden Volumens gewonnen wurden. Das Objektvolumen wird unter Verwendung einer Vielzahl von Schnitten mit im wesentlichen gleichmäßiger Dicke abgetastet. Der Ultraschall-Scanner sammelt B-Mode- oder Farbströ­ mungs-Mode-Bilder in einem Filmspeicher auf einer kontinuierlichen Basis oder als Reaktion auf einen externen Triggervorgang, d. h. für eine Vielzahl von Schnitten. Die von einem jeweili­ gen interessierenden Gebiet für jeden Schnitt erhaltenen Samplevolumendaten werden an eine Hauptsteuerung gesandt, wobei diese Daten ein interessierendes Volumen bilden. Die Hauptsteuerung führt einen Algorithmus aus, der die Samplevo­ lumendaten in dem interessierenden Volumen unter Einsatz einer Strahlwurftechnik auf mehrere gedrehte Bildebenen projiziert. Die Samplevolumendaten für jede Projektion werden gespeichert, und zwar optional mit dem Teil des letzten außerhalb des interessierenden Gebiets liegenden Hintergrund­ bild, in einem separaten Bild (frame), in dem Filmspeicher. Diese rekonstruierten Bilder werden sodann selektiv von dem Systembediener zur Anzeige gebracht.
Gemäß der vorliegenden Erfindung wird die Segmentierung der dreidimensionalen Projektionsbilder verbessert durch Verrin­ gern der Dicke und Erhöhen der Auflösung (d. h. Verringern der Punktausbreitungsfunktion) der zweidimensionalen Schnitte, von denen die Projektionen abgeleitet werden. Die Schnittdic­ ke wird verringert durch Erhöhen des Höhenfokus des Bündels.
Die zweidimensionale Auflösung wird erhöht durch Öffnen der Apertur, d. h. durch Verringern der f-Zahl, sowie durch Erhö­ hen der Bandbreite. Das Ergebnis ist eine außerordentlich kleine Voxelgröße.
Das Verfahren nach der Erfindung verwendet eine Anzahl von Techniken einschließlich der Benutzung von mehrfachen Sende-Brenn­ weiten sowie von Sende- und Empfangsaperturen mit klei­ nen f-Zahlen, d. h. 0,5 bis 2,0 für den B-Mode und 1,0 bis 3,0 für den Farbströmungs-Mode. Die Benutzung von Mehrfachbrenn­ weiten mit niedrigen f-Zahlen erlaubt eine enge Fokussierung über einen größeren Schärfentiefenbereich. Darüber hinaus können besondere Wellenformen und besondere Verstärkungskur­ ven für unterschiedliche Brennweiten (Fokalzonen) benutzt werden. Insbesondere kann die Mittenfrequenz der Wellenform mit zunehmender Tiefe verringert werden, um eine geringere Dämpfung und größere Durchdringung zu erreichen, während die Ausstoßwellenlänge (waveform burst length) mit zunehmender Tiefe erhöht werden kann, um die Empfindlichkeit bei größeren Tiefen zu verbessern.
Bei der B-Mode-Bildgebung werden für jedes akustische Bild (Frame) mehrfache Fokalzonen aktiviert (fired) und die außer­ halb des Fokus liegenden Daten werden bei der Bündelformung ausgesondert. Bei der Farbströmungs-Mode-Bildgebung wird jede Fokalzone auf ein separates akustisches Bild aktiviert und ein adaptiver Bildmittelungsalgorithmus wird für das Zusam­ menmischen der innerhalb des Fokus liegenden Daten von jedem dieser akustischen Bilder benutzt.
Eine gleichmäßige vertikale Bündelweite wird erzielt durch Verwendung eines Wandlerarrays mit mehreren Zeilen, das eine zentrale Zeile bzw. Reihe von Wandlerelementen aufweist, die zwischen ersten und zweiten äußeren Zeilen von paarweisen Wandlerelementen angeordnet ist. Vorzugsweise ist die zentra­ le Reihe mit Elementen ausgeführt, die eine kleinere Fläche besitzen als die kombinierte Fläche der paarweisen Elemente der äußeren Zeilen. Diese Geometrie bietet eine exzellente Höhenleistungsfähigkeit (dünnerer und gleichmäßigerer Bild­ schnitt, größere Kontrastauflösung), insbesondere im ausge­ sprochenen Nahfeld. Vorzugsweise weist das Array fünf Zeilen sowie eine mehrfokale Linse auf, wobei die kombinierte Fläche jedes Elementpaares in den äußersten Zeilen größer ist als die Fläche jedes Elements in der zentralen Zeile und größer ist als die kombinierte Fläche von jedem Elementpaar in den Zwischenzeilen.
Gemäß der bevorzugten Ausführung der Erfindung werden der vertikale bzw. Höhenfokus, die Mittenfrequenz der Wellenform sowie die Wellenausstoßlänge jeweils als Funktion der Tiefe geändert. Man kann deshalb eine Anzahl von Fokalzonen pro­ grammieren und eine bessere Punktausbreitungsfunktion über das gesamte Bild erzielen. Zusätzlich ist es durch Einstel­ lung der bündelformenden Parameter möglich, die Anzahl von aktiven Elementen zu erhöhen und dadurch die Apertur der Sonde (probe) zu öffnen, d. h. die Blenden- bzw. f-Zahl zu verkleinern. Dies hat den Effekt der Verkleinerung der Sei­ tenkeulen, was ein besseres Spitze-zu-Spitze Grundrauschver­ hältnis erzeugt, was seinerseits die Kontrastauflösung ver­ bessert. Ein breiterer Dynamikbereich läßt sich erzielen durch Erhöhen der Datenbitweite in dem Ultraschallsystem und durch Verringern des insgesamten Grundrauschens des Systems.
Das Ultraschall-Bildgebungssystem gemäß einer bevorzugten Ausführung der Erfindung weist einen digitalen Bündelformer auf, der es den bündelformenden Parametern des Systems er­ laubt, den Bündelfokus sowohl hinsichtlich des Azimut als auch der Höhe (Elevation) mit der Tiefe zu ändern. Eine zweite bevorzugte Ausführung weist einen digitalen Bündelfor­ mer auf, der es den strahlformenden Systemparametern gestat­ tet, den Azimutfokus des Bündels sowie eine Linse mit festem Fokus zu ändern, um den Höhenfokus mit der Tiefe zu ändern.
Somit kann eine schmalere und gleichmäßigere Bündelweite über einen viel größeren Bereich aufrechterhalten werden. Zusätz­ lich erlaubt es der digitale Bündelformer, daß die Apertur der Sonde so gesteuert wird, daß sie eine weitere Apertur und daher eine geringere f-Zahl erzeugt.
Die Erfindung wird im folgenden anhand von Ausführungsbei­ spielen unter Zuhilfenahme der Zeichnungen näher erläutert. Es zeigen:
Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio­ nalen Untersysteme in einem Echtzeit-Ultraschall-Bildgebungs­ system zeigt;
Fig. 2 ein Blockschaltbild eines typischen 128-Kanal Bündel­ formers in einem konventionellen Ultraschall-Bildgebungs­ system;
Fig. 3 eine schematische Darstellung des akustischen bzw. Schallbündelprofils, das sich ergibt, wenn das Ultraschall-Wand­ lerarray eine Apertur mit einer relativ hohen f-Zahl besitzt;
Fig. 4 eine schematische Darstellung des akustischen Bündel­ profils, das sich ergibt, wenn das Ultraschall-Wandlerarray eine Apertur mit einer relativ niedrigen f-Zahl aufweist;
Fig. 5 eine schematische Darstellung des akustischen Bündel­ profils, das sich ergibt, wenn gemäß der vorliegenden Erfin­ dung mehrfache Sende-Fokalzonen benutzt werden;
Fig. 6 eine vertikale Querschnittsansicht eines mehrzeiligen Wandlerarrays, das in dem dreidimensionalen Ultraschall-Bild­ gebungssystem der vorliegenden Erfindung verwendet werden kann, um den Höhenfokus mit zunehmender Tiefe zu verändern;
Fig. 7 ein Blockschaltbild der Einrichtung zur Bildrekon­ struktion mit aufeinanderfolgenden volumetrischen Projektio­ nen von Pixeldaten gemäß einer bevorzugten Ausführung der vorliegenden Erfindung; und
Fig. 8 ein Flußdiagramm der Schritte eines Algorithmus zur Bildrekonstruktion mit aufeinanderfolgenden volumetrischen Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung.
Gemäß einem Aspekt der vorliegenden Erfindung werden kleine Sende- und Empfangs-f-Zahlen (d. h. weite Aperturen) für eine verbesserte räumliche Auflösung benutzt. Die Auswirkung der Verwendung von Aperturen mit kleiner f-Zahl auf das Schall­ bündelprofil ist in den Fig. 3 und 4 dargestellt. Fig. 3 zeigt das Ergebnis der Benutzung einer höheren f-Zahl (kleinere Apertur). Die laterale Fokussierung ist am Brenn­ punkt nicht sehr scharf, obwohl die Schärfentiefe in der Entfernungsdimension einigermaßen groß ist. Das in Fig. 4 gezeigte Bündel ist das Ergebnis bei Benutzung einer niedri­ gen f-Zahl (größere Apertur). Die laterale Fokussierung ist enger am Brennpunkt und die Schärfentiefe ist schmaler. Gemäß den bevorzugten Ausführungen der Erfindung ist der Bereich von f-Zahlen für den B-Mode 0,5 bis 2,0 und für den Farbströ­ mungs-Mode 1,0 bis 3,0.
Gemäß einem weiteren Merkmal der vorliegenden Erfindung werden mehrfache Sende-Fokalzonen benutzt. Eine Benutzung von mehrfachen Fokalzonen mit niederigen f-Zahlen löst das Schär­ fentiefenproblem und erlaubt eine enge Fokussierung über einen größeren Schärfentiefenbereich, wie in Fig. 5 gezeigt ist. Gemäß dem System nach der vorliegenden Erfindung können entlang jeder Abtastzeile 1 bis 8 Fokalzonen benutzt werden. Das Aktivieren (firing) von mehrfachen Fokalzonen gemäß der Erfindung bedeutet eine Herausforderung für den bereits hinsichtlich der Bildrate begrenzten Farbbild-Mode, da für jede Fokalzone komplette Pakete ausgesandt bzw. aktiviert werden müssen. Diese Herausforderung wird überwunden, indem man jede Fokalzone auf einem separaten akustischen Bild (Frame) aktiviert. Somit ändert sich die Lage der Fokalzone von Bild zu Bild.
Zusätzlich können für jede Fokalzone spezielle Wellenformen benutzt werden. Im Nahfeld weisen die Sende-Wellenformen relativ kurze Ausstoßlängen (burst lengths) auf. Beispiels­ weise weisen bei der B-Mode-Abbildung gemäß einer bevorzugten Ausführung der Erfindung die Sende-Wellenformen im Nahfeld vorzugsweise nur einen Impuls auf, der mit der Pulswiederho­ lungsfrequenz wiederholt wird. Die Benutzung von Wellenformen mit kürzerer Ausstoßlänge resultiert in einer besseren axia­ len Auflösung, wogegen man die Empfindlichkeit ansetzt (weniger Energie in der Wellenform), was man kompensieren kann, indem man eine größere Apertur im Nahfeld benutzt. Wellenformen mit längerer Ausstoßlänge werden oft im Fernbe­ reich benötigt, um die geforderte Eindringtiefe bzw. Durch­ dringung zu erzielen. Gemäß einem weiteren Aspekt der Erfin­ dung können die Sende-Wellenformen von Fokalzone zu Fokalzone variieren. Die Benutzung einer Wellenform mit niedrigerer Frequenz resultiert in einer stärkeren Eindringtiefe und die Benutzung einer Wellenform mit höherer Frequenz resultiert in einer besseren Nahfeldauflösung.
Für eine B-Mode-Abbildung des Unterleibs sendet das System gemäß der Erfindung in einem Bereich von 2,5-5 MHz unter Verwendung einer Apertur mit einer f-Zahl von 1,0. Für die B-Mode-Abbildung von kleineren Körperteilen sendet das System gemäß der Erfindung in einem Bereich von 8,75-12 MHz unter Verwendung einer Apertur mit einer f-Zahl von 1,5. Die bevor­ zugte Anzahl von Fokalzonen beträgt 2 bis 8.
Im Farbströmungs-Mode beträgt der bevorzugte Bereich für die Demodulationsfrequenz 1,25 bis 8 MHz, in Abhängigkeit von der Sonde, und die bevorzugte Anzahl von Sendezyklen (d. h. die Ausstoß(burst)länge) für jede Fokalzone beträgt 2 bis 8 Zyklen, abhängig von der Sende-Fokaltiefe der Mittenfrequenz und der gewünschten axialen Auflösung. Beispielsweise ist gemäß einem Aufbau zur Bündelformung mit hoher Auflösung für den Farbströmungs-Mode die Demodulationsfrequenz 5 MHz für alle Fokalzonen; die Anzahl von Sendezyklen ist 3 für die ersten 10 Fokalzonenpositionen (z. B. bei einer Abdeckung von 0,4 bis 3,1 cm); und die Anzahl von Sendezyklen beträgt 4 für die 11-te und 12-te Fokalzonenposition (z. B. bei 3,4 bzw. 3,7 cm).
Gemäß einem noch weiteren Aspekt der Erfindung werden beson­ dere Verstärkungskurven für jede Fokalzone benutzt. Der Ausdruck "Verstärkungskurve", wie er hier benutzt wird, bezieht sich auf die Art, in der sich die Empfängerverstär­ kung des Systems mit der Tiefe ändert. Bei größeren Tiefen wird mehr Verstärkung benötigt als bei flacheren Tiefen, weil die Dämpfung des akustischen Signals bei größeren Tiefen größer ist. Um ein über die Tiefe relativ gleichmäßiges Bild (gleichmäßig in der Verstärkung) zu erzeugen, muß typischer­ weise eine größere Verstärkung auf die tieferen Tiefen ange­ wendet werden. Gemäß der Erfindung erscheint jedoch die meiste Energie des ausgesendeten Signals bei oder in der Nähe der Sende-Fokalzone. Eine Verstärkungsanpassung wird vorgenommen unter Einsatz einer speziellen Verstärkungskurve für jede Fokalzone. Die Verstärkungskurven sind ein Zahlen­ satz in einer Datei (file) für jede Fokalzone, welche Zahlen die an das Signal in dieser Verarbeitungsstufe angelegte Verstärkung repräsentieren. Diese Verstärkungskurven werden an die Abgleicheinrichtung angelegt, die Teil des Bündelfor­ mers ist.
Im Farbströmungs-Mode wird die Verstärkung so eingestellt, daß das Signal etwas größer an der Fokalzone ist und kleiner etwas entfernt von der Fokalzone. Auf diese Weise erfaßt der Farbströmungs-Bildmittelungsalgorithmus das im Fokus auftre­ tende Signal und minimiert die nicht im Fokus liegenden Anteile von "abseits" liegenden Fokalzonen.
Beim Scannen im Farbströmungs-Mode wird ein zweidimensionales Bild erzeugt, indem man einen vertikalen Vektor nach dem anderen von links nach rechts aussendet bzw. auslöst, um einen einzelnen zweidimensionalen Satz von Pixeldaten aufzu­ bauen, der das Bild formen wird. Dieser Satz von vertikalen Datenvektoren ist bekannt als ein akustisches (Voll-)Bild (Frame) von Farbströmungsdaten. Wenn beim Scannen im Farbströmungs-Mode ein jeweiliges akustisches Bild von Farbströmungsdaten gewonnen worden ist, wird es weiter verar­ beitet, während das nächste akustische Datenbild gewonnen wird. Gemäß dem Konzept der vorliegenden Erfindung besitzt jedes akustische Bild (Frame) für seine Vektoren eine Sende-Fokal­ zonenposition, die gegenüber der Fokalposition der vorhergehenden und nachfolgenden akustischen Bilder unter­ schiedlich sein kann. Ein adaptiver Algorithmus zur Mittelung der Bilder wird benutzt, um die im Fokus liegenden Daten von jedem dieser akustischen Bilder bei der Vorbereitung für die Darstellung zusammenzumischen. Gemäß der bevorzugten Ausfüh­ rungsform werden die Fokalzonen kombiniert unter Verwendung eines nicht linearen datenabhängigen Bildmittelungsalgorith­ mus. Der Vorteil dieses Verfahrens ist der, daß dabei keine weitere Reduktion der realen Bildfrequenz auftritt, da keine zusätzlichen Auslösungen (firings) über den traditionellen Einzelfokus-Farb-Mode hinaus benötigt werden. Jeder gegebene Strömungssignalpegel in dem Bild würde hinsichtlich seiner Amplitude stärker sein, wenn die am nächsten an dieser Strö­ mung liegende Fokalzone gesendet wurde. Dieselbe Strömung würde mit schwächerer Amplitude erscheinen, wenn die anderen "abseits" liegenden Fokalzonen ausgelöst wurden. Der Bildmit­ telungsalgorithmus macht sich diese Tatsache zunutze, indem er die stärkere im Fokus liegende Strömungsamplitude länger anhält als die schwächere außerhalb des Fokus liegende Strö­ mungsamplitude und dadurch ein resultierendes angezeigtes Bild erzeugt, das sowohl eine höhere räumliche Auflösung als auch eine größere Empfindlichkeit bietet. Dies funktioniert gut auch im Geschwindigkeits-Mode, da eine schwächere, außer­ halb des Fokus liegende Strömung abseits von der Sende-Fokal­ zone, dazu tendiert, unter die Amplitudenschwelle des Ge­ schwindigkeits-Mode abzufallen und nicht zur Anzeige gebracht wird. Die starke im Fokus liegende Strömung am oder in der Nähe des Sendefokus tendiert dazu, über dieser Schwelle zu liegen, und daher wird das Geschwindigkeitssignal zur Anzeige gebracht.
Gemäß der bevorzugten Ausführung der Erfindung wird eine optimale vertikale bzw. Höhen-Leistungsfähigkeit (minimale Bildschnittdicke und maximale Kontrastauflösung) erreicht mit mehrzeiligen Wandlerarrays mit einer kürzeren (d. h. weniger hohen) Mittelzeile und größeren (d. h. mit größerer Höhe) ausgebildeten (äußersten) Zeilen. Die äußersten Zeilen sind ebenfalls größer in der Erhebungsrichtung als jegliche Zwi­ schenzeilen.
Als ein Beispiel für die Anwendung der obigen Array-Aus­ legungsprinzipien zeigt Fig. 6 ein fünfzeiliges 1,25D Array mit einer kleinen zentralen Zeile 102a und großen äußersten Zeilen 102d und 102e, welches Array in dem System nach der vorliegenden Erfindung verwendet werden kann. Die Zeilenkanten liegen bei Abständen (1/4, 1/2, 1) ymax von der Array-Mittellinie. Somit weisen die paarweisen Elemente der Zwischenzeilen 102b und 102c eine Fläche auf, die gleich ist zu der Fläche jedes Elements der mittleren Zeile 102a; und die paarweisen Elemente der äußersten Zeilen 102d und 102e besitzen eine Fläche gleich dem Doppelten der Fläche jedes Elements der mittleren Zeile 102a. Die Ultraschallimpulse werden ausgesendet über eine Mehrfachfokuslinse 116 mit Linsenbrennweiten von 35, 65 und 90 mm. Der zentrale Ab­ schnitt der Linse 116 mit einer Brennweite von 35 mm fokus­ siert die von der zentralen Zeile 102a gesendeten Ultra­ schallbündel; die benachbarten Linsenabschnitte (mit 65 mm Brennweite) fokussieren die jeweils von den Zeilen 102b und 102c gesendeten Bündel; und die äußersten Linsenabschnitte (mit 90 mm Brennweite) fokussieren die jeweils von den äußer­ sten Zeilen 102d und 102e gesendeten Bündel. Die Mehrfachfo­ kuslinse verbessert die Gleichmäßigkeit des vertikalen bzw. Höhenprofils des Bündels, indem sie die zentrale Zeile im Nahfeld fokussiert, soweit lediglich die zentrale Zeile aktiv ist, und indem es die äußeren Zeilen im Fernbereich fokus­ siert, welches das einzige Gebiet ist, in dem diese aktiv sind.
In dem in Fig. 6 gezeigten 1,25D Array ist eine Vielzahl von Multiplexern 114 jeweils mit einer entsprechenden Vielzahl von Signalleitungen 118 verbunden (lediglich ein Multiplexer und eine Signalleitung sind in Fig. 3 zu sehen). Jede Signal­ leitung 118 ist mit einem entsprechenden (in Fig. 3 nicht gezeigten) Strahlformungskanal verbunden. Jeder Multiplexer 114 besitzt drei interne Schalter, welche die Signalleitungen 108a-108c im Multiplexbetrieb zur Verbindung mit der Signal­ leitung 118 schalten. Jede Spalte von Wandlerelementen ist mit einem entsprechenden Satz solcher Signalleitungen verbun­ den; das zentrale Zeilenelement 102a ist mit der Signallei­ tung 108a verbunden; die paarweisen Elemente 102b, 102c der Zwischenzeilen sind mit der Signalleitung 108b verbunden; und die paarweisen Elemente 102d, 102e der äußersten Zeilen sind an die Signalleitung 108c angeschlossen. In der Praxis sind die Elementpaare (d. h. die Verbindung von 102b mit 102c und von 102d mit 102e) innerhalb des Sondenkopfes miteinander verbunden, während die Multiplexer innerhalb des Sondenkop­ fes, am konsolenseitigen Ende des Sondenkabels oder innerhalb der Systemkonsole selbst lokalisiert sein können.
Da der Zustandswechsel der Multiplexerschalter Rauschen erzeugt, erfordert die Benutzung dieser Sonde typischerweise drei Sende-Empfangszyklen pro Bündel. Bei geschlossenen Multiplexerschaltern 114a für die zentrale Zeile der Elemente 102a und bei geöffneten Schaltern 114b und 114c werden die Sendeverzögerungen so eingestellt, daß sie eine Azimutfokus­ sierung im Nahfeld vorsehen und der Nahbereichsteil der Bündeldaten gewonnen wird. Als nächstes werden die Schalter 114a und 114b geschlossen, die Sende- und Empfangsverzögerun­ gen umkonfiguriert, und es werden unter Benutzung der Zeilen 102a, 102b und 102c die Mittelfelddaten gewonnen. Schließlich werden alle Multiplexerschalter geschlossen, die Sende- und Empfangsverzögerungen werden umkonfiguriert, und die Fern­ felddaten werden unter Benutzung der Zeilen 102a-102e gewon­ nen. Die Daten von den drei Zonen werden in dem Abbildungssy­ stem miteinander verwoben, wobei dafür Sorge getragen wird, die Empfindlichkeitsveränderung beim Übergang zu kompensie­ ren. Somit wird gemäß der vorliegenden Erfindung der Bündel­ fokus sowohl in der vertikalen bzw. Erhebungs- als auch in der Azimutrichtung als Funktion der Tiefe verändert.
Wenn die Abbildungstiefe vom Nahfeld zum Fernfeld hin zu­ nimmt, werden weitere Zeilen von Wandlerelementen hinzugezo­ gen. Um eine gleichmäßige Leistungsfähigkeit in der vertika­ len bzw. Höhendimension über einen maximalen Bereich zu erzielen, würde man es vorziehen, daß die effektive Brennwei­ te bzw. Fokaldistanz des Array mit der Zunahme der aktiven Apertur zunimmt. Bei dem in Fig. 6 gezeigten Array wird die gesamte Höhenfokussierung durch die akustische Linse vorgese­ hen. Um die Fokusposition mit der Aperturvergrößerung zu erhöhen, wird eine Mehrfachfokuslinse benutzt.
Gemäß einer Variante der in Fig. 6 gezeigten bevorzugten Ausführungsform besitzt jedes Wandlerelement in der zentralen Zeile 102a eine vorbestimmte Fläche, jedes Paar von Wandler­ elementen in den äußeren Zeilen 102d und 102e besitzt eine erste kombinierte Fläche, die größer ist als die vorbestimmte Fläche, und jedes Paar von Wandlerelementen in den Zwischen­ zeilen 102b und 102c weist eine zweite kombinierte Fläche auf, die größer ist als die vorbestimmte Fläche, jedoch kleiner als die erste kombinierte Fläche.
Eine vertikale bzw. höhenmäßige Bündelsteuerung für das in Fig. 6 gezeigte Array wird mit lediglich einer Linse und einem Multiplexer erreicht. Alle Elemente innerhalb jeder vertikalen Spalte des Arrays sind mit demselben Strahlfor­ mungskanal verbunden und teilen sich dieselbe elektronische Zeitverzögerung und Schattierung. Jedoch könnten ebenfalls 1,5D Arrays in der vorliegenden Erfindung benutzt werden, um die vertikale Fokussierung zu erzielen. 1,5D Arrays benutzen eine dynamische Fokussierung und Schattierung zur Steuerung des Höhenbündels. Bei Vorliegen von Höhensymmetrie (keine Steuerung) erfordert dies einen unabhängigen Strahlformungs­ kanal für jeden Satz von paarweisen vertikalen (elevational) Elementen.
Die oben beschriebenen Techniken werden angewandt, um einen Stapel von Bildern (frames) von Pixeldaten zu erhalten, die von einem Objektvolumen gewonnen werden. Wenn die Sonde (probe) über einen Anatomiebereich, sei es durch freihändiges Scannen oder mittels eines Systems für die Sondenbewegung, geschwenkt wird, kann ein dreidimensionales Volumen erhalten werden. Die Position von jedem Vollbild (frame image) mit Bezug zum nächsten kann auf eine Anzahl von Wegen bestimmt werden. Die Scan-Bewegung der Sonde kann in irgendeiner Weise erfolgen, z. B. durch eine lineare Bewegung der Sonde, durch Hin- und Herbewegen der Sonde über einen Winkel oder durch eine Drehbewegung der Sonde über einen Winkel senkrecht zur Sonden(stirn)fläche. Wenn die Sonde mit einer konstanten Geschwindigkeit weiterbewegt wird, über eine bekannte Distanz oder durch einen bekannten Winkelbereich, kann der Abstand zwischen jedem der Bilder leicht bestimmt werden. Die Ab­ standsbestimmung der Sondenbewegung läßt sich auf zahlreichen Wegen bestimmten, z. B. durch einfache Abstandsmessung mit einem geeigneten Meßgerät, unter Verwendung von Markierungen auf oder innerhalb der Anatomie, oder durch Anbringen von Positionsfühlern an der Sonde. Die Sonde kann ebenfalls längs einem willkürlichen Weg geführt werden, und die von den auf der Sonde montierten Positionsfühlern genommenen Daten können zur Bestimmung der Lokalisierung jedes Bildes benutzt werden. Diese Bilder können dann auf ein Cartesisches Volumen pla­ ziert werden. Zusätzlich kann die Sonde in einem Gerät gehal­ tert werden, das die Sonde entlang einem bekannten Weg führt.
Unter Bezugnahme auf die Fig. 7 und 8 wird nun das Verfah­ ren zum Projizieren von Samplevolumendaten in dreidimensiona­ le Bilder gemäß der Erfindung beschrieben. Wie aus Fig. 7 zu ersehen, enthält die Hauptsteuerung 8 eine zentrale Verarbei­ tungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeordneten Nur-Lese-Spei­ cher (ROM) zum Speichern der Routinen auf, die für die Umsetzung des gewonnenen Volumens von Intensitäts- oder Farbströmungs-Mode-Daten in eine Vielzahl von dreidimensiona­ len unter verschiedenen Winkeln genommenen Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Speicher 18 und den Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere steuert die CPU 42 den Pixeldatenfluß von dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem Filmspeicher 24 zum Videoprozessor 22 und zur CPU 42 selbst. Jedes (Voll-)Bild (frame) von Pixeldaten, das einen von vielen Scans oder Schnitten durch das untersuchte Objekt repräsentiert, wird in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 übertragen. Ein das abgetastete Objektvolumen repräsentie­ render Stapel von Bildern wird im Abschnitt 24A des Filmspei­ chers 24 gespeichert. Während der Initialisierung (vgl. den Schritt 26 in Fig. 8) holt die CPU 42 vom Abschnitt 24A des Filmspeichers nur die einem interessierenden Objektvolumen entsprechenden Pixeldaten. Dies wird erreicht, indem man lediglich die Pixeldaten in einem interessierenden Gebiet von jedem gespeicherten Bild holt, das von irgendeinem Scan gewonnen wurde, der das interessierende Volumen schneidet. Mit anderen Worten, die dem interessierenden Gebiet entspre­ chenden Pixeldaten von jedem einen Bild eines Stapels von aufeinanderfolgenden Bildern bilden ein interessierendes Quelldatenvolumen.
Wie aus Fig. 8 zu ersehen ist, werden die Intensitätsdaten in dem dem interessierenden Objektvolumen entsprechenden Pixel­ datensatz vor der Projektion als Option gefiltert (Schritt 28), um Fleckenrauschen (Speckle-Rauschen) zu glätten und Artefakte zu reduzieren. Dies vermeidet während der Projekti­ on den Verlust von Daten aufgrund von Maserungsrauschen. Beispielsweise erzeugen Blutgefäße weniger Echo als das umgebende Gewebe. Gefäße können deshalb unter Einsatz von Projektionen mit minimaler Intensität abgebildet werden. Alternativ werden im Umkehrvideo/Minimum-Mode die Intensi­ tätsdaten invertiert, um die Gefäße hell anstatt dunkel zu machen. Die Gefäße können dann unter Einsatz von Projektionen mit maximaler Intensität abgebildet werden. Um die Auswahl von maximalen Intensitäten, die helle Flecken im Gegensatz zu den gewünschten Pixeldaten sind, zu verhindern, kann vor der Projektion ein Filter zur Beseitigung solcher hellen Fleckin­ tensitäten benutzt werden. Die aus dem Filmspeicher geholten Pixeldaten können von der CPU 42 unter Verwendung eines 3 × 3 Faltungsfilters mit einem 111 141 111 Kernel gefiltert wer­ den, d. h. das zentrale Pixel der Intensitätsdaten in jedem 3 × 3 Pixelarray wird in jedem Schnitt oder Bild ersetzt durch einen Intensitätswert, der proportional ist zu der Summe aus dem vierfachen Wert des zentralen Pixels plus der Summe aus den Werten der acht dieses Pixel umgebenden Pixel. Das gefilterte Quelldatenvolumen wird sodann im Speicher 44 abgespeichert (Schritt 30). In ähnlicher Weise kann ein Faltungsfilter benutzt werden, um schwarze Löcher in einem Bild vor der Projektion mit minimaler Intensität zu entfer­ nen.
Als nächstes führt die CPU 42 unter Verwendung des im US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus (ray casting algorithm), dessen Inhalt hier durch Bezugnahme ausdrücklich eingefügt wird, eine Reihe von Transformationen durch. Die aufeinanderfolgenden Transformationen repräsentie­ ren Projektionen mit maximaler, minimaler oder durchschnitt­ licher Intensität, Geschwindigkeit oder Energie, die unter winkelmäßigen Inkrementen, beispielsweise in Intervallen von 10°, innerhalb eines Winkelbereichs, z. B. von +90° bis -90°, vorgenommen werden. Die Winkelinkremente müssen jedoch nicht 10° sein; auch ist die Erfindung nicht auf einen bestimmten Winkelbereich begrenzt.
In Übereinstimmung mit der bei der vorliegenden Erfindung angewandten Strahlwurftechnik werden die volumetrisch ange­ legten Projektionsbilder einer Abtastung unter irgendeinem willkürlichen Betrachtungswinkel zur Anzeige gebracht, und zwar beim Scannen eines Objektvolumens mittels eines Ultra­ schall-Wandlerarrays mit im wesentlichen gleichmäßiger verti­ kaler bzw. Höhen-Bündelweite. Das Samplevolumen wird in einer derartigen Weise abgetastet, daß man eine Folge von geschich­ teten benachbarten Schnitten (slices) erzeugt, von denen jeder dieselbe Anzahl von Objektvolumenelementen (voxels) enthält. Jedes Voxel besitzt ein rechteckiges Profil in der Scheibenebene (z. B. in der X-Y Ebene). Während die komplemen­ tären Seiten von gleicher Länge sein können, so daß dieses Profil quadratisch sein kann ist die Scheibendicke im allge­ meinen größer als die Länge jeder Seite.
Jedes Objektvoxel wird analysiert und sein Datenwert (Intensität, Geschwindigkeit oder Energie) wird in ein ent­ sprechendes Datenvoxel eines Datenvolumens plaziert. Das Datenvolumen ist ein einfaches kubisches Gitter, obwohl die Dicke eines jeden Objektschnitts und jede (Stirn-)Flächen­ größe eines Objektvoxels (die Größe des Voxels in der X-Y Ebene) im allgemeinen nicht dieselbe sein werden.
Gemäß einer von der CPU 42 angewandten bekannten Technik wird ein Bild des Objekts projiziert (Schritt 34 in Fig. 8) durch Projektion eines Strahls (ray casting) von einem Gitterpunkt in jedem Datenvoxel in Richtung auf eine Bildebene. Der Einfachheit halber kann der Gitterpunkt beispielsweise die am nächsten an dem Datenvolumenursprung liegende Datenvoxelspit­ ze (vertex) sein. Obwohl alle Strahlen auf irgendeinen Teil der Bildebene auftreffen, wird nur den in das betrachtete Bildebenenpixel fallenden Strahlen erlaubt, zu den Daten für dieses Bildebenenpixel beizutragen. Für eine maximale Pixel­ projektion wird jeder projizierte Wert mit dem momentan gespeicherten Wert verglichen, und der größere der beiden Werte wird in dem Speicher für dieses Pixel 60a plaziert. Für eine minimale Pixelprojektion wird der kleinere der beiden Werte gespeichert. Da jedes Voxel in dem ausgewählten Daten­ volumen sequentiell eingegeben und in Richtung auf die Bilde­ bene projiziert wird, wird schließlich ein Datenvolumenvoxel entlang seinem zugehörigen Strahl projiziert und trifft nicht innerhalb des gewünschten Pixels auf, so daß sein Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für das Pixel gespeicherten Datenwert verglichen wird. Es wird nun für diese Projektion von Daten bei dem bestimmten dreidimensiona­ len Betrachtungswinkel der maximale Datenwert für dieses Pixel festgelegt. Alle Datenwerte werden auf Null zurückge­ setzt, wenn eine neue Projektion erfolgen soll. Somit wird jedes der Pixel der Bildebene beim Start einer Bildprojekti­ onsprozedur rückgesetzt, und alle Datenvolumenvoxel (in dem gesamten Raum oder in dem ausgewählten Teil, wie durch den Teil des ausgewählten Objektvolumens festgelegt) werden einzeln und sequentiell abgetastet. Der Datenwert in jedem Datenvoxel wird durch einen zugeordneten Strahl so proji­ ziert, daß er in einem Pixel davon auf die Bildebene auf­ trifft, wobei der Maximalwert in jedem Pixel mit dem gegen­ wärtigen Wert des strahlprojizierten Datenvolumenvoxels verglichen wird, um den größeren davon zu bestimmend welcher größere Wert sodann als Teil des Maximalwertbildes gespei­ chert wird.
Gemäß einem anderen Aspekt der obigen Technik wird die Daten­ projektion (im Schritt 36 in Figur. 8) skaliert, und es wird eine etwaige Anisotropie zwischen dem Objektvolumen und der Bildebene durch lediglich einen einzigen Satz von Berechnun­ gen beseitigt, nachdem die Rückprojektion abgeschlossen ist. Da es sich bei dem Objektvolumen um ein reales Volumen han­ delt, während es sich bei dem Datenvolumen um ein abstraktes Konzept handelt, ist es nötig, den Betrag der Verzerrung der Projektionsdaten aufgrund der Darstellung des kubischen Datenvolumengitters unter einem unterschiedlichen Winkel in einer ersten Ebene zu bestimmen gegenüber dem Winkel, unter dem eine willkürliche Betrachtungsrichtung mit Bezug sowohl auf das Objektvolumen als auch auf das Datenvolumen positio­ niert wird. Die offenbaren Dimensionen von jedem Voxel werden sich in dem Maße ändern, wie sich die effektiven Erhebungs­ winkel ändern. Wenn das Aspektverhältnis A (definiert als das Verhältnis der tatsächlichen Scheibendicke im Objektvolumen zur tatsächlichen Pixelgröße in demselben Objektvolumen) nicht eins beträgt (d. h. größer oder gleich eins ist), dann werden die Erhebungswinkel verschieden sein, und der effekti­ ve Erhebungswinkel in dem Datenvolumen wird gegenüber dem tatsächlichen Erhebungswinkel in dem Objektvolumen unter­ schiedlich sein. Die Daten werden dann in Übereinstimmung mit einem Objekterhebungswinkel gedreht. Danach können die proji­ zierten Daten so skaliert werden, daß sie (wenn die Drehung um die horizontale Achse erfolgt) die korrekte Höhe in dem Objektvolumen erhalten, und zwar durch eine Multiplikation aller projizierten Datenhöhen mit einem Höhenskalierungsfak­ tor. Die Elemente einer 3 × 3 Rotationsmatrix können bestimmt werden (wie im US-Patent No. 5,226,113 beschrieben), und diese Beziehungen werden benutzt, um die Transformationen vom Datenvolumen zur Bildebene zu bestimmen. Nachdem die Daten auf die Bildebene projiziert sind, wird das Bild zur Korrek­ tur des Effekts der anisotropen Objektvoxel skaliert. Die Faktoren in der Rotationsmatrix können zu Beginn einer Pro­ jektion vorberechnet (Schritt 32 in Fig. 8) und für alle Rotationsberechnungen benutzt werden.
Gemäß einem weiteren Aspekt der Erfindung werden die skalier­ ten Bildebenendaten vor einer Anzeige (Display) kartiert (mapped), um eine gewünschte Helligkeit sowie einen gewünsch­ ten Kontrastbereich zu erreichen (Schritt 38 in Fig. 8).
Das in Fig. 8 gezeigte Verfahren kann angewendet werden auf die B-Mode-Intensitätsdaten sowie auf die Farbströmungsge­ schwindigkeits- oder Energiedaten für das interessierende von dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in dem projizierten Bild schließt die transformierten Intensi­ tätsdaten und die transformierten Geschwindigkeits- oder Energiedaten ein, welche von der Projektion auf eine vorgege­ bene Bildebene abgeleitet wurden. Zusätzlich speichert wäh­ rend der Zeit, in welcher der Filmspeicher vom Bediener "eingefroren", war, die CPU 42 als Option das letzte Bild (frame) aus dem XY Speicher 18 unter mehrfachen aufeinander­ folgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die projizierten Bilddaten für den ersten projizierten Betrach­ tungswinkel werden in die erste Adresse im Filmspeicherab­ schnitt 24D eingeschrieben, so daß die projizierten Bilddaten in einem interessierenden Bereich dem Hintergrundbild (background frame) überlagert werden. Dieser Prozeß wird für jedes Winkelinkrement wiederholt, bis alle projizierten Bilder im Filmspeicherabschnitt 24B gespeichert sind, wobei jedes projizierte Bild (frame) aus einem interessierenden Gebiet besteht, das transformierte Daten und als Option einen Peripheriehintergrund enthält, der das interessierende Gebiet umgibt und aus Hintergrundbilddaten besteht, die nicht von transformierten Daten aus dem interessierenden Gebiet über­ schrieben sind. Das Hintergrundbild macht es deutlicher, von wo aus jede zur Darstellung gebrachte Projektion betrachtet wird. Der Bediener kann dann ein jedes der projizierten Bilder für die Darstellung auswählen. Zusätzlich kann die Abfolge der projizierten Bilder erneut auf dem Displaymonitor abgespielt werden, um das Objektvolumen so darzustellen, als wenn es vor dem Betrachter rotieren würde.
Die vorhergehenden bevorzugten Ausführungen wurden zum Zwecke der Veranschaulichung beschrieben. Abänderungen und Modifika­ tionen des Grundkonzepts werden sich unschwer für Fachleute auf den Gebieten der Ultraschall-Bildgebung oder der Compu­ tergrafik ergeben. Alle derartigen Abänderungen und Modifika­ tionen sollen durch die nachfolgend aufgeführten Ansprüche mitumfaßt werden.

Claims (18)

1. Einrichtung zur dreidimensionalen Bildgebung von Ultraschall streuenden Bestandteilen in einem Objektvolumen, enthaltend:
ein Ultraschall-Wandlerarray zum Aussenden von Ultra­ schallbündeln und zum Erfassen von an dem Objektvolumen reflektierten Ultraschall-Echos;
eine erste Einrichtung zum Verändern der Azimutfokus­ sierung des Wandlerarrays, um Veränderungen in der Brennweite zu erreichen;
eine zweite Einrichtung zum Verändern der vertikalen bzw. Höhenfokussierung des Wandlerarrays als Funktion der Brennweite;
eine dritte Einrichtung zum Verändern einer Charakteri­ stik der für den Betrieb des Wandlerarrays benutzen Wellen­ form als Funktion der Brennweite;
eine Einrichtung zum Koordinieren der ersten, zweiten sowie dritten Veränderungseinrichtung, um ein Quellvolumen von Pixeldaten zu gewinnen, das von Sample- bzw. Probevolumen in dem Objektvolumen abgeleitet ist;
eine Speichereinrichtung zum Speichern des Quellvolu­ mens von Pixeldaten;
eine Einrichtung zum Wiedergeben eines Satzes von Pi­ xeldaten aus der Speichereinrichtung entsprechend einem interessierenden Volumen in dem Objektvolumen;
eine Einrichtung zum Projizieren des Pixeldatensatzes auf eine erste Bildebene, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird;
einen Anzeige- bzw. Displaymonitor; und
eine Einrichtung zum bildlichen Darstellen des ersten projizierten Bildes auf dem Displaymonitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeich­ net, daß die Pixeldaten B-Mode-Intensitätsdaten enthalten.
3. Einrichtung nach Anspruch 1, dadurch gekennzeich­ net, daß die Pixeldaten Geschwindigkeitsdaten enthalten.
4. Einrichtung nach Anspruch 1, dadurch gekennzeich­ net, daß die Pixeldaten Power-Dopplerdaten enthalten.
5. Einrichtung nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, daß die dritte Veränderungsein­ richtung die Ausstoßlänge (burst length) der Sende-Wellenform mit zunehmender Brennweite vergrößert.
6. Einrichtung nach einem der Ansprüche 1-4, da­ durch gekennzeichnet, daß die dritte Veränderungseinrichtung die Frequenz der Sende-Wellenform mit zunehmender Brennweite verringert.
7. Einrichtung nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, daß das Wandlerarray mit einer lateralen Apertur mit einer f-Zahl von kleiner 1,5 betrieben wird.
8. Einrichtung nach einem der vorhergehenden Ansprü­ che, dadurch gekennzeichnet, daß die zweite Veränderungsein­ richtung das Wandlerarray derart steuert, daß es eine verti­ kale bzw. Höhenapertur aufweist, die mit vergrößerter Brenn­ weite vergrößert wird.
9. Einrichtung nach einem der vorhergehenden Ansprü­ che, gekennzeichnet durch:
eine Einrichtung zum Projizieren des Pixeldatensatzes auf eine zweite Bildebene, die relativ zur ersten Bildebene gedreht ist, wobei ein ein zweites projiziertes Bild reprä­ sentierender projizierter Datensatz gebildet wird; und
eine Einrichtung zum bildlichen Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
10. Verfahren zur dreidimensionalen Bildgebung von Ul­ traschall streuenden Bestandteilen in einem Objektvolumen, gekennzeichnet durch die Schritte:
Aussenden von Ultraschallbündeln in das Objektvolumen;
Erfassen der von dem Objektvolumen als Reaktion auf die Aussendung von Ultraschallbündeln reflektierten Ultra­ schall-Echos;
Steuern des Azimutfokus der gesendeten Ultraschallbün­ del, um Brennweitenveränderungen zu erhalten;
Steuern des vertikalen bzw. Höhenfokus der gesendeten Ultraschallbündel als Funktion der Brennweite;
Einstellen einer Charakteristik einer Sende-Wellenform als Funktion der Brennweite;
Koordinieren der Veränderung im Azimut- und Höhenfokus sowie der Anpassungen der Sende-Wellenformcharakteristik, um ein Quellvolumen von Pixeldaten zu gewinnen, welche von Samplevolumen in dem Objektvolumen abgeleitet sind;
Wiedergeben eines Satzes von Pixeldaten von dem Quell­ volumen, wobei dieser Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht;
Projizieren des Pixeldatensatzes auf eine erste Bilde­ bene, wobei ein ein erstes projiziertes Bild repräsentieren­ der projizierter Datensatz gebildet wird; und
bildliches Darstellen des ersten projizierten Bildes.
11. Verfahren nach Anspruch 10, dadurch gekennzeich­ net, daß die Pixeldaten B-Mode-Intensitätsdaten enthalten.
12. Verfahren nach Anspruch 10, dadurch gekennzeich­ net, daß die Pixeldaten Geschwindigkeitsdaten enthalten.
13. Verfahren nach Anspruch 10, dadurch gekennzeich­ net, daß die Pixeldaten Power-Doppler-Daten enthalten.
14. Verfahren nach einem der Ansprüche 10 bis 13, da­ durch gekennzeichnet, daß die Ausstoßlänge (burst length) der Sende-Wellenform mit einer Zunahme der Brennweite erhöht wird.
15. Verfahren nach einem der Ansprüche 10 bis 14, da­ durch gekennzeichnet, daß die Frequenz der Sende-Wellenform mit einer Zunahme der Brennweite verringert wird.
16. Verfahren nach einem der Ansprüche 10 bis 15, da­ durch gekennzeichnet, daß die Ultraschallbündel von einem Wandlerarray gesendet und empfangen werden, das mit einer lateralen Apertur mit einer f-Zahl von kleiner 1,5 betrieben wird.
17. Verfahren nach einem der Ansprüche 10 bis 16, da­ durch gekennzeichnet, daß die Ultraschallbündel von einem Wandlerarray gesendet und empfangen werden, das mit einer vertikalen bzw. Höhenapertur betrieben wird, die mit zuneh­ mender Brennweite vergrößert wird.
18. Verfahren nach einem der Ansprüche 10 bis 17, ge­ kennzeichnet durch die Schritte:
Projizieren des Pixeldatensatzes auf eine zweite Bild­ ebene, die relativ zur ersten Bildebene gedreht ist, wobei ein ein zweites projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und
bildliches Darstellen des zweiten projizierten Bildes auf dem Displaymonitor.
DE19819832.9A 1997-05-07 1998-05-04 Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung Expired - Fee Related DE19819832B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US852699 1986-04-16
US08/852,699 US5865750A (en) 1997-05-07 1997-05-07 Method and apparatus for enhancing segmentation in three-dimensional ultrasound imaging

Publications (2)

Publication Number Publication Date
DE19819832A1 true DE19819832A1 (de) 1998-11-12
DE19819832B4 DE19819832B4 (de) 2015-03-12

Family

ID=25314017

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819832.9A Expired - Fee Related DE19819832B4 (de) 1997-05-07 1998-05-04 Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung

Country Status (4)

Country Link
US (1) US5865750A (de)
JP (1) JPH1128210A (de)
DE (1) DE19819832B4 (de)
IL (1) IL124165A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1005833A1 (de) * 1998-12-01 2000-06-07 General Electric Company Verfahren und Gerät zur automatischen Kompensierung von Zeit/Verstärkung und/oder Seitenintensität/Verstärkung bei der Ultraschallabbildung in B-Mode

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
JP4201483B2 (ja) * 1997-12-31 2008-12-24 ジー イー ウルトラサウンド イスラエル リミテッド 断層撮影スライスの相対位置決定方法及び装置
JP4260920B2 (ja) * 1998-05-13 2009-04-30 株式会社東芝 超音波診断装置
US6071241A (en) * 1998-12-31 2000-06-06 General Electric Company Ultrasound color flow display optimization by adjustment of threshold using sampling
EP1171780A1 (de) * 1999-04-20 2002-01-16 Synthes Ag Chur Vorrichtung zur perkutanen bestimmung von koordinaten auf der oberfläche eines menschliches oder tierischen organs
US6139501A (en) * 1999-06-08 2000-10-31 Atl Ultrasound, Inc. Coincident tissue and motion ultrasonic diagnostic imaging
US6685645B1 (en) 2001-10-20 2004-02-03 Zonare Medical Systems, Inc. Broad-beam imaging
US6503199B1 (en) * 1999-11-03 2003-01-07 Atl Ultrasound Uniform volumetric scanning ultrasonic diagnostic imaging system
US6484063B1 (en) 1999-11-10 2002-11-19 Visteon Global Technologies, Inc. System and method of inspecting tooling for feasibility
IL134017A (en) * 2000-01-13 2008-04-13 Capsule View Inc Camera for photography inside the intestines
US6515657B1 (en) 2000-02-11 2003-02-04 Claudio I. Zanelli Ultrasonic imager
US6517484B1 (en) * 2000-02-28 2003-02-11 Wilk Patent Development Corporation Ultrasonic imaging system and associated method
US6221022B1 (en) 2000-04-03 2001-04-24 G.E. Medical Systems Global Technology Company Llc Multiple transmit scanning to increase ultrasonic frame rate
US6744911B1 (en) 2000-11-22 2004-06-01 General Electric Company Tomographic segmentation
US7615008B2 (en) * 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7597663B2 (en) 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
US7103205B2 (en) * 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
US7940966B2 (en) 2000-11-24 2011-05-10 U-Systems, Inc. Full-field breast image data processing and archiving
US6547735B1 (en) 2001-12-05 2003-04-15 Koninklijke Philips Electronics N.V. Partial rayline volumetric scanning ultrasonic diagnostic imaging system
US6723050B2 (en) 2001-12-19 2004-04-20 Koninklijke Philips Electronics N.V. Volume rendered three dimensional ultrasonic images with polar coordinates
US6866632B1 (en) * 2002-09-18 2005-03-15 Zonare Medical Systems, Inc. Adaptive receive aperture for ultrasound image reconstruction
US7850613B2 (en) * 2003-05-30 2010-12-14 Orison Corporation Apparatus and method for three dimensional ultrasound breast imaging
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
JP4664209B2 (ja) * 2003-12-19 2011-04-06 株式会社日立メディコ 超音波診断装置およびその撮像を実行する超音波イメージングプログラム
US7914454B2 (en) * 2004-06-25 2011-03-29 Wilk Ultrasound Of Canada, Inc. Real-time 3D ultrasonic imaging apparatus and method
US20060173350A1 (en) * 2005-01-11 2006-08-03 Scimed Life Systems, Inc. Systems and methods for three dimensional imaging with an orientation adjustable array
WO2007054544A1 (en) * 2005-11-10 2007-05-18 Bracco Research Sa Detection of immobilized contrast agent in medical imaging applications based on flow dynamics analysis
JP5028041B2 (ja) * 2006-07-14 2012-09-19 親良 炭 ビームフォーミング装置及び方法
JP4881112B2 (ja) * 2006-09-19 2012-02-22 株式会社東芝 超音波診断装置及び画像データ生成方法
JP2008228873A (ja) * 2007-03-19 2008-10-02 Hitachi Medical Corp 超音波探触子及び超音波診断装置
US8323201B2 (en) 2007-08-06 2012-12-04 Orison Corporation System and method for three-dimensional ultrasound imaging
CN102551811B (zh) * 2010-12-30 2015-11-25 深圳迈瑞生物医疗电子股份有限公司 一种彩色血流增益调整的方法及装置
JP6253350B2 (ja) * 2013-10-31 2017-12-27 フクダ電子株式会社 超音波診断装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
JP3090718B2 (ja) * 1990-07-11 2000-09-25 株式会社東芝 超音波診断装置
JP3187148B2 (ja) * 1991-08-26 2001-07-11 株式会社東芝 超音波診断装置
US5322067A (en) * 1993-02-03 1994-06-21 Hewlett-Packard Company Method and apparatus for determining the volume of a body cavity in real time
US5365929A (en) * 1993-10-04 1994-11-22 Advanced Technology Laboratories, Inc. Multiple sample volume spectral Doppler
US5409007A (en) * 1993-11-26 1995-04-25 General Electric Company Filter to reduce speckle artifact in ultrasound imaging
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
WO1997000482A1 (en) * 1995-06-15 1997-01-03 The Regents Of The University Of Michigan Method and apparatus for composition and display of three-dimensional image from two-dimensional ultrasound
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data
US5588435A (en) * 1995-11-22 1996-12-31 Siemens Medical Systems, Inc. System and method for automatic measurement of body structures

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1005833A1 (de) * 1998-12-01 2000-06-07 General Electric Company Verfahren und Gerät zur automatischen Kompensierung von Zeit/Verstärkung und/oder Seitenintensität/Verstärkung bei der Ultraschallabbildung in B-Mode
US6102859A (en) * 1998-12-01 2000-08-15 General Electric Company Method and apparatus for automatic time and/or lateral gain compensation in B-mode ultrasound imaging

Also Published As

Publication number Publication date
US5865750A (en) 1999-02-02
DE19819832B4 (de) 2015-03-12
JPH1128210A (ja) 1999-02-02
IL124165A (en) 2000-06-29

Similar Documents

Publication Publication Date Title
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE19819801B4 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite
DE3686401T2 (de) Darstellung von stromlinien in inhomogenen medien.
DE60316584T2 (de) Ultraschallabbildungssystem und verfahren für eine benutzergeführte dreidimensionale volumenscansequenz
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE19819893B4 (de) Verfahren und Einrichtung zum Verbessern der Auflösung und Empfindlichkeit bei der Farbströmungs-Ultraschall-Bildgebung
DE60025438T2 (de) Verfahren und Gerät zum Einstellen eines interessanten Gebiets in einer Abbildung
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE69923430T2 (de) Diagnostisches Ultraschall-Bilderzeugungssystem mit variabler räumlicher Bildzusammensetzung
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten
DE60222476T2 (de) Ultraschallwandler
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
DE19819794A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten
DE69933851T2 (de) Verfahren zur Reduzierung der Bildschärfeverzerrung in räumlich vermehrten Diagnostikbildern
DE69533183T2 (de) Vorrichtung zur darstellung des gefäss-inneren mittels ultraschall
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE69937422T2 (de) Ultraschallabbildung mittels kodierter Anregung beim Senden und selektiver Filterung beim Empfang
DE19960078A1 (de) Ultraschall-Bildgebung mit optimaler Bildqualität im interessierenden Bereich
DE69930709T2 (de) Verfahren und Gerät zur Optimierung der Sendsignal-Wellenformung in Ultraschall-B-Mode-Bilderzeugung
DE10322157A1 (de) Anzeigevorrichtung für Subtraktionsabbildungsverfahren
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE19842191A1 (de) Verfahren und Einrichtung zur Kohärenzfilterung von Ultraschallbildern
DE10238747A1 (de) Verfahren und Gerät zur verbesserten Orts- und Zeitauflösung bei der Ultraschallabbildung
DE19756730A1 (de) Verfahren, Einrichtung und Anwendungen zur Verknüpfung von Sende-Wellenfunktionen zur Gewinnung einer synthetichen Wellenform in einem Ultraschall-Bildgebungssystem
DE102004053161A1 (de) Betrachtungsrichtungsabhängige Erfassung oder Verarbeitung für eine 3D Ultraschallbildgebung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee