DE102005019171B4 - Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten - Google Patents

Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten Download PDF

Info

Publication number
DE102005019171B4
DE102005019171B4 DE102005019171A DE102005019171A DE102005019171B4 DE 102005019171 B4 DE102005019171 B4 DE 102005019171B4 DE 102005019171 A DE102005019171 A DE 102005019171A DE 102005019171 A DE102005019171 A DE 102005019171A DE 102005019171 B4 DE102005019171 B4 DE 102005019171B4
Authority
DE
Germany
Prior art keywords
volume
mode
data
doppler
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102005019171A
Other languages
English (en)
Other versions
DE102005019171A1 (de
Inventor
Qinglin Bellevue Ma
Rodney L. Renton Boleyn
Christopher S. Sammamish Chapman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of DE102005019171A1 publication Critical patent/DE102005019171A1/de
Application granted granted Critical
Publication of DE102005019171B4 publication Critical patent/DE102005019171B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Abstract

Verfahren für eine dreidimensionale Durchflug-Wiedergabe, wobei das Verfahren enthält:
(a) Erfassen (30) eines Satzes von Ultraschall-B-Modus-Daten, die ein Volumen darstellen;
(b) Identifizieren (34) einer Grenze aus dem Satz von Ultraschall-B-Modus-Daten mit einem Prozessor (16);
(c) Einstellen (36) einer perspektivischen Position (52) innerhalb des Volumens; und
(d) Wiedergabe (38) aus der perspektivischen Position (52) heraus, wobei die Wiedergabe mit dem Satz von Ultraschall-B-Modus-Daten erfolgt.

Description

  • HINTERGRUND
  • Die vorliegende Erfindung bezieht sich auf dreidimensionale Durchflug-Darstellungen. Insbesondere werden für die Wiedergabe eines dreidimensionalen Durchfluges eines Volumens Ultraschalldaten benutzt.
  • Eine Durchflug-Technik (Fly-Through-Technik) für eine Wiedergabe macht eine virtuelle Endoskopie verfügbar. Der Benutzer kann besser die innere Struktur der Gefäße beurteilen oder besser die Bereiche einer Stenose identifizieren. Color Power Doppler Ultraschalldaten werden bei der manuellen Verfolgung für die virtuelle Endoskopie eingesetzt. Color Dopplerdaten weisen jedoch eine schlechte räumliche Auflösung auf, so dass wenige Details über die Textur der Struktur geliefert werden. Ferner wird das benutzte Beleuchtungsmodell typischerweise willkürlich gewählt. Als Folge zeigt die veranschaulichte strukturelle Darstellung die Geometrie, liefert jedoch eine schlechte Textur-Darstellung. Beispielsweise kann ein Belag in den Bildern nicht sichtbar gemacht oder dargestellt werden.
  • In dem US-Patent Nr. 6,443,894 werden Ultraschalldaten zum Erzeugen eines Durchfluges benutzt. Color Doppler Informationen werden benutzt, um eine Grenze zu identifizieren. Die Texturinformationen werden dann aus den B-Modus-Daten durch Texturkartierung oder unter Verwendung der Grenze wiedergegeben, um die B-Modus-Daten für eine Volumenwiedergabe zu definieren. Wenn sich die Perspektive des Benutzers innerhalb eines Gefäßes ändert, wird ein neues Bild erzeugt. Es wird eine Folge von Bildern geliefert, um die Bewegung durch ein detektiertes Gefäß unter Verwendung der Dopplerinformationen zu simulieren.
  • Um räumliche Ungenauigkeiten zu vermeiden, die mit den Dopplerdaten geliefert werden, wird eine Grenze oder es werden Flächen durch die Benutzer manuell verfolgt. Die Volumenwiedergabe wird dann bereitgestellt auf der Grundlage der manuell bestimmten Grenzen. Eine manuelle Verfolgung kann zeitraubend sein.
  • Computertomographie mit höherer Auflösung und eine Magnetresonanzbildgebung sind für eine virtuelle Endoskopie verfügbar. Eine Schwelle wird ausgewählt, um in den CT- oder MR-Daten mit hoher räumlicher Auflösung einen Hohlraum zu erzeugen oder eine Grenze zu identifizieren. Die Perspektive oder Position des Benutzers wird innerhalb des Hohlraums oder an einer gewünschten Stelle relativ zur Grenze angeordnet. Es wird eine Reihe von Darstellungen wiedergegeben, die der Navigation durch oder um die Grenze bzw. des Hohlraums mit einer Kollisionserfassung entsprechen.
  • Dreidimensionale oder vierdimensionale Bildgebung (beispielsweise dreidimensionale Bildgebung als Funktion der Zeit) kann für die medizinische Diagnose, wie in der Herz- und Geburtshilfe-Diagnose, nützlich sein. Für eine Ultraschallabbildung kann jede Verringerung der Erfassungszeiten die Ausdehnung der drei- oder vierdimensionalen Behandlungsweise in den oben beschriebenen Gebieten oder anderen Gebieten wie der Gefäßdiagnose beschleunigen. Eine verbesserte Bildqualität und räumliche Auflösung sind mit Ultraschall möglich, wie im US-Patent Nr. 6,679,843 vorgesehen (Veröffentlichungsnr. 20030236460).
  • Aufgabe der Erfindung ist die Schaffung eines Systems und eines Verfahrens für eine dreidimensionale Durchflug-Wiedergabe von Ultraschalldaten mit verbesserter räumlicher Auflösung.
  • Als Einleitung enthalten die nachfolgend beschriebenen bevorzugten Ausführungsformen Verfahren und Systeme zum Erzeugen von dreidimensionalen Durchflug-Darstellungen mit Ultraschalldaten. Die Darstellungen entsprechen einer Perspektive des Beobachters innerhalb eines abgetasteten Volumens. Es werden mehrere Durchflug-Darstellungen aufeinanderfolgend gezeigt, um eine Bewegung durch das Innere, das Äußere oder längs einer Fläche eines Gefäßes oder eines anderen Aufbaus zu simulieren. Eine virtuelle Endoskopie, Selektion, Überwachung einer Plaque-Progression, Beurteilung eines Schlaganfallrisikos für die Chirurgie, eine Prüfung der Geometrie und/oder Textur der Oberfläche der Gefäße oder anderer Strukturen für eine Krankheit in vaskulären, gynäkologischen, kardialen, gastrointestinalen oder anderen Anwendungen können durch die Durchflug-Darstellung unterstützt werden. Beim Einsatz von Durchflug-Darstellungen kann die Visualisierung von Plaques, Blutgerinnseln, komplexen Gewebestrukturen und Texturen konzeptionell günstiger sein.
  • Es wird ein Volumen unter Verwendung von Ultraschalldaten mit hoher räumlicher Auflösung dargestellt. Ultraschalldaten können beispielsweise gemäß dem im US-Patent Nr. 6,679,834 beschriebenen Verfahren oder Systemen zum Darstellen eines Volumens gewonnen werden. Durch Modulieren von B-Modus-Daten mit Doppler- oder Flussinformationen, kann die räumliche Auflösung oder der Kontrast der B-Modus-Daten verbessert werden. Es wird der gleiche Satz von Ultraschalldaten zum Identifizieren einer Grenze benutzt, um eine perspektivische Position innerhalb des Volumens einzustellen und aus der perspektivischen Position wiederzugeben. Die Identifikation der Grenze und die Wiedergabe werden automatisiert oder durch einen Prozessor ausgeführt. Es können Ultraschalldaten zum Erzeugen dreidimensionaler Durchflug-Darstellungen benutzt werden, um eine virtuelle Endoskopie oder andere diagnostisch nützliche Ansichten der Struktur zu ermöglichen. Virtuelle Prozesse sind nicht invasiv, für den Patienten angenehmer, weisen wählbare oder verschiedene Tiefen des Fokus auf, können einen Durchflug von verschiedenen Arten der Anatomie ermöglichen und können als Trainingswerkzeug benutzt werden.
  • Gemäß einem ersten Aspekt wird ein Verfahren für eine dreidimensionale Durchflug-Darstellung vorgesehen. Es wird ein Satz von Ultraschall-B-Modus-Daten gewonnen, der ein Volumen darstellt. Mit einem Prozessor wird aus dem Satz der Ultraschall-B-Modus-Daten eine Grenze identifiziert. Innerhalb des Volumens wird eine perspektivische Position eingestellt. Die Veranschaulichung wird aus der perspektivischen Position mit dem Satz der Ultraschall-B-Modus-Daten durchgeführt.
  • Gemäß einem zweiten Aspekt wird ein System für eine dreidimensionale Durchflug-Darstellung aus Ultraschalldaten geschaffen. Ein Speicher ist betreibbar, einen Satz von Ultraschall-B-Modus-Daten zu speichern, die ein Volumen repräsentieren. Ein Prozessor ist betreibbar, um eine Grenze aus dem Satz der Ultraschall-B-Modus-Daten zu identifizieren, um eine perspektivische Position innerhalb des Volumens einzustellen und von der perspektivischen Position aus wiederzugeben, wobei die Wiedergabe aus dem Satz der Ultraschall-B-Modus-Daten erfolgt.
  • Gemäß einem dritten Aspekt wird ein Verfahren für eine dreidimensionale Durchflug-Darstellung aus Ultraschalldaten geschaffen. Es werden Dopplersignale erzeugt, die ein Volu men repräsentieren. Es werden B-Modus-Signale erzeugt, die das Volumen repräsentieren. Es wird ein für ein Volumen repräsentativer Satz von Ultraschalldaten als Funktion sowohl der B-Modus- als auch der Dopplersignale erzeugt. Die Funktion wird so ausgewählt, dass die Teile der B-Modus-Signale, die dem stationären Gewebe zugeordnet sind, im Wesentlichen aufrechterhalten, und Teile der B-Modus-Signale, die dem Fluss zugeordnet sind, im Wesentlichen unterdrückt werden. Eine Durchflug-Darstellung wird von dem Volumen mit dem Satz der Ultraschalldaten gemacht.
  • Gemäß einem vierten Aspekt wird ein System für eine dreidimensionale Durchflug-Darstellung aus Ultraschalldaten geschaffen. Ein Dopplerdetektor ist so betreibbar, dass er für ein Volumen repräsentative Dopplersignale erzeugt. Ein B-Modus-Detektor ist so betreibbar, dass er für das Volumen repräsentative B-Modus-Signale erzeugt. Eine Kombiniervorrichtung ist so betreibbar, dass sie einen Satz von Ultraschalldaten bildet, der repräsentativ für das Volumen als Funktion sowohl der Doppler- als auch der B-Modus-Signale ist. Ein Prozessor ist betreibbar, um eine Durchflug-Darstellung des Volumens mit dem Satz der Ultraschalldaten zu erzeugen.
  • Die vorliegende Erfindung wird durch die folgenden Ansprüche definiert und es sollte nichts in diesem Abschnitt als eine Begrenzung dieser Ansprüche angesehen werden. Weitere Aspekte und Vorteile der Erfindung werden in Verbindung mit den bevorzugten Ausführungsformen diskutiert und können später unabhängig oder in Kombination beansprucht werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Komponenten der Figuren sind nicht notwendigerweise maßstabsgerecht, sie betonen die Prinzipien der Erfindung, statt sie nur zu erläutern. Darüber hinaus werden Teile in den verschiedenen Ansichten, die einander entsprechen, mit den gleichen Bezugszeichen angegeben.
  • 1 ist ein Blockdiagramm einer Ausführungsform eines Systems für eine dreidimensionale Durchflug-Darstellung von Ultraschalldaten;
  • 2 ist ein Flussdiagramm einer Ausführungsform eines Verfahrens für eine dreidimensionale Durchflug-Darstellung der Ultraschalldaten;
  • 3 zeigt eine perspektivische Position relativ zu einem Gefäß oder einer schlauchförmigen Struktur bei einer Ausführungsform; und
  • 4 ist eine grafische Darstellung einer Ausführungsform einer dreidimensionalen Durchflug-Darstellung.
  • DETAILLIERTE BESCHREIBUNG DER ZEICHNUNGEN UND DER GEGENWÄRTIG BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 zeigt eine Ausführungsform eines Systems 10 für eine dreidimensionale Durchflug-Darstellung aus Ultraschalldaten. Das System 10 besitzt einen Datenerfassungsabschnitt 12, einen Speicher 14, einen Prozessor 16, eine Benutzereingabevorrichtung 18 und ein Display 20. Es können zusätzliche, andersartige oder weniger Komponenten vorgesehen sein. Zum Beispiel wird der Datenerfassungsabschnitt 12 ohne den Speicher 14 oder mit ihm ausgebildet. Als weiteres Beispiel sind die Benutzereingabevorrichtung 18 oder das Display 20 nicht vorgesehen. Das System 10 ist ein medizinisches, diagnostisches Ultraschallsystem, kann aber auch eine Arbeitsstation, ein PC, ein Server, ein Netzwerk oder eine andere Vorrichtung zum Erstellen dreidimensionaler Darstellungen sein.
  • Der Datenerfassungsabschnitt 12 umfasst einen Flussdetektor 22, einen B-Modus-Detektor 24 und einen Kombinierer 26. Bei einer Ausführungsform ist der Erfassungsabschnitt 12 durch eines oder mehrere der im US-Patent Nr. 6,679,843 beschriebenen Systeme verwirklicht.
  • Der Flussdetektor 22 ist ein Dopplerdetektor, der betreibbar ist, Dopplersignale zu erzeugen, die für ein Volumen repräsentativ sind. Der B-Modus-Detektor 24 ist so betreibbar, dass er B-Modus-Signale erzeugt, die für das Volumen repräsentativ sind. Der Kombinierer 26 ist so betreibbar, dass er als Funktion sowohl der Doppler- als auch der B-Modus-Signale einen für das Volumen repräsentativen Satz von Ultraschall-B-Modus-Daten bildet. Beispielsweise ist die Funktion implementiert als eine modulierte, nicht lineare Funktion, um im Wesentlichen Teile des B-Modus-Signals, die dem stationären Gewebe zugeordnet sind, aufrechtzu halten und Teile der B-Modus-Signale, die dem Fluss zugeordnet sind, im Wesentlichen zu unterdrücken. Zusätzliche, verschiedene oder weniger Komponenten können in den anderen Ausführungsformen vorgesehen sein.
  • B-Modus und Dopplersignale werden unter Verwendung einer modulierten, nicht linearen Funktion kombiniert. Das stationäre Gewebe und andere Gewebe werden gegenüber Stördaten durch Unterdrückung der B-Modus-Bildsignale hervorgehoben, wo ein Fluss vorhanden ist. Die modulierte, nicht lineare Funktion ermöglicht eine optimierte Stördatenentfernung in großen Gefäßen und eine Identifikation von kleinen Gefäßen innerhalb eines Grauskalen- oder B-Modus-Bildes für radiologische Anwendungen. Da Dopplerbildsignale gegenüber Artefakten der vertikalen Strahlbreite weniger empfindlich sind als B-Modus-Bildsignale, identifizieren die Dopplerbildsignale kleine Gefäßstrukturen mit größerer Wahrscheinlichkeit. Diese höhere Empfindlichkeit wird für die B-Modus-Abbildung benutzt, um Grauskalen-Signale, die kleinere Gefäßstrukturen repräsentieren hinzuzufügen (d.h. die Intensität zu reduzieren). Bei alternativen Ausführungsformen wird die modulierte, nicht lineare Kombination in kardiologischen Anwendungen, wie zur Abbildung von sich bewegenden Herzstrukturen, ausgeführt. In weiteren alternativen Ausführungsformen erzeugt die modulierte, nicht lineare Funktion Farbdisplayindizes.
  • Der B-Modus-Detektor 24 enthält einen oder mehrere Prozessoren, einen Digitalsignalprozessor, eine anwendungsspezifische integrierte Schaltung, eine Analogvorrichtung, eine Digitallogikvorrichtung oder Kombinationen hiervon zum Erfassen der Intensität oder Hüllcharakteristik eines empfangenen Signals. Bei einer Ausführungsform enthält der B-Modus-Detektor 24 einen Mischer, einen Log-Kompressor (Protokoll-Kompressor) und Steuerschaltungen für die Ausgabe eines B-Modus-Bildsignals, welches das Gewebe darstellt. Der B-Modus-Detektor 24 konvertiert empfangene Ultraschallsignale in detektierte und Logkomprimierte Bildsignale.
  • Der Dopplerdetektor 22 enthält einen oder mehrere Prozessoren, einen digitalen Signalprozessor, eine anwendungsspezifische integrierte Schaltung, eine Analogvorrichtung, eine digitale Logikschaltung und Kombinationen hiervon. Bei einer Ausführungsform enthält der Dopplerdetektor 22 ein Stördatenfilter, einen Ecken drehenden Speicher (corner turning me mory) und eine Abschätzvorrichtung für Abschätzungen der Geschwindigkeit, der Energie, der Varianz und/oder anderer auf die Bewegung bezogener Abschätzungen. Wenn hier der Begriff „Doppler" benutzt wird, sind in dem Begriff „Doppler" eine Autokorrelation, Kreuzkorrelation oder andere auf der Zeit oder Frequenz beruhende Techniken zum Identifizieren der Bewegung oder des Flusses eingeschlossen. Der Dopplerdetektor 22 beurteilt die Dopplersignal-Geschwindigkeits- und -Energieparameter. Der Ecken drehende Speicher speichert strahlgeformte Proben, bis eine ausreichende Anzahl von Signalen gesammelt worden ist, um die Ausführung von Dopplermessungen zu ermöglichen. Das Stördatenfilter enthält ein Hochpass- oder Bandpassfilter, um wahlweise eine größere Unterdrückung von Signalen aus stationären oder sich langsam bewegenden Objekten, wie sie im Zusammenhang mit Gewebebewegungen stehen, vorzusehen. Für die Dopplergewebebildgebung wird das Stördatenfilter umgangen oder anderweitig programmiert, um mit dem sich bewegenden Gewebe in Zusammenhang stehende Informationen durchzulassen. Die Dopplerparameterschätzvorrichtung beurteilt die mittlere Geschwindigkeit und die Gesamtenergie des Dopplersignals. Die Geschwindigkeits- und Energiesignale können begrenzt werden, um Signale aus stationären oder sich langsam bewegenden Objekten zu unterdrücken. Es kann entweder eine Geschwindigkeitsschwelle, eine Energieschwelle oder es können Kombinationen aus beiden eingesetzt werden. Die Schwellenwerte werden als Funktion der Anwendung bestimmt. Falls jeder der Geschwindigkeits- oder Energieparameter unterhalb einer entsprechenden Schwelle liegt, können beide Parameter, die die selbe Stelle darstellen, unterdrückt oder auf Null gesetzt werden. Die Benutzersteuerung der Verstärkung für ein log-detektiertes Energiesignal wie auch einer tiefen Verstärkungsvariablen kann nach der Abschätzung durchgeführt werden. Das Energiesignal wird log-komprimiert, um den Dynamikbereich des Signals zu reduzieren. Sowohl das Geschwindigkeits- wie auch das Energiesignal kann räumlich gefiltert werden, um Rauschen und Signalaussetzer in Folge von Flecken oder anderer Veränderungen zu entfernen. Bei alternativen Ausführungsformen werden nur Geschwindigkeitsabschätzungen oder nur Energieabschätzungen ausgegeben.
  • Der B-Modus-Detektor 24 und der Dopplerdetektor 22 erzeugen B-Modus- bzw. Doppler-Bildsignale, die für den abgebildeten Bereich, wie ein Volumen, repräsentativ sind. Elektronische, mechanische Mittel oder Kombinationen hieraus werden benutzt, um mehrere Ebenen oder Linien innerhalb eines Volumens abzutasten. Die Bildsignale werden an einen oder mehrere Abtastkonverter geliefert. Es können separate digitale Abtastkonverter für die B- Modus- und für die Dopplersignale vorgesehen werden oder es kann der gleiche Abtastkonverter benutzt werden. Der Abtastkonverter konvertiert die Signale aus einem akustischen Gitter in ein für die Anzeige geeignetes Rastergitter. Die abtastungskonvertierten Bildsignale werden durch eine Kombiniervorrichtung 26 ausgegeben. Alternativ werden die Signale in ein dreidimensionales Gitter mit oder ohne Abtastungsumwandlung konvertiert. Die Umwandlung in das dreidimensionale Gitter erfolgt vor oder nach der Kombiniervorrichtung 26. Bei einer weiteren Alternative werden Darstellungen aus Daten der Abtastebene oder anderen empfangenen Daten ohne Umwandlung in ein dreidimensionales Gitter erstellt.
  • Die Kombiniervorrichtung 26 enthält einen oder mehrere digitale Signalprozessoren, allgemeine Prozessoren, Steuerprozessoren, anwendungsspezifische integrierte Schaltungen, Analogvorrichtungen, digitale Logikvorrichtungen und Kombinationen hieraus. Die Verwendung eines Prozessors zum Ausführen der Kombination erlaubt ein flexibles Programmieren oder Ausführen der Kombinationsfunktion oder anderer Datenmanipulationen. Bei alternativen Ausführungsformen ist die Kombiniervorrichtung 26 vor dem Abtastkonverter angeordnet. In weiteren alternativen Ausführungsformen ist die Kombiniervorrichtung 26 als Teil einer weiteren Komponente, wie des Abtastkonverters, implementiert.
  • Bei einer Ausführungsform enthält die Kombiniervorrichtung 26 eine Nachschlagtabelle und einen zugeordneten Videospeicher und Multiplexer. Tabellenausgestaltungen und weitere Systeme sind beispielsweise im US-Patent Nr. 5,961,460 beschrieben. In alternativen Ausführungsformen sind ein Farbzuordnungsspeicher und eine zugeordnete Steuerkonstruktion vorgesehen. Zum Beispiel gibt der Abtastkonverter einen Mehrfachbitpixelcode aus, der eine Kombination aus B-Modus- und Dopplerbildsignalen darstellt. Der Pixelcode wird dann in einer Graustufen- oder einer nicht Graustufen-Farbe unter Verwendung einer Farbaufzeichnung aufgezeichnet, die die kombinierende Funktion beinhaltet. Nachschlagtabellen oder Farbaufzeichnungsstrukturen erlauben die Implementation irgendeiner der verschiedenen möglichen Kombinationsfunktionen.
  • Bei einer weiteren alternativen Ausführungsform enthält die Kombiniervorrichtung 26 eine Mischschaltung. Bei einer Ausführungsform ist die Mischschaltung eine anwendungsspezifische integrierte Schaltung, die mit der Abtastkonverterschaltung als ein Teil eines Signal verarbeitenden Pfades integriert ist. Eine Vielzahl getrennter Vorrichtungen implementiert die Kombinationsfunktion. Zum Beispiel ist eine Vielzahl von Multiplexern zum selektiven Weiterleiten von B-Modus- und Dopplerbildsignalen und Gewichten zu verschiedenen Multiplizierern vorgesehen. Addierer, Verzögerungsglieder oder Speicherpuffer oder andere Vorrichtungen können ebenfalls zum Implementieren einer affinen Transformation oder einer modulierten, nicht linearen Kombinationsfunktion enthalten sein. Zum Beispiel kann ein Multiplizierer zum Gewichten eines normalisierten Dopplerbildsignals vorgesehen sein. Das gewichtete Dopplerbildsignal wird dann mit dem Dopplerbildsignal durch den Multiplizierer multipliziert, um das Dopplerbildsignal als eine Funktion des Dopplerbildsignals zu modulieren. Alternativ wird das B-Modus-Bildsignal als eine Funktion des B-Modus-Bildsignals moduliert. Ein anderer Multiplizierer multipliziert die Ausgangsgröße des Dopplersignalmultiplizierers mit dem B-Modus-Bildsignal. Bei alternativen Ausführungsformen wird an Stelle eines Multiplizierers ein Addierer benutzt, um die Ausgangsgröße des Dopplermultiplizierers mit dem B-Modus-Bildsignal aufzusummieren. Die Mischschaltung gibt einen Wert aus, der einer Graustufenintensität entspricht: Die der Mischschaltung zugeordnete Schaltungsanordnung kann ein Programmieren zulassen, sieht aber wahrscheinlich eine geringere Programmierfähigkeit vor als wenn die Kombiniervorrichtung 26 bei einem Prozessor implementiert wird.
  • Die Kombiniervorrichtung 26 ist so betreibbar, dass sie individuelle Displayindizes, die für den abgebildeten Bereich repräsentativ sind, als eine modulierte, nicht lineare oder andere Funktion von sowohl den Doppler- als auch den B-Modus-Bildsignalen berechnet bzw. erzeugt. Bei einer Ausführungsform hebt die modulierte, nicht lineare Funktion Teile des B-Modus-Bildsignals, die dem stationären Gewebe zugeordnet sind hervor oder erhält sie aufrecht und unterdrückt im Wesentlichen Teile des B-Modus-Bildsignals, die dem Fluss zugeordnet ist. Die hier verwendeten Begriffe „Hervorheben" oder „Aufrechterhalten" schließen das Passieren von nicht abgeänderten Signalen oder die nur eine minimale Reduktion relativ zu den unterdrückten Signalen aufweisen, ein. Zum Beispiel wird ein B-Modus-Bildsignal hervorgehoben oder aufrechterhalten, wenn es mit einer 0,75-fachen oder größeren Gewichtung multipliziert wird. Der Begriff Unterdrückung wird hier benutzt, um eine relative Reduktion darzustellen, wie das Multiplizieren eines B-Modus-Bildsignals mit einer 0,75-fachen oder einer geringeren Gewichtung. „Im Wesentlichen" steht für den Bereich der Möglichkeiten für eine Hervorhebung und eine Unterdrückung und für elektrische oder mechanische Ausführungsvariationen.
  • Für eine Kombination wird eines der Doppler- und B-Modus-Bildsignale als Funktion des gleichen oder des anderen der B-Modus- bzw. Dopplerbildsignale moduliert. Zum Beispiel wird das Dopplerbildsignal gewichtet oder durch ein Gewicht multipliziert. Das Gewicht kann adaptiv, wie die Auswahl des Gewichtes als Funktion des gleichen der Doppler- oder B-Modus-Bildsignale sein. Zusätzlich oder alternativ wird eines der Doppler- oder B-Modus-Bildsignale als Funktion des anderen der Doppler- bzw. B-Modus-Bildsignale moduliert. Zum Beispiel wird das B-Modus-Bildsignal mit dem gewichteten Dopplerbildsignal multipliziert. Die Modulation wird dann als Multiplikationsfunktion ausgeführt. Bei alternativen Ausführungsformen werden lineare oder andere Funktionen zum Kombinieren der Doppler- und B-Modus-Bildsignale implementiert.
  • Das durch die Kombiniervorrichtung 26 ausgegebene Bildsignal wird an das Display 20, eine weitere Verarbeitungsvorrichtung und/oder den Speicher 14 geliefert. Das Bildsignal enthält ein Grauwertstufen-, Gewebe- oder B-Modus-Bild. Bei alternativen Ausführungsformen enthält das durch die Kombiniervorrichtung 26 ausgegebene Bildsignal ein Farb-, ein RGB- oder ein YUV-Signal. Das kombinierte Signal kann ferner mit einem Doppler- oder einem anderen Signal überlagert sein oder kann ein B-Modus- oder ein anderes Signal überlagern. Zum Beispiel gibt die Kombiniervorrichtung 26 Bildsignale aus, die die Gewebestruktur als ein B-Modus-Bild repräsentieren. Es wird dann dem kombinierten Bildsignal ein Dopplerfarbbild überlagert.
  • In den oben beschriebenen Ausführungsformen werden Modulations-B-Modus-Daten als Funktion des Flusses oder Dopplerdaten geliefert, es können aber andere Ausführungsformen zum Liefern von Ultraschall mit hoher Auflösung verwendet werden. Zum Beispiel wird eine harmonische Bildgebung (harmonic imaging) benutzt, um die räumliche Auflösung der erworbenen B-Modus-Daten zu erhöhen. Als weiteres Beispiel wird eine Hochfrequenz-Fundamentalbildgebung (high frequency fundamental imaging) benutzt. Obwohl bei einer Ausführungsform Daten hoher Auflösung als B-Modus-Daten geliefert werden, können andere Arten von Daten hoher Auflösung, wie Dopplerultraschalldaten mit hoher Auflösung geliefert werden. Es kann eine räumliche Filterung oder auch keine vorgesehen sein. Der Kontrast zwischen Pixeln und zwischen Datenproben kann vergrößert werden, um räumliche Daten hoher Auflösung zu liefern. Ein B-Modus-Detektor 24 alleine, ein Kontrastmitteldetektor, ein Detektor von harmonischen Reaktionen aus dem Gewebe, eine Vielzahl von Filtern, die für unterschiedliche Bandbreiten vorgesehen sind und eine Kombination von Signalen aus diesen Filtern, Sendewellenformern, Empfangswellenformern, eine Übertragung aus anderen Quellen von Ultraschalldaten, Kombinationen hiervon und/oder andere Komponenten können den Erfassungsabschnitt 12 bilden. Der Abschnitt 12 ist betreibbar, Daten zu erfassen, die ein Volumen darstellen, wie eine Vielzahl von Datenframes, die verschiedene Abtastebenen innerhalb eines Volumens repräsentieren, verschiedene Abtastlinien innerhalb eines Volumens oder Daten, die auf andere Weise beabstandet durch das Volumen, längs oder abseits des dreidimensionalen Gittermusters verlaufen.
  • Der Speicher 14 ist ein RAM, ein ROM, ein Harddrive, ein entfernbarer Medienspeicher, eine digitale Videodisk, eine Kompaktdisk, ein magnetischer Medienpuffer, besteht aus Kombinationen hiervon oder aus anderen bekannten oder später entwickelten Vorrichtungen zum Speichern von Ultraschalldaten. Eine Kommunikationsvorrichtung, die in der Lage ist Ultraschalldaten über Draht- oder drahtlose Netzwerke zum Speicher, Prozessorcache oder zu einer anderen Kommunikationsvorrichtung zu senden, die nicht Teil des beschriebenen Systems 10 ist, kann den Speicher ebenfalls bilden. Bei einer Ausführungsform ist der Speicher 14 als kinematographischer Speicher (CINE-Speicher) konfiguriert, es können aber auch andere Speicherformate vorgesehen werden. Der Speicher 14 ist betreibbar, einen Satz Ultraschalldaten, wie B-Modus-Daten, die ein Volumen repräsentieren, zu speichern. Die Daten werden gespeichert als individuelle Proben, Frames oder Daten darstellende Ebenen, Abtastlinien oder andere Datenformate. Die Daten können in einem Polarkoordinatenformat oder in einem karthesischen Koordinatenformat vor oder nach einer Umwandlung in ein dreidimensionales Gitter sein. Im Speicher 14 können zusätzliche Informationen, wie zusätzliche Sätze von Daten gespeichert werden, die das gleiche oder verschiedene Volumen repräsentieren. Es können auch Datensätze, die das Volumen zu verschiedenen Zeiten repräsentieren, gespeichert werden.
  • Der Prozessor 16 ist ein allgemeiner Prozessor, ein Steuerprozessor, ein Digitalsignalprozessor, eine anwendungsspezifische integrierte Schaltung, ein Feld programmierbares Gate-Array, eine Digitalschaltung, eine Analogschaltung, er enthält Kombinationen hiervon oder eine andere bekannte oder später entwickelte Vorrichtung zur Verarbeitung von Daten. Bei einer Ausführungsform ist der Prozessor 16 eine einzige Vorrichtung, der Prozessor 16 enthält aber bei anderen Ausführungsformen eine Vielzahl von über das System 10 verteilten Vorrichtungen. Die gleiche Komponente oder verschiedene Komponenten des Prozessors 10 können verschiedene Funktionen implementieren. Zum Beispiel ist der Prozessor 16 so betreibbar, dass er eine Grenze aus einem Satz von Ultraschall-B-Modus-Daten oder anderer Daten identifiziert. Der Prozessor 16 ist auch betreibbar, eine perspektivische Position innerhalb des Volumens einzustellen und aus der perspektivischen Position wiederzugeben. Bei einer Ausführungsform werden die gleichen Daten benutzt zum Identifizieren der Grenze wie ein Satz von Ultraschall-B-Modus-Daten zur Wiedergabe einer Durchflug-Darstellung benutzt wird. Bei alternativen Ausführungsformen werden zur Identifizierung einer Grenze andere Daten als für die Darstellung benutzt.
  • Der Prozessor 16 ist ein 3 D-Bildprozessor auf einem einzigen entfernt stehenden Computer für eine Rekonstruktion in Realzeit oder verzögert und eine Wiedergabe in einer Ausführungsform. Alternativ werden innerhalb eines Ultraschallerfassungssystems ein Bordcomputer und/oder separate Prozessoren oder Computer benutzt. Der Prozessor 16 ist ein Intel Pentium PC (400 + MHz) oder ein SGI (O2 oder Oktan zum Beispiel) für die Zusammenarbeit mit dem Speicher 14. Der Speicher 14 ist groß, wie in der Größe von 128 MB, 256 MB oder einem größeren RAM. Bilddatenframes können vor der Übertragung unter Verwendung einer geeigneten Komprimiertechnik, wie JPEG, komprimiert werden. Nachdem die Bilddaten empfangen worden sind, werden sie dekomprimiert. Zum Beispiel wird eine 3 D-Wiedergabe auf einer entfernten Workstation durchgeführt. Somit kann die Wiedergabe und Anzeige einer dreidimensionalen Darstellung entweder während der Bildgebungssitzung oder nach der Bildgebungssitzung sein.
  • Der Prozessor 16 kann Software benutzen, um die 3 D-Darstellung auf der Grundlage der oben diskutierten Eingangsinformationen zu konstruieren. Für die 3 D-Rekonstruktion sind verschiedene kommerziell erhältliche Softwareprodukte und Vorrichtungen verfügbar. Zum Beispiel wird der von Siemens Medical Solutions erhältliche 3 D-Betrachter eingesetzt, wie er für die Computertomographie oder die Magnetresonanzbildgebung benutzt wird. Andere Rekonstruktions- und Wiedergabesoftware für irgendeine Bildgebungsmodalität kann benutzt werden. Zum Beispiel bietet TomTec GmbH (Unterschleißheim, Deutschland) Software und mechanische Vorrichtungen speziell für 3 D-Ultraschall an. Die Software ist in der Lage eine 3 D-Rekonstruktion auf der Grundlage mehrerer verschiedener Abtastformate, wie Rotations- und Freihandabtastung, zu liefern. Life Imaging System Inc. (London, Ontario, Kanada) liefern ebenfalls Software und mechanische Abtastvorrichtungen für 3 D-Ultraschall. VayTek Inc. (Fairfield, Iowa) erzeugt eine Wiedergabesoftware für 3 D-volumetrische regelmäßig beabstandete, orthogonale Gitterdaten. Als ein weiteres Beispiel bietet Advanced Visual Systems Inc. (Waltham, NA) ein AVS 5 Softwarepaket zum Konstruieren und Wiedergeben von 3 D-Darstellungen aus der Vielzahl von Bilddatenframes. Alternativ wird die Software für die Rekonstruktion der 3 D-Darstellung für das oben beschriebene System 10 speziell geschrieben. Es wird eine Standardsprache, wie C oder C + + bei Windows NT® (Microsoft) und ein Grafikanwendungsprogrammierinterface (beispielsweise Open GL® (Silicon Graphics Inc.)) benutzt. Es können auch andere Sprachen, Programme und Computer benutzt werden.
  • Der Prozessor ist so betreibbar, dass er innerhalb des Volumens einen Hohlraum identifiziert und die perspektivische Position innerhalb des Hohlraumes einstellt. Der Prozessor 16 detektiert eine Grenze bzw. gibt ein Bild als Funktion der Grenze wieder. Für eine virtuelle Endoskopie repräsentieren Ultraschalldaten eine Struktur, wie ein Blutgefäß, eine Herzkammer, eine Grenzfläche zwischen Flüssigkeit und Gewebe, eine Grenzfläche zwischen verschiedenen Geweben oder andere identifizierbare Grenzflächen. Der Prozessor 16 bestimmt die Grenze so, dass ein Abschnitt aus einem Gefäß aus Frames von Ultraschalldaten dargestellt wird. Die Grenze wird mit B-Modus-Ultraschalldaten detektiert, die mit Dopplerdaten moduliert oder nicht moduliert sind.
  • Es wird ein oder es werden mehrere verschiedene Verfahren zum Bestimmen der Grenze benutzt. Bei einer Ausführungsform wird die Grenze als Funktion einer Schwelle bestimmt. Eine Schwelle wird bei den Frames der Daten oder dem 3 D-Gitter der Daten angewandt. Alle Stellen, die Datenwerten entsprechen, welche einen Schwellenwert von oben nach unten oder umgekehrt überschreiten, stellen die Grenze dar. Zum Beispiel wird eine geschlossene Struktur, wie ein Gefäß, im Schnitt abgebildet. Das Gravitationszentrum der umschlossenen Struktur, welche durch den Rahmen der Daten dargestellt wird, wird bestimmt. Bei verschiedenen Winkeln vom Gravitationszentrum aus, wie alle 10°, wird die erste räumliche Stelle als ein Grenzpunkt ausgewählt, wo Daten den Schwellwert überschreiten. Die Grenzpunkte werden verbunden, durch einen Tiefpass gefiltert oder in anderer Weise benutzt, um die Grenze zu bilden. Dieser Prozesses wird für jeden Rahmen der Daten wiederholt, um die Grenze in drei Dimensionen zu identifizieren.
  • Bei einer anderen Ausführungsform wird die Grenze als Funktion des maximalen Gradienten bestimmt. Die Datenframes oder Daten in dem 3 D-Gitter werden längs jeder Dimension gefiltert. Nach dem Filtern der Daten wird die Ableitung zwischen räumlichen Stellen bestimmt. Die Ableitung repräsentiert den Gradienten zwischen benachbarten Punkten. Der maximale Gradient repräsentiert die Grenze. Weitere Ausführungsformen, wie sie beispielsweise im US-Patent 6,443,894 beschrieben sind, können zum Identifizieren des Hohlraums oder einer anderen Grenze benutzt werden.
  • Die perspektivische Position wird innerhalb des Volumens relativ zur Grenze oder zum Hohlraum platziert. Zum Beispiel zeigt 3 ein Platzieren der perspektivischen Position 52 innerhalb eines durch das Gefäß 50 gebildeten Hohlraums. Die perspektivische Position 52 wird durch den Prozessor 16 automatisch platziert oder in Reaktion auf die Benutzereingabe. Obwohl die perspektivische Position als innerhalb des Gefäßes 50 liegend dargestellt ist, kann sie auch außerhalb des Gefäßes 50 liegen.
  • Der Prozessor 16 ist so betreibbar, dass er mit dem Satz Ultraschalldaten eine Durchflug-Darstellung des Volumens wiedergibt. Die Wiedergabe erfolgt aus der perspektivischen Position, wie aus einer Position innerhalb eines Hohlraums in dem Volumen. Eine einzige Durchflug-Darstellung liefert ein Bild, das das Volumen darstellt, wie es aus der Sicht innerhalb des Volumens wahrgenommen wird. Zum Beispiel zeigt 4 die Abbildung 60 einer Durchflug-Darstellung des Gefäßes 50 (3), die aus der in 3 dargestellten perspektivischen Position 52, erstellt worden ist. Der Ring 62, der für diese Beschreibung hervorgehoben bzw. gezeigt ist, entspricht der Grenze, die die perspektivische Position 52 längs einer Ebene umgibt. Die für diese Beschreibung hervorgehobenen bzw. gezeigten Gitterlinien 64, entsprechen der von der perspektivischen Position 52 aus projizierten Grenze,. Die B-Modus- oder anderen -Ultraschalldaten, die für die Wiedergabe benutzt werden, liefern die beobachteten Flächen oder die Textur der Grenze und für Bereiche jenseits der Grenze. Die Flächen oder die Textur werden durch Wiedergeben von Daten an der Grenze für die Pixel ohne Flächenwiedergabe bzw. Strukturabbildung geliefert. Bei alternativen Ausführungsformen kann eine oder es können beide, die Oberflächen Wiedergabe oder die Texturabbildung, benutzt werden. Die hervorgehobenen Linien werden in der Abbildung nicht geliefert, können hier aber vorgesehen werden.
  • Der Prozessor 16 gibt das Volumen der Durchflug-Darstellung als Funktion der Grenze wieder. Die Grenze wird benutzt, um die für die Volumenwiedergabe benutzten Daten auszuwählen. Zum Beispiel werden für die Volumenwiedergabe Daten benutzt, die die räumlichen Stellen an einer Grenze oder zwischen zwei Grenzen repräsentieren. Ein Datensatz, der gefiltert wurde, um Flussdaten zu entfernen, Gewebedaten jedoch aufrechtzuerhalten, liefert eine Grenzdetektion durch bloße Wiedergabe. Einmal ausgewählt, werden die Daten zu einem Volumen in einer von verschiedenen Möglichkeiten gemacht, wie Alpha-Mischung (alpha blending), Projektion mit maximaler Intensität oder minimaler Intensität. Alternativ werden die Daten an der Grenze ohne weitere Mischung verwendet. Das Volumen wird aus einer Benutzerperspektive innerhalb einer umschlossenen Struktur oder außerhalb der Struktur wiedergegeben. Basierend (1) auf einem Bereich von Beobachtungswinkeln, wie 120°, und den Inkrementalwerten zwischen jedem Beobachtungswinkel, wie 1 °, oder (2) einer Anzahl von verschiedenen Benutzerperspektiven längs einer 3 D-Kurve, werden dreidimensionale Projektionen bestimmt. Jede Projektion entspricht perspektivischen Positionsbeobachtungswinkeln, die nach außen strahlen. Die 3 D-Datenproben werden für jeden Beobachtungswinkel ausgewählt oder längs der Sichtlinien oder „in" das 3 D-Gitter oder Volumen summiert. Somit wird ein Wert für jeden Bereich in einer Beobachtungsrichtung bestimmt.
  • Für eine Alpha-Mischung wird jede 3 D-Datenprobe einer Gewichtung unterworfen. Die Gewichtungswerte werden ausgewählt, um nahe Objekte hervorzuheben. So wird eine Wahrnehmung von vorderen und hinteren Bereichen erzeugt. Bei einer alternativen Ausführungsform entsprechen die Gewichte den jedem Voxel (Volumenelement) als Funktion der Da ten zugeordneten Deckfähigkeitswerte. Alpha-Mischung erlaubt eine Betrachtung der inneren Objekte bezogen auf die umgebenden Objekte. Statt einer Alpha-Mischung können Maximum-, Minimum oder andere Funktionen benutzt werden. Für eine Maximum- oder Minimumintensitätsprojektion werden die Maximum- bzw. Minimum-3-D-Datenproben an Stelle einer Summierung längs der jeweiligen Linie benutzt. Andere Betrachtungstechniken können eingesetzt werden.
  • Durch Wiedergeben einer Vielzahl von Durchflug-Darstellungen in sequentieller Reihenfolge liefert der Prozessor 16 Betrachtungen der Grenze oder des Volumens aus unterschiedlichen Richtungen und/oder verschiedenen perspektivischen Positionen innerhalb des Volumens. Zum Beispiel gibt der Prozessor 16 eine Vielzahl von Durchflug-Darstellungen wieder, die verschiedene Teile eines Gefäßes oder einer Kammer darstellen. Als ein weiteres Beispiel gibt der Prozessor eine Vielzahl von Durchflug-Darstellungen wieder, die wenigstens einen Teil einer virtuellen Endoskopie darstellen. Die perspektivische Position wird innerhalb oder längs einer Grenze bewegt, um das Durchfliegen wenigstens eines Teils des Volumens nachzubilden. Bei einer Ausführungsform werden Änderungen in den Sichtwinkeln oder in der perspektivischen Position als Teil der Programmierung des Prozessors 16 automatisiert. Alternativ steuert der Benutzer die Änderungen.
  • Die Benutzereingabevorrichtung 18 ist ein Trackball, eine Maus, es sind zugeordnete Tasten, Software gesteuerte Tasten, ein Touchscreen, ein Joystick oder andere Eingabevorrichtungen. Die dem Benutzer gezeigte Perspektive wird in Abhängigkeit von der Benutzereingabevorrichtung 18 gesteuert. Der Benutzer ändert die perspektivische Position für die Wiedergabe durch Auswählen einer visuellen Position. Positionsänderungen werden dem Benutzer durch Ändern der angezeigten Wiedergabe gezeigt. Zum Beispiel tritt, abhängig von der Eingabe des Benutzers, die Sicht des Benutzers einer Durchflug-Darstellung in ein Gefäß ein, verlässt es oder bewegt sich längs eines Gefäßes, des Herzens oder einer anderen Grenze. Der Benutzer kann die Bewegung aushalten, zoomen, oder die Beobachtungswinkel drehen, um verschiedene Teile der Grenze, wie eines Gefäßes oder einer Herzkammerwand oder einer Klappe, zu untersuchen. Die visuellen Positionen für die Wiedergabe werden ausgewählt, um die Geometrie und/oder die Textur der wiedergegebenen Grenze zu untersuchen. Zum Beispiel veranlasst der Benutzer das System 10, um eine Reihe von Abbildungen der Halsschlagader zu erzeugen. Die Bilderreihe entspricht der Bewegung der visuellen Position längs eines Pfades durch die Struktur. Der Benutzer veranlasst die Bewegungsperspektive in der Nähe eines Wahrscheinlichkeitsbereiches einer Stenose an der Grenze zu stoppen. Durch Überprüfen der wiedergegebenen Grenze können Plaque oder andere Abnormalitäten detektiert werden.
  • Das Display 20 ist ein CRT, LCD, OLED, Plasmaschirm, Projektor, eine Kombination hieraus oder es sind andere jetzt bekannte oder später entwickelte Anzeigevorrichtungen. Das Display 20 ist so betreibbar, dass es eine oder mehrere Durchflug-Darstellungen anzeigt. Zum Beispiel liefert eine Folge von Abbildungen eine virtuelle Endoskopie. Die Abbildungen sind Durchflug-Darstellungen, die durch den Prozessor 16 wiedergegeben werden.
  • 2 zeigt eine Ausführungsform eines Verfahrens für eine dreidimensionale Durchflug-Wiedergabe. Das Verfahren wird unter Verwendung des oben beschriebenen Systems 10 oder eines hiervon verschiedenen Systems ausgeführt. Zusätzliche, verschiedene oder weniger Vorgänge können in der gleichen oder in einer anderen Reihenfolge, als in 2 gezeigt, vorgesehen werden. Zum Beispiel werden Ultraschalldaten im Schritt 30 ohne die Kombination des Schrittes 32 gewonnen. Als weiteres Beispiel werden die kombinierten Daten des Schritts 32 nur für die Grenzendetektion oder nur für die Wiedergabe benutzt, wobei verschiedene Typen von Daten für das andere, Grenzdetektion oder Wiedergabe, verwendet werden. Bei einem weiteren Beispiel wird die perspektivische Position in Schritt 36 vor der Identifizierung der Grenze in Schritt 34 eingestellt.
  • In Schritt 30 wird ein Satz von Ultraschalldaten, wie B-Modus-Daten, die ein Volumen repräsentieren, gewonnen. Der Satz von Ultraschalldaten hat irgendein Format, wie es für die Wiedergabe in einer Erfassungsanordnung oder in einer zweidimensionalen Abbildungsanordnung rekonstruiert wird. Der Ultraschalldatensatz wird aus einer einzigen Art von Daten gebildet, kann aber auch verschiedene Arten von Daten, wie B-Modus- und Dopplerdaten enthalten. Der Datensatz repräsentiert das Volumen zu im Wesentlichen einem einzigen Zeitpunkt, kann das Volumen aber auch als Funktion der Zeit darstellen. Bei einer Ausführungsform repräsentiert der Satz der Ultraschall-B-Modus-Daten das Volumen zu verschiedenen Zeiten, die mit einem Herzzyklus synchronisiert sind. Die verschiedenen Zeiten entsprechen den verschiede nen Phasen des Zyklus oder der gleichen Phase verschiedener Zyklen. Die Daten werden aus einem Speicher, einer Datenübertragung oder in Realzeit aus einem Erfassungssystem erhalten.
  • In Schritt 32 werden B-Modus-Signale mit Fluss- oder Dopplersignalen kombiniert, um die räumliche Auflösung und/oder den Kontrast zu vergrößern. Es werden B-Modus- und Dopplersignale, die für das Volumen repräsentativ sind, erzeugt und erfasst. Die B-Modus-Abbildungssignale weisen eine harmonische Information, eine fundamentale Information, eine räumlich gefilterte Information, eine zeitlich gefilterte Information, eine in der Intensität nicht verarbeitete Information oder andere das Gewebe darstellende Signale auf. Die Dopplerbildsignale sind Geschwindigkeits-, Energie-, Varianz- oder andere Flussabschätzungen für verschiedene räumliche Stellen. Die Abschätzungen werden unter Anwendung einer Filterung, Begrenzung oder anderer Prozesse verarbeitet oder werden unverarbeitet, wie durch einen Dopplerabschätzer, ausgegeben. Die Kombination kann in einem abtastungskonvertierten oder in einem zweidimensionalen Bildgebungserfassungsformat oder nach der Rekonstruktion der Daten zu einem 3 D-Gitter oder einem anderen Format erfolgen.
  • Ein Satz von für das Volumen repräsentativen Ultraschall-B-Modus-Daten wird auf der Grundlage der Kombination mit den Dopplersignalen erzeugt. Die B-Modus-Signale werden als eine modulierte, nicht lineare Funktion sowohl der Doppler- als auch der B-Modus-Signale erzeugt. Zum Beispiel hält die nicht lineare Funktion im Wesentlichen Teile der B-Modus-Signale, die dem stationären Gewebe zugeordnet sind, aufrecht und unterdrückt im Wesentlichen Teile der B-Modus-Signale, die dem Fluss zugeordnet sind. Das Dopplerbildsignal wird begrenzt, um dem Gewebe und dem Fluss zugeordnete Dopplerbildsignale zu identifizieren. Zum Beispiel wird die Anwendung spezieller Geschwindigkeits- und/oder Energieschwellen angewandt. Die erhaltenen Daten eines einzigen Typs der Abschätzung, wie der Geschwindigkeit oder der Energie, werden ausgegeben. Bei alternativen Ausführungsformen werden mehrere Typen von Dopplerabschätzungen ausgegeben.
  • Die B-Modus- und Dopplerbildsignale werden kombiniert, um individuelle, für das Volumen repräsentative Daten zu erzeugen. Zum Beispiel werden, unter Verwendung einer modulierten, nicht linearen Funktion, sowohl der Doppler- als auch der B-Modus-Bildsignale, ein B-Modus-Bildsignal und ein Dopplerbildsignal, die die selbe räumliche Stelle repräsentie ren, kombiniert. Es können verschiedene Kombinationsfunktionen ausgeführt werden. Bei einer Ausführungsform wird ein B-Modus- oder Graustufensignal ausgegeben gemäß der Funktion: Bout = Bin(1 – α·f(D)), (1)wobei Bout das kombinierte Ausgangssignal oder die Anzeigeinformation bedeutet, Bin das B-Modus-Bildsignal oder die B-Modus-Helligkeit ist, D das originale Dopplersignal ist, f eine Abbildungsfunktion ist, die so normalisiert ist, dass sie innerhalb des Bereichs 0 bis 1 liegt, und a ein Gewicht ist, das steuert, wie stark die Dopplerinformation die Gewebehelligkeit beeinflusst, wenn sich die Flussenergie oder -geschwindigkeit ändert. Diese Kombination stellt sich auf einen Color-Flash-Artefakt ein oder vermeidet ihn und entfernt aus dem B-Modus-Bildsignal Artefakte der Elevationstrahlbreite. In der obigen Gleichung (1) ist das B-Modus-Bildsignal mit dem Dopplerbildsignal moduliert. Bei alternativen Ausführungsformen ist das Dopplerbildsignal durch das B-Modus-Bildsignal moduliert.
  • Der Zweck der Funktion f ist es, das Dopplersignal hervorzuheben und/oder einen starken und/oder schwachen Fluss abzuschwächen, um dem B-Modus-Signal ein natürliche Aussehen zu verschaffen. Zum Beispiel ist in einer Nierenabbildung, in der sowohl Bögen als auch eine Arterie vorliegt, das Dopplersignal in der Arterie sehr stark, in den Bögen jedoch sehr schwach. Ohne irgendeine Abbildungsfunktion, die ein bedeutsames Blending (Vermischung) der Bögen vorsieht, kann die Arterie überzeichnet sein. Wenn andererseits die Arterie durch Blending natürlicher dargestellt werden soll, kann das Blending der Bögen zu schwach sein, um sichtbare Effekte aufzuweisen. Durch Anwendung einer nicht linearen Übertragungsabbildung, zum Beispiel einer logarithmischen Kompression können die schwachen Bögen hervorgehoben werden, während der Arterienfluss abgeschwächt werden kann, wodurch ein besserer Ausgleich zwischen den beiden erzeugt werden kann. Schließlich wird das Dopplerbildsignal durch Teilen des Dopplerbildsignals mittels des maximalen Dopplerwertes, wie eines 255-Wertes, normalisiert. Es können auch andere Normalisierungsfunktionen benutzt werden. Obwohl eine Normalisierung auf eine Einheit dargestellt ist, können andere Normalisierungsfunktionen angewandt werden, die zu verschiedenen Bereichen führen, wie Bereichen mit ei nem Maximalwert oberhalb oder unterhalb 1. Bei alternativen Ausführungsformen wird das B-Modus-Bildsignal normalisiert.
  • Das Gewicht, α, moduliert das Dopplerbildsignal. Das Gewicht ist als Funktion eines Wertes ausgelegt. Irgendwelche verschiedene Werte können benutzt werden, wie B-Modus- oder Dopplerbildsignale. Zum Beispiel adaptiert das Gewicht als Funktion eines Dopplerbildsignals Modulation oder Multiplikation beim Dopplerbildsignal. Wenn beispielsweise das Dopplerbildsignal zunimmt, nimmt das Gewicht ab. Bei alternativen Ausführungsformen sind komplexere funktionelle Beziehungen zwischen dem Dopplerbildsignal und dem Gewicht vorgesehen. Zum Beispiel werden anwendungsspezifische Funktionen benutzt. Im Allgemeinen ist der Gewichtswert ebenfalls niedrig, wo der Dopplerwert niedrig ist, um zu vermeiden, dass Flash-Artefakte in die B-Modus-Information moduliert werden. Bei einer Ausführungsform nimmt der Gewichtswert linear mit Vergrößerungen im Energiewert bis zu einem bestimmten Punkt zu und dann wird der selbe Gewichtswert für Mittelbereichsenergiewerte benutzt. Für höhere Energiewerte wird ein anderer, z.B. ein niedrigerer Gewichtswert benutzt. Es können verschiedene funktionelle Endpunkte und Ausgangspunkte vorgesehen werden, wie auch verschiedene funktionelle Beziehungen. Das Gewicht ist ein Wert zwischen 0 und 1, es können aber andere Bereiche vorgesehen werden. Das Gewicht steuert effektiv die Empfindlichkeit. Bei einer Ausführungsform für starke Flusssignale, wie sie einem großen Gefäß zugeordnet sind, wird das Gewicht als hoher Wert ausgewählt, so dass das B-Modus-Bildsignal, welches eine Störung darstellt, entfernt wird. Für Bildgebungsanwendungen, die kleinen Gefäßen zugeordnet sind, kann im Hinblick auf ein mehr erwünschtes bzw. erwartetes Aussehen ein kleinerer Gewichtswert für hohe Dopplerbildsignale benutzt werden.
  • Das erhaltene gewichtete oder modulierte Dopplerbildsignal moduliert dann das B-Modus-Bildsignal. Durch Multiplizieren des Gewichtes mit dem Dopplerbildsignal und Subtrahieren des Ergebnisses von 1, werden niedrige Dopplerwerte mit einer geringen Einflussnahme auf das B-Modus-Bildsignal erzeugt, die zu einer Verbesserung des B-Modus-Bildsignals führen. Für hohe Werte des Dopplerbildsignals wird sogar für B-Modus-Signale eines hohen Wertes das B-Modus-Bildsignal reduziert oder unterdrückt. Liegt zum Beispiel ein starker Fluss vor, wird das Gewicht als hoch oder nahe dem Einheitswert liegend ausgewählt. Als Folge hiervon wird das B-Modus-Bildsignal mittels eines im Wesentlichen O-Wertes multipliziert oder moduliert, was zu Anzeigeinformationen führt, die die Abwesenheit eines Signals repräsentieren, wie die einem Gefäß zugeordnete Farbe schwarz. Liegt ein schwacher Fluss vor, wie er einem Flash zugeordnet ist, wird das Gewebesignal aufrechterhalten oder nur geringfügig relativ zur den übrigen Gewebesignalen reduziert. Es könnte auch eine normale Dopplerverstärkung benutzt werden. Eine normale Dopplerverstärkung kann nicht vom Flusssignal abhängig sein, sondern kann die Empfindlichkeit gleichmäßiger erhöhen/verringern.
  • Die oben beschriebene modulierte, nicht lineare Funktion hält im Wesentlichen eine geringe Einflussnahme auf den Teil des B-Modus-Bildsignals aufrecht, der dem stationären Gewebe zugeordnet ist und unterdrückt im Wesentlichen Teile des B-Modus-Bildsignals, welches dem Fluss zugeordnet ist (d.h. hebt das stationäre Gewebebildsignal gegenüber dem dem Fluss zugeordneten B-Modus-Bildsignal hervor). Das Begrenzen, Störsignal-Filtern und/oder andere Prozesse zum Entfernen von dem Gewebe zugeordneten Dopplerbildsignalen verhindern eine unerwünschte Veränderung der stationären Gewebesignale. Die oben angegebene Kombinationsfunktion unterdrückt im Wesentlichen die mit dem Gewebe zusammenhängenden Dopplerbildsignale, die als niedrige oder im Wesentlichen mit Null bewertete Dopplersignale vorliegen. Als Folge hiervon unterdrückt die Kombination im Wesentlichen die mit kleinen Gefäßstellen verbundenen B-Modus-Bildsignale dort, wo die B-Modus-Bildsignale ein Gewebesignal in einer kleinen Gefäßstelle anzeigen. Der erhaltene niedrige Wert oder der die Abwesenheit des Signal anzeigende Wert identifiziert mit größerer Wahrscheinlichkeit das kleine Gefäß in dem erhaltenen B-Modus-Bild. Im Allgemeinen werden B-Modus-Bildsignale unterdrückt, die Dopplerbildsignalen zugeordnet sind, welche Werte innerhalb etwa eines oberen Drittels des Bereiches der möglichen Dopplerbildsignale aufweisen. Andere Unterdrückungsbereiche, wie eine obere Hälfte, können auf der Grundlage der adaptiven Gewichtung benutzt werden. Der Ausdruck „etwa" wird benutzt, um die allmähliche Änderung in der normalisierenden Gewichtungsfunktion in Betracht zu ziehen, mit der das B-Modus-Bildsignal moduliert wird. Unter Verwendung der obigen Kombinationsfunktion werden Elevations-Artefakte im B-Modus-Bildsignal im Wesentlichen als Funktion des Dopplerbildsignals unterdrückt.
  • Die Ausgabe der oben diskutierten Kombinationsfunktion wird für eine Graustufenabbildung benutzt oder als Graustufenwert generiert. Zum Beispiel wird die obige Kombinationsfunktion für eine radiologische Bildgebung von im Wesentlichen des stationären Gewebes be nutzt. Der Ausdruck „Im Wesentlichen" wird benutzt, um eine Gewebebewegung in Folge des zyklischen Blutflusses, des Atmens, der Patientenbewegung oder anderer langsamer Bewegungen zu berücksichtigen. Durch Multiplizieren des B-Modus-Bildsignals mit dem gewichteten Dopplerbildsignals werden Störungen und Artefakte entfernt. Ein höheres B-Modus-Bildsignal wird erzeugt, wo das Dopplerbildsignal niedrig ist. Das erhaltenen radiologische Bild identifiziert kleine Gefäße besser und entfernt Störungen aus großen Gefäßen.
  • Bei weiteren alternativen Ausführungsformen wird die Kombination zum Erzeugen nur eines B-Modus-Bildes oder nur eines Dopplerbildes wiederholt. Zum Beispiel werden B-Modus- und Dopplerbildsignale kombiniert, um ein B-Modus-Ausgangssignal zu erzeugen. Das B-Modus-Ausgangssignal wird dann als B-Modus-Eingangssignal zum Kombinieren mit dem Dopplerbildsignal benutzt, um ein weiteres B-Modus-Ausgangssignal zu erzeugen.
  • Es sind andere Formen der Kombinationsfunktion möglich. Zum Beispiel wird ein B-Fluss- oder Graustufenausgangssignal, das sowohl das Gewebe wie auch den Flüssigkeitsfluss darstellt unter Verwendung der folgenden Kombinationsfunktion geliefert: Bout = Bin + αD.
  • Das Gewicht, α, ist entweder konstant oder adaptiv. Bei einer Ausführungsform ist das Gewicht adaptiv als Funktion des Dopplerbildsignals, D, oder des B-Modus-Bildsignals, Bin. Das Gewicht liegt innerhalb des Bereichs von 0 bis 1. Das Dopplersignal D ist nicht normalisiert, kann aber normalisiert werden. Das Doppler-Bildsignal wird mit dem Gewicht moduliert oder multipliziert. Das gewichtete Dopplerbildsignal und ein B-Modus-Bildsignal werden dann addiert. Bei alternativen Ausführungsformen wird beim B-Modus-Bildsignal die gleiche Gewichtung oder es wird eine verschiedene Gewichtung vorgenommen. Ein Graustufen- oder B-Modus-Ausgangssignal wird zur Darstellung von sowohl dem Fluss wie auch dem Gewebe geliefert. Die adaptive Kombination liefert eine gute Auflösung, Empfindlichkeit und Eindringung durch eine sanfte Mischung der Dopplerinformation mit der B-Modus-Information. Diese B-Modus-Flussabbildung kann für verschiedene Anwendungsfälle, wie für bildgebende Kontrastmittel, benutzt werden. Bei alternativen Ausführungsformen enthalten die aus der Aufsummierungskombinationsfunktion resultierenden Display-Indizes eine Farbinformation. Bei einer Ausführungsform ist α = 0,5. Dieser konstante Wert liefert einen ausreichenden Kontrast für das Flusssignal gegenüber dem umgebenden Gewebe ohne die gewünschte Information zu entfernen.
  • In Schritt 34 wird mit einem Prozessor aus dem erfassten Satz von Ultraschalldaten, wie B-Modus-Daten, eine Grenze identifiziert. Zum Beispiel wird mit den Ultraschalldaten automatisch ein Hohlraum identifiziert. Ein Teil der gesamten Grenze innerhalb des Volumens wird identifiziert. Durch automatisches Identifizieren der Grenze mit einem Prozessor wird ein Nachverfolgen (Tracing) von interessierenden Bereichen oder Grenzen durch den Benutzer vermieden. Der Benutzer kann eine Schwelle oder andere Parameter eingeben, die für die automatische Detektion oder Identifikation einer Grenze benutzt werden. Bei anderen Ausführungsformen ändert der Benutzer eine automatisch detektierte Grenze oder gibt die Grenze direkt manuell ein. Ein Teil der Grenze kann manuell eingegeben werden und dann unter Verwendung von automatisierten Prozessen verfeinert werden. Bei einer Ausführungsform werden sämtliche Grenzen, die mit einem ausreichenden Gradienten oder einer anderen Charakteristik innerhalb des Volumens in Verbindung stehen, identifiziert. Alternativ wird die Grenze als Funktion einer perspektivischen Position identifiziert. Die perspektivische Position wird innerhalb eines Hohlraums oder eines anderen Bereiches des Volumens platziert. Die Stelle und der Datenwert aller Daten längs verschiedener Beobachtungswinkel aus der perspektivischen Position, die einen Schwellenwert der Änderung überschreiten, wenn z.B. von niedrigen zu hohen Werten gegangen wird, werden als Grenze identifiziert.
  • Die Durchflug-Darstellungen des Volumens werden mit den erfassten Ultraschalldaten wiedergegeben. In Schritt 36 wird die perspektivische Position innerhalb des Volumens für die Wiedergabe und/oder Grenzdetektion eingestellt. Bei einer Ausführungsform wählt der Benutzer innerhalb eines zweidimensionalen Bildes oder einer dreidimensionalen Wiedergabe des Volumens eine perspektivische Position aus. Zum Beispiel wählt der Benutzer, unter Verwendung einer Eingabevorrichtung, auf der Grundlage einer zweidimensionalen oder dreidimensionalen Bilddarstellung anfängliche Start- und Stop-Positionen aus, um die gewünschte Startposition (beispielsweise das Ende eines Pfeils) und die gewünschte Anfangsrichtung des Weges (beispielsweise die Richtung, in die der Pfeil zeigt) anzuzeigen. Außerdem kann die Länge des Pfeils so ausgebildet werden, dass sie die gewünschte Anfangsgeschwindigkeit repräsentiert, mit der sich die Wiedergabevorrichtung durch das Volumen „bewegt". Es können verschiedene Benutzeroptionen verfügbar sein, wie Start, Stopp, Richtung, Geschwindigkeit des Durchflugs, umgekehrter Durchflug, Drehen, Zoomen, Tiefe des Beobachtungsfeldes, Entsprechung normaler 2 D- oder 3 D-Bilder, Eintauchanzeige, virtuelle Realitätsanzeige und stereoskopische Anzeige. Es sind verschiedene zusätzliche oder weniger Benutzereingaben und/oder Wechselbeziehungen möglich. Alternativ positioniert ein Prozessor automatisch die perspektivische Position an einer vorbestimmten Stelle innerhalb des Volumens oder an einer mit einer speziellen Charakteristik im Zusammenhang stehenden Stelle, wie einer mit dem Fluss oder anderen Indikationen eines Gefäßes oder eines Hohlraums in Zusammenhang stehenden Stelle.
  • In Schritt 38 wird die Durchflug-Darstellung aus der perspektivischen Position wiedergegeben. Bei einer Ausführungsform erfolgt die Wiedergabe mit den gleichen Ultraschalldaten, die zum Identifizieren der Grenze benutzt werden, wie dem gleichen Satz von Ultraschall-B-Modus-Daten. Die Verwendung der gleichen Daten vermeidet Abtastverzögerungen, die mit der Erfassung verschiedener Typen von Daten verbunden sind, ferner Verarbeitungsverzögerungen, die mit dem Rekonstruieren und Wiedergeben verschiedener Typen von Daten verbunden sind und/oder Verarbeitungsverzögerung, die im Zusammenhang mit dem Kombinieren von Daten durch ein dreidimensionales Volumen hindurch stehen. Bei der Ausführungsform, bei der die Kombination von Schritt 32 benutzt wird oder andere Daten mit hoher räumlicher Auflösung benutzt werden, kann eine klarere Gefäß- oder Grenzdetektion die Folge sein. Eine höhere räumliche Auflösung erlaubt eine einfachere Segmentierung, wie die Verwendung einer Schwellen- oder Maximal-Gradientendetektion einer Grenze. Unter Verwendung von Dopplerdaten vor der Identifizierung einer Grenze können die Dopplerdaten als ein zweidimensionaler Bildgebungsprozess, unter Verwendung einer Interpolation zur Rekonstruktion verschiedener Arten von Daten zu einem dreidimensionalen Gitter, für die Wiedergabe angewandt werden. Die vergrößerte räumliche Auflösung kann eine genauere Wand-Ortsbestimmung und Geometrie ermöglichen. Wo Ultraschall-B-Modus-Daten als Satz der Ultraschalldaten benutzt werden, liegen reduzierte Flash-Artefakte vor.
  • Es kann irgendeine der verschiedenen Wiedergabetechniken benutzt werden. Unter Verwendung von Ultraschall-B-Modus-Daten können eine dreidimensionale Wiedergabe unter Verwendung von Alpha-Blending, eine Maximal-Projektion, eine Minimal-Projektion oder andere Projektionstechniken vorgesehen werden, die frei von einer Flächen- oder Texturwiedergabe sind. Die B-Modus-Daten liefern die Darstellung der Textur oder Fläche, ohne dass Daten auf einer speziellen Grenze abgebildet werden müssen. Die der identifizierten Grenze zugeordneten Daten werden für die Wiedergabe benutzt. Eine Projektionswiedergabe längs verschiedener Beobachtungswinkel kann computermäßig effizienter sein als wenn sie durch eine Flächenwiedergabe oder eine andere Texturabbildung geliefert würde. Alternativ werden eine Flächenwiedergabe und/oder Texturabbildung benutzt.
  • Für pulsierende Ziele erfolgt die Wiedergabe als eine Funktion der Zeit, die ein Gefäß in einer bestimmten Herzphase darstellt oder das Gefäß über eine Vielzahl von Herzphasen darstellt. Ein Ausblenden wird benutzt, um die Erfassung der Ultraschalldaten aus dem Patienten zu triggern. Um die dreidimensionale Bildgebung zu verbessern werden nur Bilder, die ausgewählten Abschnitten des ECG-Zyklus, des Atemzyklus oder beiden entsprechen, benutzt. Beim ECG-Ausblenden wird ein Fenster mit einer festen Zeitdauer nach dem ECG-Impulsmaximum ausgewählt. Beim Atemzyklusausblenden ist es oft am einfachsten den Patienten zu bitten, seinen oder ihren Atem für die kurze Dauer einer Ultraschallabtastung anzuhalten. Alternativ kann die Brustbewegung unter Verwendung eines Verschiebungssensors aufgezeichnet werden und die Daten können für einen Abschnitt des Atemzyklus ausgewählt werden. Bei einer weiteren Alternative kann die Temperatur der Luft in den Nasenlöchern des Patienten detektiert werden. Als eine Alternative zum Ausblenden können Daten, die eine besondere Phase des Zyklus darstellen, ausgewählt und benutzt werden.
  • Bei anderen Ausführungsformen werden Daten, die verschiedene Phasen des Zyklus repräsentieren, benutzt, um eine Folge von Bildern zu erzeugen, die die Änderungen im abgebildeten Volumen als Funktion der Zeit und des Zyklus zeigen. Datenframes aus verschiedenen Punkten im Herzzyklus oder einem anderen Zyklus werden erhalten. Die zu einem vorgegebenen Zeitpunkt wiedergegebenen Bilder entsprechen dem geeigneten Abschnitt des Zyklus. Die Grenze und die Wiedergabe werden für jede Zeit innerhalb des Zyklus getrennt ausgeführt. Wenn der Benutzer die die Struktur repräsentierenden Bilder betrachtet, ändert sich die Struktur als Funktion der Zeit.
  • Durch sequentielles Wiedergeben einer Vielzahl von Durchflug-Darstellungen von verschiedenen Teilen des Volumen, der Grenze, des Gefäßes oder der Kammer, wird eine virtuelle Endoskopie geschaffen. Die perspektivische Position wird entweder in Reaktion auf die Eingabe des Benutzers oder automatisch eingestellt. Für eine automatische Einstellung wird die perspektivische Position zu einer Stelle mit einer ähnlichen Entfernung und einem ähnlichen Winkel relativ zur Grenze verändert, wie durch Verwendung eines Kollisionsverhinderungsalgorithmus. Die perspektivische Position bewegt sich längs einer Achse eines Gefäßes, um verschiedene Positionen einer Kammer oder längs einer oder mehrerer Achsen auf einer Grenzfläche.

Claims (28)

  1. Verfahren für eine dreidimensionale Durchflug-Wiedergabe, wobei das Verfahren enthält: (a) Erfassen (30) eines Satzes von Ultraschall-B-Modus-Daten, die ein Volumen darstellen; (b) Identifizieren (34) einer Grenze aus dem Satz von Ultraschall-B-Modus-Daten mit einem Prozessor (16); (c) Einstellen (36) einer perspektivischen Position (52) innerhalb des Volumens; und (d) Wiedergabe (38) aus der perspektivischen Position (52) heraus, wobei die Wiedergabe mit dem Satz von Ultraschall-B-Modus-Daten erfolgt.
  2. Verfahren nach Anspruch 1, wobei (d) frei von einer Flächenwiedergabe ist.
  3. Verfahren nach Anspruch 1 oder 2, wobei (b) ein automatisches Identifizieren (34) eines Hohlraums umfasst, und wobei (c) ein Einstellen der perspektivischen Position (52) innerhalb des Hohlraums umfasst.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei (c) ein Einstellen (36) der perspektivischen Position (52) als Funktion der Benutzereingabe umfasst, und wobei (b) das Identifizieren (34) der Grenze als eine Funktion der perspektivischen Position (52) umfasst.
  5. Verfahren nach einem der Ansprüche 1 bis 4, ferner enthaltend: (e) Einstellen der perspektivischen Position (52); und (f) Wiederholen von (d) als Funktion der eingestellten perspektivischen Position (52).
  6. Verfahren nach einem der Ansprüche 5, wobei (e) abhängig von der Benutzereingabe ausgeführt wird.
  7. Verfahren nach einem der Ansprüche 5 oder 6, wobei (e) und (f) das Durchführen einer virtuellen Endoskopie enthalten.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei (a) das Erfassen (30) des Satzes von Ultraschall-B-Modus-Daten als Darstellung des Volumens zu verschiedenen Zeiten, die mit einem Herzzyklus synchronisiert sind, umfasst und wobei (d) die Wiedergabe (38) als Zeitfunktion der Darstellung eines Gefäßes in einer speziellen Herzphase oder der Darstellung des Gefäßes über eine Vielzahl von Herzphasen umfasst.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei (a) enthält: (a1) Erzeugen von für das Volumen repräsentativen Dopplersignalen; (a2) Erzeugen von für das Volumen repräsentativen B-Modus-Signalen; und (a3) Erzeugen (32) den für das Volumen repräsentativen Satz von Ultraschall-B-Modus-Daten als modulierte, nicht lineare Funktion sowohl der Doppler- als auch der B-Modus-Signale, wobei die nicht lineare Funktion im Wesentlichen die Teile der B-Modus-Signale aufrechterhält, die dem stationären Gewebe zugeordnet sind und im Wesentlichen die Teile des B-Modus-Signale unterdrückt, die dem Fluss zugeordnet sind.
  10. System (10) für eine dreidimensionale Durchflug-Wiedergabe von Ultraschalldaten, wobei das System (10) enthält: einen Speicher (14), der betreibbar ist, einen Satz von Ultraschall-B-Modus-Daten zu speichern, die ein Volumen repräsentieren; einen Prozessor (16), der betreibbar ist, eine Grenze aus dem Satz der Ultraschall-B-Modus-Daten zu identifizieren, innerhalb des Volumens eine perspektivische Position (52) einzustellen und aus der perspektivischen Position (52) wiederzugeben, wobei die Wiedergabe mit dem Satz der Ultraschall-B-Modus-Daten erfolgt.
  11. System (10) nach Anspruch 10, wobei der Prozessor (16) betreibbar ist, einen Hohlraum innerhalb des Volumens zu identifizieren und die perspektivische Position (52) innerhalb des Hohlraums einzustellen.
  12. System (10) nach Anspruch 10 oder 11, ferner enthaltend: eine Benutzer-Eingabevorrichtung (18), wobei der Prozessor (16) betreibbar ist, die perspektivische Position (52) als eine Funktion der Benutzereingabe aus der Benutzer-Eingabevorrichtung (18) einzustellen.
  13. System (10) nach einem der Ansprüche 10 bis 12, ferner enthaltend: ein Display (20), das betreibbar ist, eine virtuelle Endoskopie auf der Grundlage der Wiedergabe durch den Prozessor (16) wieder zu geben.
  14. System (10) nach einem der Ansprüche 10 bis 13, ferner enthaltend: einen Doppler-Detektor (22), der betreibbar ist, Doppler-Signale zu erzeugen, die für das Volumen repräsentativ sind; einen B-Modus-Detektor (24), der betreibbar ist, B-Modus-Signale zu erzeugen, die für das Volumen repräsentativ sind; einen Kombinierer (26), der betreibbar ist, den für das Volumen repräsentativen Satz von Ultraschall-B-Modus-Daten als modulierte, nicht lineare Funktion von sowohl dem Doppler- wie auch dem B-Modus-Signalen zu bilden.
  15. Verfahren für eine dreidimensionale Durchflug-Wiedergabe von Ultraschall-Daten, wobei das Verfahren enthält: (a) Erzeugen (30) von für das Volumen repräsentativen Doppler-Signalen; (b) Erzeugen (30) von für das Volumen repräsentativen B-Modus-Signalen; und (c) Erzeugen (32) von für das Volumen repräsentativen Ultraschall-Daten, als Funktion sowohl von den Doppler- als auch den B-Modus-Signalen, wobei die Funktion im wesentlichen Teile der B-Modus-Signale aufrechterhält, die dem stationären Gewebe zugeordnet sind und im wesentlichen Teile der B-Modus-Signale unterdrückt, die dem Fluss zugeordnet sind; und (d) Wiedergabe (38) einer Durchflug-Darstellung des Volumens mit den Ultraschall-Daten.
  16. Verfahren nach Anspruch 15, wobei (d) enthält: (d1) Einstellen einer perspektivischen Position (52) innerhalb des Volumens; und (d2) Wiedergabe (38) als eine Funktion der perspektivischen Position (52).
  17. Verfahren nach Anspruch 15 oder 16, wobei (d) frei von einer Flächenwiedergabe ist.
  18. Verfahren nach einem der Ansprüche 15 bis 17, ferner enthaltend: (e) ein automatisches Identifizieren eines Hohlraums mit den Ultraschall-Daten.
  19. Verfahren nach einem der Ansprüche 16 bis 18, wobei (d) das Einstellen der perspektivischen Position (52) und die Wiederholung von (d2) als Funktion der eingestellten perspektivischen Position (52) umfasst.
  20. Verfahren nach einem der Ansprüche 15 bis 19, wobei (d) die Wiedergabe (38) einer Vielzahl von Durchflug-Darstellungen umfasst, die verschiedene Teile eines Gefäßes oder einer Kammer innerhalb des Volumens repräsentieren.
  21. Verfahren nach einem der Ansprüche 15 bis 20, wobei (d) die Wiedergabe (38) der Durchflug-Darstellung aus einer Perspektive umfasst, die abhängig von einer Benutzereingabe eingestellt wird.
  22. Verfahren nach einem der Ansprüche 15 bis 21, wobei (d) das Durchführen einer virtuellen Endoskopie umfasst.
  23. System (10) für eine dreidimensionale Durchflug-Darstellung von Ultraschall-Daten, wobei das System (10) enthält: einen Doppler-Detektor (22), der zum Erzeugen von für ein Volumen repräsentativen Doppler-Signalen betreibbar ist; einen B-Modus-Detektor (24), der zum Erzeugen von für das Volumen repräsentativen B-Modus-Signalen betreibbar ist; einen Kombinierer (26), der betreibbar ist, kombinierte Ultraschall-Daten, die für das Volumen repräsentativ sind, als Funktion von sowohl den Doppler- als auch den B-Modus-Signalen zu bilden; und einen Prozessor (16), der betreibbar ist, eine Durchflug-Darstellung des Volumens mit den kombinierten Ultraschall-Daten wiederzugeben.
  24. System (10) nach Anspruch 23, wobei der Kombinierer (26) betreibbar ist, die kombinierten Ultraschall-Daten zu bilden, wobei die nicht lineare Funktion im wesentlichen Teile der B-Modus-Signale aufrechterhält, die dem stationären Gewebe zugeordnet sind, und im wesentlichen Teile der B-Modus-Signale unterdrückt, die dem Fluss zugeordnet sind.
  25. System (10) nach Anspruch 23 oder 24, wobei der Prozessor (16) betreibbar ist, die Durchflug-Darstellung als eine Funktion der perspektivischen Position (52) innerhalb eines Hohlraums in dem Volumen wiederzugeben.
  26. System (10) nach einem der Ansprüche 23 bis 25, wobei der Prozessor (16) betreibbar ist, eine Vielzahl von Durchflug-Darstellungen wiederzugeben, die verschiedene Teile eines Gefäßes oder einer Kammer repräsentieren.
  27. System (10) nach einem der Ansprüche 23 bis 26, ferner enthaltend: eine Benutzer-Eingabevorrichtung (18), wobei der Prozessor (16) betreibbar ist, die Durchflug-Darstellung aus einer in Abhängigkeit von der Benutzereingabe aus der Benutzereingabevorrichtung (18) eingestellten Perspektive wiederzugeben.
  28. System (10) nach einem der Ansprüche 23 bis 27, wobei der Prozessor (16) betreibbar ist, eine Vielzahl von Durchflug-Darstellungen, die wenigstens einen Teil einer virtuellen Endoskopie repräsentieren, wiederzugeben.
DE102005019171A 2004-06-16 2005-04-25 Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten Active DE102005019171B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/870,092 2004-06-16
US10/870,092 US8021300B2 (en) 2004-06-16 2004-06-16 Three-dimensional fly-through systems and methods using ultrasound data

Publications (2)

Publication Number Publication Date
DE102005019171A1 DE102005019171A1 (de) 2006-02-09
DE102005019171B4 true DE102005019171B4 (de) 2007-11-22

Family

ID=35481579

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005019171A Active DE102005019171B4 (de) 2004-06-16 2005-04-25 Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten

Country Status (2)

Country Link
US (1) US8021300B2 (de)
DE (1) DE102005019171B4 (de)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1680767A2 (de) * 2003-11-03 2006-07-19 Bracco Imaging, S.P.A. Dynamische crop-box-bestimmung für optimierte anzeige einer röhrenartigen struktur in endoskopischer ansicht (crop box)
US7460117B2 (en) * 2004-05-25 2008-12-02 Siemens Medical Solutions Usa, Inc. Sliding texture volume rendering
US7717849B2 (en) * 2004-07-06 2010-05-18 Gerneral Electric Company Method and apparatus for controlling ultrasound system display
US10026338B2 (en) 2004-11-30 2018-07-17 The Regents Of The University Of California Embedded motion sensing technology for integration within commercial ultrasound probes
US10726741B2 (en) 2004-11-30 2020-07-28 The Regents Of The University Of California System and method for converting handheld diagnostic ultrasound systems into ultrasound training systems
US11627944B2 (en) 2004-11-30 2023-04-18 The Regents Of The University Of California Ultrasound case builder system and method
US8480404B2 (en) * 2004-11-30 2013-07-09 Eric A. Savitsky Multimodal ultrasound training system
US7563228B2 (en) * 2005-01-24 2009-07-21 Siemens Medical Solutions Usa, Inc. Stereoscopic three or four dimensional ultrasound imaging
US8007437B2 (en) * 2006-11-08 2011-08-30 Siemens Aktiengesellschaft Method and apparatus for interactive 4-dimensional (4D) virtual endoscopy
JP5022700B2 (ja) * 2006-12-27 2012-09-12 株式会社東芝 超音波診断装置
CN101290684B (zh) * 2007-04-19 2012-07-18 深圳迈瑞生物医疗电子股份有限公司 三维超声图像的快速体绘制方法与装置
US9173638B2 (en) 2007-06-04 2015-11-03 Biosense Webster, Inc. Cardiac mechanical assessment using ultrasound
DE102007057553B4 (de) * 2007-11-30 2012-02-16 Siemens Ag Verfahren zur Untersuchung eines menschlichen oder tierischen Körpers sowie medizinische Bildgebungsvorrichtung hierfür
CN107007267A (zh) * 2007-12-31 2017-08-04 真实成像有限公司 用于分析热图像的方法、设备和系统
US10299686B2 (en) 2008-03-28 2019-05-28 Real Imaging Ltd. Method apparatus and system for analyzing images
EP3858416B1 (de) 2008-05-06 2023-11-01 Corindus, Inc. Kathetersystem
US8494250B2 (en) * 2008-06-06 2013-07-23 Siemens Medical Solutions Usa, Inc. Animation for conveying spatial relationships in three-dimensional medical imaging
WO2010025338A1 (en) 2008-08-29 2010-03-04 Corindus Ltd. Catheter control system and graphical user interface
US8237784B2 (en) * 2008-11-10 2012-08-07 Medison Co., Ltd. Method of forming virtual endoscope image of uterus
WO2010107916A1 (en) 2009-03-18 2010-09-23 Corindus Inc. Remote catheter system with steerable catheter
JP5395538B2 (ja) * 2009-06-30 2014-01-22 株式会社東芝 超音波診断装置及び画像データ表示用制御プログラム
US20110002518A1 (en) * 2009-07-01 2011-01-06 General Electric Company Method and system for processing ultrasound data
WO2011046874A1 (en) 2009-10-12 2011-04-21 Corindus Inc. Catheter system with percutaneous device movement algorithm
US9962229B2 (en) 2009-10-12 2018-05-08 Corindus, Inc. System and method for navigating a guide wire
US10835207B2 (en) * 2009-12-23 2020-11-17 Biosense Webster (Israel) Ltd. Fast anatomical mapping using ultrasound images
US9833293B2 (en) 2010-09-17 2017-12-05 Corindus, Inc. Robotic catheter system
US20120095341A1 (en) * 2010-10-19 2012-04-19 Toshiba Medical Systems Corporation Ultrasonic image processing apparatus and ultrasonic image processing method
US9179892B2 (en) 2010-11-08 2015-11-10 General Electric Company System and method for ultrasound imaging
US9033879B2 (en) * 2011-02-08 2015-05-19 General Electric Company Portable imaging system with remote accessibility
JP5755122B2 (ja) * 2011-11-30 2015-07-29 富士フイルム株式会社 画像処理装置、方法、及びプログラム
JP6121766B2 (ja) * 2012-03-26 2017-04-26 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及び画像処理方法
US11631342B1 (en) 2012-05-25 2023-04-18 The Regents Of University Of California Embedded motion sensing technology for integration within commercial ultrasound probes
CN103072668B (zh) * 2012-12-12 2016-12-21 北京理工大学 一种实现船舶曲面分段虚拟流水式建造的方法
ITGE20130032A1 (it) * 2013-03-19 2014-09-20 Esaote Spa Metodo e dispositivo di imaging del sistema cardiovascolare
US20150065877A1 (en) * 2013-08-30 2015-03-05 General Electric Company Method and system for generating a composite ultrasound image
US10380919B2 (en) 2013-11-21 2019-08-13 SonoSim, Inc. System and method for extended spectrum ultrasound training using animate and inanimate training objects
KR102243024B1 (ko) * 2014-03-12 2021-04-21 삼성메디슨 주식회사 약물의 확산 경계를 표시하는 방법 및 이를 위한 초음파 장치
US10624611B2 (en) * 2014-08-29 2020-04-21 Siemens Medical Solutions Usa, Inc. Dynamic power doppler imaging in ultrasound
CN111494008A (zh) 2014-12-05 2020-08-07 科林达斯公司 用于引导导线的系统和方法
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11600201B1 (en) 2015-06-30 2023-03-07 The Regents Of The University Of California System and method for converting handheld diagnostic ultrasound systems into ultrasound training systems
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10321878B2 (en) * 2016-12-22 2019-06-18 Biosense Webster (Israel) Ltd. Pulmonary vein display in two dimensions
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10896628B2 (en) 2017-01-26 2021-01-19 SonoSim, Inc. System and method for multisensory psychomotor skill training
US10956552B2 (en) * 2017-04-03 2021-03-23 Cleveland State University Shoulder-surfing resistant authentication methods and systems
CN116228728A (zh) * 2017-04-26 2023-06-06 深圳迈瑞生物医疗电子股份有限公司 一种图像数据调节方法及设备
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11204677B2 (en) * 2018-10-22 2021-12-21 Acclarent, Inc. Method for real time update of fly-through camera placement
JP7330705B2 (ja) * 2019-01-17 2023-08-22 キヤノンメディカルシステムズ株式会社 画像解析装置
US11810473B2 (en) 2019-01-29 2023-11-07 The Regents Of The University Of California Optical surface tracking for medical simulation
US11495142B2 (en) 2019-01-30 2022-11-08 The Regents Of The University Of California Ultrasound trainer with internal optical tracking
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961460A (en) * 1997-04-11 1999-10-05 Acuson Corporation Ultrasound imaging enhancement methods and systems
US6443894B1 (en) * 1999-09-29 2002-09-03 Acuson Corporation Medical diagnostic ultrasound system and method for mapping surface data for three dimensional imaging
US6649843B2 (en) * 1999-12-15 2003-11-18 Hitachi Cable, Ltd. Composite conductor, production method thereof and cable using the same

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4944189A (en) * 1987-11-30 1990-07-31 Aloka Co., Ltd. Ultrasonic speckle velocity measurement method and apparatus
US5544657A (en) * 1994-09-09 1996-08-13 Siemens Medical Systems, Inc. Ultrasound blood flow monitor of the non-doppler type
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5720291A (en) * 1996-03-22 1998-02-24 Advanced Technology Laboratories, Inc. Three dimensional medical ultrasonic diagnostic image of tissue texture and vasculature
US5860924A (en) * 1996-11-26 1999-01-19 Advanced Technology Laboratories, Inc. Three dimensional ultrasonic diagnostic image rendering from tissue and flow images
US5928151A (en) * 1997-08-22 1999-07-27 Acuson Corporation Ultrasonic system and method for harmonic imaging in three dimensions
US5957138A (en) * 1997-08-25 1999-09-28 Diasonics Ultrasound, Inc. Method and apparatus for three-dimensional flow lumen imaging
JP2001509724A (ja) * 1997-11-18 2001-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 運動部分を有する対象物に関する信号処理方法及びエコーグラフィック装置
US6369812B1 (en) * 1997-11-26 2002-04-09 Philips Medical Systems, (Cleveland), Inc. Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks
US6280387B1 (en) * 1998-05-06 2001-08-28 Siemens Medical Systems, Inc. Three-dimensional tissue/flow ultrasound imaging system
JP4260938B2 (ja) * 1998-10-23 2009-04-30 株式会社東芝 3次元超音波診断装置
US6545678B1 (en) * 1998-11-05 2003-04-08 Duke University Methods, systems, and computer program products for generating tissue surfaces from volumetric data thereof using boundary traces
US6785410B2 (en) * 1999-08-09 2004-08-31 Wake Forest University Health Sciences Image reporting method and system
EP1210684A4 (de) * 1999-08-09 2003-04-23 Univ Wake Forest Computerisiertes verfahren zur erstellung von multimedialen elektronischen berichten
US6520915B1 (en) * 2000-01-28 2003-02-18 U-Systems, Inc. Ultrasound imaging system with intrinsic doppler capability
US6503202B1 (en) * 2000-06-29 2003-01-07 Acuson Corp. Medical diagnostic ultrasound system and method for flow analysis
US6679843B2 (en) * 2002-06-25 2004-01-20 Siemens Medical Solutions Usa , Inc. Adaptive ultrasound image fusion
US6852081B2 (en) * 2003-03-13 2005-02-08 Siemens Medical Solutions Usa, Inc. Volume rendering in the acoustic grid methods and systems for ultrasound diagnostic imaging
JP4421203B2 (ja) * 2003-03-20 2010-02-24 株式会社東芝 管腔状構造体の解析処理装置
US20050101864A1 (en) * 2003-10-23 2005-05-12 Chuan Zheng Ultrasound diagnostic imaging system and method for 3D qualitative display of 2D border tracings

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961460A (en) * 1997-04-11 1999-10-05 Acuson Corporation Ultrasound imaging enhancement methods and systems
US6443894B1 (en) * 1999-09-29 2002-09-03 Acuson Corporation Medical diagnostic ultrasound system and method for mapping surface data for three dimensional imaging
US6649843B2 (en) * 1999-12-15 2003-11-18 Hitachi Cable, Ltd. Composite conductor, production method thereof and cable using the same

Also Published As

Publication number Publication date
DE102005019171A1 (de) 2006-02-09
US8021300B2 (en) 2011-09-20
US20050283075A1 (en) 2005-12-22

Similar Documents

Publication Publication Date Title
DE102005019171B4 (de) Dreidimensionale Durchflug-Systeme und -Verfahren unter Verwendung von Ultraschalldaten
EP0797106B1 (de) Medizinische diagnostische dreidimensionale Ultraschall-Abbildung von Gewebetextur und Vaskulatur
DE19531419B4 (de) Verfahren zur Erzeugung anatomischer M-Modus-Anzeigebilder
US7356178B2 (en) System and method for improved multiple-dimension image displays
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE19543410B4 (de) Verfahren zum Simulieren von Endoskopie und virtuelles Untersuchungssystem zum Betrachten innerer Hohlräume
DE102016104263A1 (de) Kontinuierlich ausgerichtete verbesserte Ultraschallbildgebung eines Teilvolumens
US6102861A (en) Method and apparatus for three-dimensional ultrasound imaging using surface-enhanced volume rendering
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten
US20040081340A1 (en) Image processing apparatus and ultrasound diagnosis apparatus
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE102010049324A1 (de) Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung
DE102016105690A1 (de) Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung
DE102008035461A1 (de) Multi-Volumen Rendering von Einzelmodusdaten bei der medizinischen diagnostischen Bildgebung
DE102004063053A1 (de) Verfahren und System zum Visualisieren dreidimensionaler Daten
DE10058452B4 (de) Verfahren und Gerät zur Bewegungsdarstellung bei Ultraschall-Fluss-Bilddarstellung unter Verwendung von Paketdatenerfassung
DE19819794A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten
DE102009019983A1 (de) Animation zum Übertragen von Raumbeziehungen in einer dreidimensionalen medizinischen Bildgebung
DE102015116500A1 (de) Unterdrückung von Schatten bei der Ultraschall-Bildgebung
JP2019526350A (ja) 流体流路の高解像度超音波画像の撮像方法
WO2008071454A2 (de) Verfahren und anordnung zur verarbeitung von ultraschall-bild-volumina sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102007020317A1 (de) Vorrichtung und Verfahren zur 3D-Visualisierung von Strömungsflüssen
DE102004041829A1 (de) Verfahren und Vorrichtung zur C-Plane Volume Compound Bildgebung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R082 Change of representative