DE102010015973A1 - System und Verfahren zur funktionellen Ultraschallbildgebung - Google Patents

System und Verfahren zur funktionellen Ultraschallbildgebung Download PDF

Info

Publication number
DE102010015973A1
DE102010015973A1 DE102010015973A DE102010015973A DE102010015973A1 DE 102010015973 A1 DE102010015973 A1 DE 102010015973A1 DE 102010015973 A DE102010015973 A DE 102010015973A DE 102010015973 A DE102010015973 A DE 102010015973A DE 102010015973 A1 DE102010015973 A1 DE 102010015973A1
Authority
DE
Germany
Prior art keywords
ultrasound
image
functional
imaging
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010015973A
Other languages
English (en)
Inventor
Peter Lysyansky
Zvi Friedman
Andreas Heimdal
Gunnar Hansen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102010015973A1 publication Critical patent/DE102010015973A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • G01S15/8927Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array using simultaneously or sequentially two or more subarrays or subapertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8995Combining images from different aspect angles, e.g. spatial compounding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52034Data rate converters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • G01S7/52042Details of receivers using analysis of echo signal for target characterisation determining elastic properties of the propagation medium or of the reflective target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52063Sector scan display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52066Time-position or time-motion displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52068Stereoscopic displays; Three-dimensional displays; Pseudo 3D displays
    • G01S7/52069Grey-scale displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • G01S7/52084Constructional features related to particular user interfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52085Details related to the ultrasound signal acquisition, e.g. scan sequences
    • G01S7/52087Details related to the ultrasound signal acquisition, e.g. scan sequences using synchronization techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/503Clinical applications involving diagnosis of heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4411Device being modular

Abstract

Es sind ein System (100) und ein Verfahren (210) zur funktionellen Ultraschallbildgebung geschaffen. Das Verfahren (210) enthält ein Gewinnen (212) von Ultraschallbilddaten, die von einem Mehrebenen-Bildgebungsscann eines abgebildeten Objektes akquiriert werden. Die Ultraschallbilddaten definieren mehrere Bildebenen. Das Verfahren (210) enthält ferner ein Bestimmen (216) funktioneller Bildinformationen für das abgebildete Objekt aus zweidimensionalen Verfolgungsinformationen auf der Basis der mehreren Bildebenen und ein Erzeugen (218) funktioneller Ultraschallbilddaten für das abgebildete Objekt unter Verwendung der funktionellen Bildinformationen.

Description

  • HINTERGRUND ZU DER ERFINDUNG
  • Diese Erfindung betrifft allgemein diagnostische Bildgebungssysteme und insbesondere Ultraschallbildgebungssysteme, die eine anatomische funktionelle Bildgebung, insbesondere zur Herzbildgebung, erzielen.
  • Medizinische Bildgebungssysteme werden in unterschiedlichen Anwendungen eingesetzt, um unterschiedliche Regionen oder Bereiche (z. B. unterschiedliche Organe) von Patienten abzubilden. Zum Beispiel finden Ultraschallsysteme Verwendung in einer steigenden Anzahl von Anwendungen, beispielsweise um Bilder des Herzens zu erzeugen. Diese Bilder werden danach zur Überprüfung und Analyse durch einen Benutzer angezeigt. Wenn ein Herz abgebildet wird, akquiriert gewöhnlich ein Sonographiespezialist mehrere unterschiedliche Bilder des Herzens entlang drei unterschiedlichen Bildgebungsebenen. Wenn zum Beispiel das linke Ventrikel abgebildet wird, enthalten diese drei Standardbilder, die von drei unterschiedlichen Bildgebungsebenen akquiriert werden. Die drei Bilder können miteinander kombiniert werden, um ein kombiniertes Bild zu erzeugen, das die Funktion des gesamten Myokards oder linken Ventrikels zeigt. Der Prozess der Akquisition der mehreren Bilder kann zeitaufwendig sein und kann einen erfahrenen Sonographiespezialisten erfordern, um spezifische Punkte (z. B. Apikalpunkte) in jedem der Bilder zu identifizieren, um die Bilder auszurichten, wenn die Bilder miteinander kombiniert werden. Außerdem muss der Sonographiespezialist jedes der Bilder bezeichnen, um Verwechslungen zu vermeiden. Wenn die speziellen Punkte oder Markierungen in den Bildern nicht richtig identifi ziert werden, kann das kombinierte Bild der Funktion des Myokards gegebenenfalls nicht ganz richtig oder genau sein.
  • Es sind ferner Systeme bekannt, die eine Bildgebung durchführen, um funktionelle Informationen, z. B. des Myokards, unter Verwendung dreidimensionaler Verfolgung (sog. 3D-Tracking) zu erzeugen. Die Verarbeitung dreidimensionaler Bilddaten, um Bilder zu erzeugen, die Funktionsinformationen zeigen, ist rechenintensiver und demgemäß zeitaufwendiger. Die Bilder, die aus der dreidimensionalen Verfolgung resultieren, können ferner weniger robust und schwerer zu interpretieren sein.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Gemäß einer Ausführungsform der Erfindung ist ein Verfahren zur funktionellen Ultraschallbildgebung geschaffen. Das Verfahren enthält ein Gewinnen von Ultraschallbilddaten, die von einem Mehrebenen-Bildgebungsscann eines abgebildeten Objektes akquiriert werden. Die Ultraschallbilddaten definieren mehrere Bildebenen. Das Verfahren enthält ferner ein Bestimmen funktioneller Bildinformationen für das abgebildete Objekt aus zweidimensionalen Verfolgungsinformationen auf der Basis der mehreren Bildebenen und Erzeugen funktioneller Ultraschallbilddaten für das abgebildete Objekt unter Verwendung der funktionellen Bildinformationen.
  • Gemäß einer weiteren Ausführungsform der Erfindung ist ein Computer lesbares Medium geschaffen, das Computer lesbaren Code aufweist, der von einer Maschine gelesen werden kann und mit Instruktionen versehen ist, die von der Maschine ausführbar sind, um ein Verfahren zur funktionellen Bildgebung auszuführen. Das Verfahren enthält einen Zugriff auf Mehrebenen-Ultraschallbilddaten eines abgebildeten Objektes und Durchführen einer zweidimensionalen Verfolgung (sog. 2D-Tracking) un ter Verwendung der Mehrebenen-Ultraschallbilddaten. Das Verfahren enthält ferner ein Bestimmen funktioneller Bildinformationen auf der Basis der zweidimensionalen Verfolgung und ein Erzeugen funktioneller Ultraschallbilddaten unter Verwendung der funktionellen Bildinformationen.
  • Gemäß einer noch weiteren Ausführungsform der Erfindung ist ein Ultraschallbildgebungssystem geschaffen, das eine Ultraschallsonde enthält, die konfiguriert ist, um eine Mehrebenen-Ultraschallbildgebung durchzuführen, um mehrere Bildframes zu akquirieren. Das Ultraschallbildgebungssystem enthält ferner einen Prozessor, der ein funktionelles Bildgebungsmodul aufweist, das konfiguriert ist, um funktionelle Bildinformationen aus zweidimensionalen Verfolgungsinformationen für die akquirierten mehreren Bildframes zu bestimmen und funktionelle Ultraschallbilddaten zu erzeugen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockschaltbild eines diagnostischen Ultraschallsystems, das konfiguriert ist, um eine funktionelle Bildgebung durchzuführen, gemäß verschiedenen Ausführungsformen der Erfindung.
  • 2 zeigt ein Blockschaltbild eines Ultraschallprozessormoduls des diagnostischen Ultraschallsystems nach 1, das gemäß verschiedenen Ausführungsformen der Erfindung ausgebildet ist.
  • 3 zeigt ein Flussdiagramm eines Verfahrens zum Durchführen funktioneller Bildgebung unter Verwendung einer Mehrebenen-Bildakquisition gemäß verschiedenen Ausführungsformen der Erfindung.
  • 4 zeigt ein Schaubild, das Bilddaten veranschaulicht, die von einem Dreiebenen-Bildscann mit drei Ebenen erhalten werden können, gemäß verschiedenen Ausführungsformen der Erfindung.
  • 5 zeigt ein Schaubild, das Bilddaten veranschaulicht, die von einem Bildscann mit sechs Ebenen erhalten werden können, gemäß verschiedenen Ausführungsformen der Erfindung.
  • 6 zeigt eine als ein zielscheibenartiges Diagramm formatierte Anzeige, die funktionelle Informationen veranschaulicht, die gemäß verschiedenen Ausführungsformen der Erfindung erzeugt werden.
  • 7 zeigt eine schematisierte Darstellung, die einen Arbeitsablauf für die funktionelle Bildgebung eines Herzens unter Verwendung einer Mehrebenen-Datenakquisition mit zweidimensionaler (2D) Verfolgung veranschaulicht, gemäß verschiedenen Ausführungsformen der Erfindung.
  • 8 veranschaulicht ein zur dreidimensionalen Bildgebung fähiges miniaturisiertes Ultraschallsystem, das gemäß einer Ausführungsform der Erfindung ausgebildet ist.
  • 9 veranschaulicht ein handgeführtes oder westentaschengroßes Ultraschallbildgebungssystem, das gemäß einer Ausführungsform der Erfindung ausgebildet ist.
  • 10 veranschaulicht ein konsolenartiges Ultraschallbildgebungssystem, das gemäß einer Ausführungsform der vorliegenden Erfindung ausgebildet ist.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Die vorstehende Kurzbeschreibung sowie die folgende detaillierte Beschreibung bestimmter Ausführungsformen der vorliegenden Erfindung werden besser verstanden, wenn sie in Verbindung mit den beigefügten Zeichnungen gelesen werden. In dem Maße, in dem die Figuren Diagramme der Funktionsblöcke verschiedener Ausführungsformen veranschaulichen, sind die Funktionsblöcke nicht notwendigerweise für die Aufteilung auf die Hardwareschaltungen kennzeichnend. Somit können beispielsweise ein oder mehrere der Funktionsblöcke (z. B. Prozessoren oder Speicher) in einem einzelnen Hardwareteil (z. B. einem Universal-Signalprozessor oder einem Direktzugriffsspeicher, einer Festplatte oder dergleichen) realisiert sein. In ähnlicher Weise können die Programme eigenständige Programme sein, sie können als Unterroutinen in einem Betriebssystem enthalten sein, können Funktionen in einem installierten Softwarepaket sein und dergleichen. Es sollte verstanden werden, dass die verschiedenen Ausführungsformen nicht auf die in den Zeichnungen veranschaulichten Anordnungen und Mittel beschränkt sind.
  • In dem hier verwendeten Sinne sollte ein Element oder Schritt, das bzw. der in der Einzahl angegeben und dem das Wort „ein” oder „eine” vorangestellt ist, nicht derart verstanden werden, dass es eine Mehrzahl dieser Elemente oder Schritte ausschließt, sofern ein derartiger Ausschluss nicht ausdrücklich angegeben ist. Außerdem sollen Bezugnahmen auf „eine Ausführungsform” gemäß der vorliegenden Erfindung nicht derart ausgelegt werden, als würden sie die Existenz weiterer Ausführungsformen ausschließen, die ebenfalls die angegebenen Merkmale enthalten. Darüber hinaus können, sofern nicht explizit das Gegenteil angegeben ist, Ausführungsformen, die ein Element oder mehrere Elemente mit einer bestimmten Eigenschaft „aufweisen” oder „haben”, weitere derartige Elemente enthalten, die diese Eigenschaft nicht haben.
  • Beispielhafte Ausführungsformen von Ultraschallsystemen und -verfahren zur funktionellen Bildgebung sind nachstehend in Einzelheiten beschrieben. Insbesondere wird zunächst eine detaillierte Beschreibung eines beispielhaften Ultraschallsystems geliefert, der eine detaillierte Beschreibung verschiedener Ausführungsformen von Verfahren und Systemen zur funktionellen Ultraschallbildgebung, insbesondere funktionellen Ultraschallherzbildgebung, folgt.
  • Wenigstens ein technischer Effekt der verschiedenen Ausführungsformen der Systeme und Verfahren, wie sie hierin beschrieben sind, enthält die Erzeugung funktioneller Ultraschallbilder eines Herzens unter Verwendung eines dreidimensionalen (3D-)Scannmodus oder einer 3D-Ultraschallsonde. Die verschiedenen Ausführungsformen stellen eine funktionelle Bildgebung mit zweidimensionaler (2D-)Verfolgung bereit, die auf mehrere Bildebenen angewandt wird, die simultan oder nacheinander innerhalb einer kurzen Zeitspanne mit einer 3D-Sonde akquiriert werden. Die funktionelle Bildgebung ergibt einen verbesserten und effektiveren Arbeitsablauf, der weniger rechenintensiv ist. Mit den verschiedenen Ausführungsformen kann die laterale Bildgebungsauflösung vergrößert werden, was eine erhöhte diagnostische Genauigkeit zur Folge hat.
  • 1 zeigt ein Blockschaltbild eines Ultraschallsystems 100, das gemäß verschiedenen Ausführungsformen der Erfindung aufgebaut ist. Das Ultraschallsystem 100 ist in der Lage, einen Schallstrahl in einem 3D-Raum zu lenken, und ist konfigurierbar, um Informationen zu akquirieren, die mehreren 2D-Darstellungen oder -Bildern eines interessierenden Bereiches (ROI, Region of Interest) in einem Objekt oder Patienten ent sprechen. Ein derartiger ROI kann das menschliche Herz oder das Myokard (die Muskeln) eines menschlichen Herzens sein. Das Ultraschallsystem 100 ist konfigurierbar, um 2D-Bilder in drei oder mehreren Orientierungsebenen zu akquirieren.
  • Das Ultraschallsystem 100 enthält einen Sender 102, der unter der Führung eines Strahlformers 110 ein Array von Elementen 104 (z. B. piezoelektrischen Elementen) in einer Sonde 106 ansteuert, um gepulste Ultraschallsignale in einen Körper auszusenden. Es können vielfältige Geometrien verwendet werden. Die Ultraschallsignale werden von Strukturen in dem Körper, wie Blutzellen oder Muskelgewebe, zurückgestreut, um Echos zu erzeugen, die zu den Elementen 104 zurückkehren. Die Echos werden von einem Empfänger 108 empfangen. Die empfangenen Echos werden durch den Strahlformer 110 hindurchgeführt, der eine Empfangsstrahlformung durchführt und ein HF-Signal ausgibt. Das HF-Signal durchläuft anschließend einen HF-Prozessor 112. Alternativ kann der HF-Prozessor 112 einen (nicht veranschaulichten) komplexen Demodulator enthalten, der das HF-Signal demoduliert, um IQ-Datenpaare zu bilden, die die Echosignale repräsentieren. Die HF- oder IQ-Signaldaten können anschließend unmittelbar zu einem Speicher 114 zur Abspeicherung geleitet werden.
  • In der vorstehend beschriebenen Ausführungsform arbeitet der Strahlformer 110 als ein Sende- und Empfangs-Strahlformer. In einer alternativen Ausführungsform enthält die Sonde 106 ein 2D-Array mit einer Subapertur-Empfangsstrahlformung innerhalb der Sonde. Der Strahlformer 110 kann jedes elektrische Signal mit anderen von der Sonde 106 empfangenen elektrischen Signalen verzögern, apodisieren und aufsummieren. Die aufsummierten Signale repräsentieren Echos von den Ultraschallstrahlen oder -linien. Die summierten Signale werden von dem Strahlformer 110 zu einem HF-Prozessor 112 ausgegeben. Der HF- Prozessor 112 kann unterschiedliche Datentypen, z. B. B-Mode, Farb-Doppler (Geschwindigkeit/Leistung/Varianz), Gewebe-Doppler (Geschwindigkeit) und Doppler-Energie, für mehrere Scannebenen oder unterschiedliche Scannmuster erzeugen. Beispielsweise kann der HF-Prozessor 112 Gewebe-Doppler-Daten für drei Scannebenen (Dreiebenen-Scann) erzeugen. Der HF-Prozessor 112 sammelt die Informationen (z. B. I/Q-, B-Mode-, Farb-Doppler-, Gewebe-Doppler- und Doppler-Energie-Informationen) in Bezug auf mehrere Datenscheiben und speichert die Dateninformationen mit einem Zeitstempel und mit Orientierungs-/Drehinformationen in einem Bildpuffer bzw. -speicher 114.
  • Orientierungs-/Drehinformationen können die Winkelverdrehung einer Datenscheibe in Bezug auf eine Referenzebene oder eine andere Datenscheibe anzeigen. Beispielsweise kann in einer Dreiebenen-Implementierung, in der Ultraschallinformationen im Wesentlichen gleichzeitig oder nacheinander innerhalb einer kurzen Zeitspanne (von z. B. 1/20 Sekunden) für drei unterschiedlich orientierte Scannebenen oder Ansichten akquiriert werden, eine Datenscheibe einem Winkel von 0° zugeordnet werden, während eine andere einem Winkel von 60° und eine dritte einem Winkel von 120° zugeordnet werden. Auf diese Weise können Datenscheiben zu dem Bildpuffer 114 in einer wiederholten Reihenfolge von 0°, 60°, 120°, ..., 0°, 60° und 120°, ... hinzugefügt werden. Die erste und die vierte Datenscheibe in dem Bildspeicher 114 haben eine erste gemeinsame ebene Orientierung. Die zweite und die fünfte Datenscheibe haben eine zweite gemeinsame ebene Orientierung, und die dritte sowie die sechste Datenscheibe haben eine dritte gemeinsame ebene Orientierung. Es können mehr als drei Datenscheiben akquiriert werden, wie dies hierin in größeren Einzelheiten beschrieben ist.
  • Alternativ kann anstelle der Speicherung von Orientierungs-/Drehinformationen eine Datenscheiben-Folgenummer ge meinsam mit der Datenscheibe in dem Bildpuffer 114 abgespeichert werden. Somit können Datenscheiben in dem Bildpuffer 114 geordnet werden, indem laufende Nummern, z. B. 1, 2, 3, ..., 1, 2, 3, ... wiederholt werden. Bei der Dreiebenen-Bildgebung kann die laufende Nummer 1 einer Ebene mit einer Winkelverdrehung von 0° in Bezug auf eine Referenzebene entsprechen, während eine laufende Nummer 2 einer Ebene mit einer Winkelverdrehung von 60° in Bezug auf die Referenzebene entsprechen kann und eine laufende Nummer 3 einer Ebene mit einer Winkelverdrehung von 120° in Bezug auf die Referenzebene entsprechen kann. Die in dem Bildpuffer 114 gespeicherten Datenscheiben werden durch 2D-Anzeigeprozessoren verarbeitet, wie dies hierin in größeren Einzelheiten beschrieben ist.
  • Im Betrieb kann eine Echtzeit-Mehrebenen-Ultraschallbildgebung unter Verwendung einer Matrix- oder 3D-Ultraschallsonde bewerkstelligt werden. Zum Beispiel kann eine Echtzeit-Mehrebenen-Ultraschallbildgebung in der Weise durchgeführt werden, wie sie in der parallel anhängigen US-Patentanmeldung mit dem Aktenzeichen 10/925,456 und dem Titel „Method and Apparatus for Real Time Ultrasound Multi-Plane Imaging” („Verfahren und Vorrichtung zur Echtzeit-Mehrebenen-Ultraschallbildgebung”) beschrieben ist, die auf die gemeinsame Anmelderin lautet und deren Offenbarung hiermit in ihrer Gesamtheit durch ausdrücklichen Verweis hierin aufgenommen ist.
  • Das Ultraschallsystem 100 enthält ferner einen Prozessor 116, um die akquirierten Ultraschallinformationen (z. B. HF-Signaldaten oder IQ-Datenpaare) zu verarbeiten und Frames (Rahmen) von Ultraschallinformationen zur Anzeige auf einer Anzeige 118 vorzubereiten. Der Prozessor 116 ist eingerichtet, um eine oder mehrere Verarbeitungsoperationen gemäß mehreren auswählbaren Ultraschallmodalitäten an den akquirierten Ultraschalldaten durchzuführen. Akquirierte Ultraschalldaten können in Echtzeit während einer Scannsitzung verarbeitet und angezeigt werden, während die Echosignale empfangen werden. Zusätzlich oder alternativ können die Ultraschalldaten während einer Scannsitzung vorübergehend in dem Speicher 114 gespeichert und dann in einem Offline-Betrieb verarbeitet und angezeigt werden.
  • Der Prozessor 116 ist mit einer Benutzerschnittstelle 124 verbunden, die den Betrieb des Prozessors 116 steuern kann, wie dies nachstehend in größeren Einzelheiten erläutert ist. Der Prozessor 116 enthält ferner ein funktionelles Bildgebungsmodul 126, das eine 2D-Verfolgung (sog. 2D-Tracking) unter Verwendung der Mehrebenen-Bildgebung durchführt, wie dies in größeren Einzelheiten hierin beschrieben ist.
  • Die Anzeige 116 enthält einen oder mehrere Monitore, die Patienteninformationen, einschließlich diagnostischer Ultraschallbilder, für den Benutzer zur Diagnose und Analyse darbieten (z. B. funktionelle Bilder des Herzens, wie beispielsweise ein Zielscheibenbild). Einer oder beide von dem Speicher 114 und dem Speicher 122 kann/können dreidimensionale Datensätze der Ultraschalldaten speichern, wobei auf derartige 3D-Datensätze zugegriffen wird, um 2D-Bilder (und/oder 3D-Bilder) zu präsentieren, wie dies hierin beschrieben ist. Die Bilder können modifiziert werden, und die Anzeigeeinstellungen der Anzeige 118 können auch manuell angepasst werden, indem die Benutzerschnittstelle 124 verwendet wird.
  • Es sollte beachtet werden, dass, obwohl die verschiedenen Ausführungsformen in Verbindung mit einem Ultraschallsystem beschrieben sein können, die hierin beschriebenen Verfahren und Systeme nicht auf die Ultraschallbildgebung oder eine spezielle Konfiguration hiervon beschränkt sind. Insbesondere können die verschiedenen Ausführungsformen in Verbindung mit unterschiedlichen Bildgebungsarten, einschließlich zum Beispiel Magnetresonanzbildgebung (MR-Bildgebung) und Computertomographiebildgebung (CT-Bildgebung) oder kombinierter Bildgebungssysteme, realisiert werden. Ferner können die verschiedenen Ausführungsformen in anderen nicht medizinischen Bildgebungssystemen, z. B. in zerstörungsfreien Prüfsystemen, realisiert werden.
  • 2 veranschaulicht ein beispielhaftes Blockschaltbild eines Ultraschallprozessormoduls 136, das als der Prozessor 116 nach 1 oder ein Teil desselben ausgeführt sein kann. Das Ultraschallprozessormodul 136 ist konzeptionell als eine Sammlung von Teilmodulen veranschaulicht, kann jedoch unter Verwendung jeder beliebigen Kombination von speziellen Hardwareplatinen, DSPs, Prozessoren, etc. realisiert sein. Alternativ können die Teilmodule nach 2 unter Verwendung eines Standard-PCs (von der Stange) mit einem einzelnen Prozessor oder mehreren Prozessoren realisiert sein, wobei die Funktionsoperationen auf die Prozessoren verteilt sein können. Als eine weitere Option können die Teilmodule nach 2 unter Verwendung einer Hybridkonfiguration realisiert sein, in der bestimmte modulare Funktionen unter Verwendung einer speziellen, zweckbestimmten Hardware durchgeführt werden, während die restlichen modularen Funktionen unter Verwendung eines Standard-PCs und dergleichen durchgeführt werden. Die Teilmodule können auch als Softwaremodule innerhalb einer Verarbeitungseinheit implementiert sein.
  • Die Operationen der Teilmodule, wie sie in 2 veranschaulicht sind, können durch eine lokale Ultraschallsteuerungseinrichtung 150 oder durch das Prozessormodul 136 gesteuert sein. Die Teilmodule 152164 führen Mittelprozessoroperationen durch. Das Ultraschallprozessormodul 136 kann Ultraschalldaten 170 in einer von verschiedenen Formen entgegenneh men. In der Ausführungsform nach 2 bilden die empfangenen Ultraschalldaten 170 I,Q-Datenpaare, die die jeder Datenprobe zugeordnete Real- und Imaginärkomponente repräsentieren. Die I,Q-Datenpaare werden einem oder mehreren von einem Farb-Fluss-Teilmodul 152, einem Leistungs-Doppler-Teilmodul 154, einem B-Mode-Teilmodul 156, einem Spektral-Doppler-Teilmodul 158 und einem M-Mode-Teilmodul 160 zugeführt. Optional können andere Teilmodule, wie beispielsweise, unter anderem, ein ARFI-Teilmodul 162 (Acustic Radiation Force Impulse, akustische Strahlungsimpulse) und ein Gewebe-Doppler-Teilmodul (TDE-Teilmodul) 164, enthalten sein.
  • Jedes der Teilmodule 152164 ist konfiguriert, um die I,Q-Datenpaare auf eine entsprechende Weise zu verarbeiten, um Farb-Fluss-Daten 172, Leistungs-Doppler-Daten 174, B-Mode-Daten 176, Spektral-Doppler-Daten 178, M-Mode-Daten 180, ARFI-Daten 182 und Gewebe-Doppler-Daten 184 zu erzeugen, die alle in einem Speicher 190 (oder dem Speicher 114 oder dem Speicher 122, wie sie in 1 veranschaulicht sind) vorübergehend, vor einer nachfolgenden Verarbeitung abgespeichert werden können. Beispielsweise kann das B-Mode-Teilmodul 156 B-Mode-Daten 176 erzeugen, die mehrere B-Mode-Bildebenen enthalten, wie z. B. bei einer Dreiebenen-Bildakquisition, wie dies in größeren Einzelheiten hierin beschrieben ist.
  • Die Daten 172184 können beispielsweise als Sätze von Vektordatenwerten abgespeichert werden, worin jeder Satz ein einzelnes Ultraschallbildframe (Ultraschallbildrahmen) definiert. Die Vektordatenwerte sind im Allgemeinen basierend auf dem Polarkoordinatensystem organisiert.
  • Ein Scannkonverter-Teilmodul 192 greift auf die Vektordatenwerte von dem Speicher 190, die einem Bildframe zugeordnet sind, zu und erhält diese von dem Speicher 190, und er wandelt den Satz Vektordatenwerte in kartesische Koordinaten um, um ein Ultraschallbildframe 194 zu erzeugen, das für eine Anzeige formatiert ist. Die Ultraschallbildframes 194, die von dem Scannkonverter-Modul 192 erzeugt werden, können für eine nachfolgende Verarbeitung zurück zu dem Speicher 190 geliefert werden, oder sie können zu dem Speicher 114 oder dem Speicher 122 geliefert werden.
  • Sobald das Scannkonverter-Teilmodul 192 die Ultraschallbildframes 194 erzeugt, die beispielsweise B-Mode-Bilddaten und dergleichen zugeordnet sind, können die Bildframes in dem Speicher 190 erneut gespeichert oder über einen Bus 196 zu einer (nicht veranschaulichten) Datenbank, zu dem Speicher 114, dem Speicher 122 und/oder zu anderen Prozessoren, wie beispielsweise dem funktionellen Bildgebungsmodul 126, übertragen werden.
  • Als ein Beispiel kann es wünschenswert sein, funktionelle Ultraschallbilder oder zugehörige Daten (z. B. Verformungskurven oder -verlaufsbilder), die echokardiographische Funktionen betreffen, auf der (in 1 veranschaulichten) Anzeige 118 zu betrachten. Verformungsinformationen (Strain-Informationen) zur Anzeige als ein Teil der funktionellen Ultraschallbilder werden auf der Basis scannkonvertierter B-Mode-Bilder berechnet. Die scannkonvertierten Daten werden anschließend in ein X,Y-Format zur Videoanzeige umgewandelt, um Ultraschallbildframes zu erzeugen. Die scannkonvertierten Ultraschallbildframes werden zu einer (nicht veranschaulichten) Anzeigesteuerung geliefert, die einen Videoprozessor enthalten kann, der das Video in eine Graustufenabbildung zur Videoanzeige abbildet. Die Graustufen-Abbildung (Graustufen-Map) kann eine Übertragungsfunktion der Bildrohdaten zu angezeigten Graustufen repräsentieren. Sobald die Videodaten in Graustufenwerte abgebildet bzw. gemappt sind, steuert die Anzeigesteuerung die (in 1 veranschaulichte) Anzeige 118, die einen oder mehrere Monitore oder Fenster der Anzeige enthalten kann, um das Bildframe anzuzeigen. Das auf der Anzeige 118 angezeigte echokardiographische Bild wird aus Bilddatenframes erzeugt, in denen jedes Datum die Intensität oder Helligkeit eines jeweiligen Pixels auf der Anzeige anzeigt. In diesem Beispiel repräsentiert das angezeigte Bild eine Muskelbewegung in einem interessierenden Bereich, der abgebildet wird, auf der Basis einer 2D-Verfolgung, die auf eine Mehrebenen-Bildakquisition angewandt wird, wie dies in größeren Einzelheiten hierin beschrieben ist.
  • Erneut bezugnehmend auf 2, kombiniert ein 2D-Videoprozessor-Teilmodul 194 ein oder mehrere der aus den unterschiedlichen Arten von Ultraschallinformationen erzeugten Frames. Zum Beispiel kann das 2D-Videoprozessor-Teilmodul 194 unterschiedliche Bildframes durch Abbilden (Mapping) einer Datenart auf eine Graustufenabbildung (Graustufenmap) und durch Abbilden bzw. Mapping der anderen Datenart auf eine Farbabbildung bzw. -map zur Videoanzeige kombinieren. In dem endgültigen angezeigten Bild können Farbpixeldaten auf den Graustufen-Pixeldaten überlagert werden, um ein einzelnes Multi-Mode-Bildframe 198 (z. B. ein funktionelles Bild) zu erzeugen, das erneut in dem Speicher 190 gespeichert oder über den Bus 196 übermittelt wird. Nachfolgende Frames von Bildern können als eine kinematographische Schleife in dem Speicher 190 oder dem (in 1 veranschaulichten) Speicher 122 abgespeichert werden. Die kinematographische Schleife repräsentiert einen FIFO (First In, First Out) basierten Ringbildpuffer zur Erfassung von Bilddaten, die in Echtzeit für den Benutzer angezeigt werden. Der Benutzer kann die kinematographische Schleife einfrieren, indem er einen Einfrierbefehl an der Benutzerschnittstelle 124 eingibt. Die Benutzerschnittstelle 124 kann beispielsweise eine Tastatur und eine Maus und alle sonstigen Eingabesteuerungen enthalten, die mit dem Eingeben von Informationen in das Ultraschallsystem 100 (wie in 1 veranschaulicht) im Zusammenhang stehen.
  • Ein 3D-Prozessor-Teilmodul 200 wird ebenfalls durch die Benutzerschnittstelle 124 gesteuert und greift auf den Speicher 190 zu, um 3D-Ultraschallbilddaten zu erhalten und um dreidimensionale Bilder, beispielsweise durch Volumenrendering- oder Oberflächenrenderingalgorithmen, wie sie bekannt sind, zu erzeugen. Die dreidimensionalen Bilder können unter Verwendung verschiedener Bildgebungstechniken, wie beispielsweise Strahlungsverfolgung (Ray-Casting), Maximalintensitäts-Pixelprojektion und dergleichen, erzeugt werden.
  • Das funktionelle Bildgebungsmodul 126 wird ebenfalls durch die Benutzerschnittstelle 124 gesteuert und greift auf den Speicher 190 zu, um Ultraschallinformationen zu erhalten und, wie nachstehend in größeren Einzelheiten beschrieben, mehrere Bildebenen, die beispielsweise mittels einer 3D-Sonde akquiriert werden, zu verwenden, um mit 2D-Verfolgung (2D-Tracking) funktionelle Bilder des Herzens zu erzeugen.
  • Im Spezielleren ist ein Verfahren 210 zur Durchführung funktioneller Bildgebung unter Verwendung einer Mehrebenen-Bildakquisition in 3 veranschaulicht. Es sollte beachtet werden, dass, obwohl das Verfahren 210 in Verbindung mit der Ultraschallbildgebung, die bestimmte Charakteristika aufweist, beschrieben ist, die verschiedenen Ausführungsformen nicht auf die Ultraschallbildgebung oder auf irgendeine bestimmte Bildgebungscharakteristik beschränkt sind.
  • Das Verfahren 210 enthält ein Gewinnen oder Erhalten von Mehrebenen-Bilddaten bei 212. Die Mehrebenen-Bilddaten können von einem momentanen Bildscann oder von früher gewonnenen und gespeicherten Daten erhalten werden. In einigen Ausführungsformen werden die Mehrebenen-Bilddaten von einem 3D-Ultraschallscann unter Verwendung von zwei oder mehreren Bildebenen akquiriert. Zum Beispiel können, wie in 4 veranschaulicht, die Bilddaten 230 von einem Dreiebenen-Bildscann unter Verwendung von drei Ebenen (Dreiebenen-Bildgebung) 232, 234 und 236 erhalten werden. Es sollte beachtet werden, dass jede der Scannebenen eine 2D-Scannebene ist. Außerdem sollte beachtet werden, dass die Mehrebenen-Bildakquisition unter Verwendung jeder beliebigen Art einer Ultraschallsonde und/oder eines Ultraschallbildgebungssystems, wie sie bzw. es geeignet sein kann, durchgeführt werden kann. Beispielsweise kann die Mehrebenen-Bildgebung unter Verwendung der Vivid-Linie von Ultraschallsystemen, wie beispielsweise dem Vivid 7 oder Vivid E9, die von GE Healthcare erhältlich sind, durchgeführt werden.
  • In einigen Ausführungsformen, wie beispielsweise bei der Implementierung mit einer Dreiebenen-Bildakquisition werden Ultraschallinformationen im Wesentlichen gleichzeitig oder nacheinander innerhalb einer kurzen Zeitspanne (von z. B. 1/20 Sekunden) für die drei unterschiedlich orientierten Scannebenen 232, 234 und 236 oder Ansichten akquiriert. Es sollte beachtet werden, dass der Abstand (z. B. die Winkelverdrehung) zwischen den Scannebenen 232, 234 und 236 gleich sein oder variiert werden kann. Zum Beispiel kann eine Datenscheibe, die der Scannebene 232 zugeordnet ist, einem Winkel von 0° entsprechen, während eine andere Datenscheibe, die der Scannebene 234 zugeordnet ist, einem Winkel von 60° entsprechen kann und eine zu der Scannebene 236 zugehörige dritte Datenscheibe einem Winkel von 120° entsprechen kann.
  • Aus den Bildebenen (z. B. einzelnen Ebenen eines Mehrebenen-Datensatzes) kann ein kombiniertes 2D-Bild, ein kombinier tes 3D-Bild oder ein sonstiges Bild erzeugt werden. Die Scannebenen 232, 234 und 236 können an einer gemeinsamen Drehachse 238 oder alternativ an unterschiedlichen Achsen einander schneiden. Es können drei Schichtbilder (z. B. durch einen 3D-Datensatz des vollen Umfangs geschnittene 2D-Schnitte) anhand der Bilddaten erzeugt werden, die an den drei Scannebenen 232, 234 und 236 akquiriert werden, die aufgrund der gleichzeitigen Akquisition der Scanndaten für die drei Scannebenen 232, 234 und 236 drei Ansichten des Scannobjektes in in etwa dem gleichen Zeitpunkt darstellen. Die drei Schnittbilder können beispielsweise von einem Patientenherzen in einem bestimmten Zeitpunkt des Herzschlags oder -zyklus sein. Alternativ können die drei Schnittbilder eine kontinuierliche Bewegung eines Patientenherzens zeigen, während das Herz schlägt. Es sollte beachtet werden, dass eine oder mehrere der Scannebenen 232, 234 und 236 in Bezug auf eine Scannoberfläche der (in 1 veranschaulichten) Ultraschallsonde (106) geneigt sein kann bzw. können. Außerdem kann die Winkelverdrehung zwischen den Scannebenen 232, 234 und 236 verändert oder variiert werden.
  • Es sollte ferner beachtet werden, dass die Scannebenen 232, 234 und 236 durch mechanische oder elektronische Steuerung einer Ultraschallsonde akquiriert werden können. Zum Beispiel kann die Ultraschallsonde in einigen Ausführungsformen einen mechanisch bewegbaren Scannkopf enthalten, der, wie bekannt ist, das (in 1 veranschaulichte) Elementenarray 104 bewegt, um Bilddaten (z. B. Bildebenen) zu akquirieren, die den Scannebenen 232, 234 und 236 entsprechen. In anderen Ausführungsformen kann die Ultraschallsonde eine elektronische Steuereinrichtung enthalten, die, wie bekannt ist, in elektronischer Weise eine Matrixanordnung steuert, um die den Scannebenen 232, 234 und 236 entsprechenden Bilddaten zu akquirieren. In noch weiteren Ausführungsformen kann eine Kombination aus mechanischer und elektronischer Steuerung, wie bekannt, ver wendet werden. Es sollte beachtet werden, dass während einer Akquisition der Scannebenen 232, 234 und 236 das Sondengehäuse in verschiedenen Ausführungsformen relativ zu dem gerade untersuchten Objekt nicht bewegt wird.
  • Es sollte auch beachtet werden, dass mehr als drei Scannebenen genutzt werden können, um Bildinformationen zu akquirieren. Zum Beispiel können sechs Ebenen (z. B. sechs Bildebenen) anhand von Bilddaten 240 erzeugt werden, die an den sechs Ebenen, nämlich den Scannebenen 232, 234 und 236 sowie an Scannebenen 242, 244 und 246, die, wie in 5 veranschaulicht, beispielsweise äquidistant zwischen den Scannebenen 232, 234 und 236 angeordnet sein können, akquiriert werden. Demgemäß kann jede der Scannebenen 232, 234, 236, 242, 244 und 246 jeweils von einer anderen um 30° getrennt bzw. beabstandet sein. Jedoch kann der Winkelabstand zwischen den jeweiligen der Scannebenen variiert werden. Demgemäß kann die Anzahl von Apikalebenen erhöht werden, indem beispielsweise durch elektronische Verdrehung der Scannwinkel sequentiell akquirierte Mehrebenen-Scanndaten genutzt werden. In einigen Ausführungsformen können mehrere Dreiebenen-Akquisitionen durchgeführt werden, die winkelmäßig in Bezug aufeinander verdreht sind, oder es kann eine einzelne Akquisition mit mehr als drei Scannebenen durchgeführt werden. Auf diese Weise kann beispielsweise eine gesteigerte Bildauflösung des linken Ventrikels eines abgebildeten Herzens erzielt werden.
  • Erneut bezugnehmend auf das in 3 veranschaulichte Verfahren 210 wird, nachdem bei 212 die Mehrebenen-Bilddaten erhalten werden, jede Bildebene bei 214 verarbeitet, um eine 2D-Verfolgung (2D-Tracking) durchzuführen. Zum Beispiel wird in einigen Ausführungsformen jede Bildebene derart verarbeitet, dass eine quantitative Analyse der Funktion des linken Ventrikels vorgenommen wird, indem beispielsweise eine 2D- Speckle-Verfolgung (2D-Speckle-Tracking) durchgeführt wird. Es sollte beachtet werden, dass die Verfolgung (das Tracking) anhand von akquirierten Apikalansichten durchgeführt werden kann. Außerdem sollte beachtet werden, dass ein normales linkes Ventrikel die geringste Bewegung an der Spitze zeigen wird, während der Mitralring die größte Bewegung zeigen wird. Es sollte auch beachtet werden, dass die systolische Mitralringverlagerung bzw. -bewegung, wie sie durch die Verfolgung ermittelt wird, mit der linksventrikulären Auswurffraktion eng korreliert.
  • Die verschiedenartige Verarbeitungsfunktion, die an jeder Ebene durchgeführt wird, verfolgt im Wesentlichen in 2D, auf der Basis von Bilddaten von den Scannebenen, die Bewegung des Herzens, und insbesondere des Myokards oder linken Ventrikels, wie beispielsweise eine Längsverschiebung. Die Verarbeitungsfunktionen können beispielsweise unter Verwendung der Vivid-Linie von Ultraschallsystemen, wie sie von GE Healthcare erhältlich sind, durchgeführt werden. Im Allgemeinen kann die Verarbeitung jeder Bildebene, die unterschiedliche Bildframes definieren kann, unter Verwendung eines beliebigen bekannten Verfahrens durchgeführt werden, das eine Bewegung des Herzens, insbesondere des Myokards oder linken Ventrikels, bestimmt oder verfolgt.
  • Nachdem jede Bildebene bei 214 verarbeitet worden ist, werden bei 216 funktionelle Bildinformationen aus der 2D-Verfolgung bestimmt. Zum Beispiel kann aus der 2D-Verfolgung eine Ventrikelwandbewegung bestimmt werden. Die Wandbewegungsinformationen können auf der Basis der gemessenen Bewegung der Ventrikelwand quantifiziert werden. Beispielsweise kann ein automatisierter Funktionsbildgebungsprozess mit dem VividTM 7 Dimensionssystem und/oder der EchoPackTM Workstation, wie sie von GE Healthcare erhältlich sind, durchgeführt werden. Die automatisierte Funktionsbildgebung ermöglicht eine Beurteilung der linken Ventrikelfunktion im Ruhezustand, um eine quantitative Bewertung vorzunehmen, um mögliche Wandbewegungsabnormalitäten festzustellen.
  • Unter Verwendung der ermittelten funktionellen Informationen werden bei 218 Bilddaten, die die funktionellen Bildinformationen enthalten, erzeugt, und sie können bei 220 optional angezeigt werden. Zum Beispiel kann nach der Erzeugung der Bilddaten, die die funktionellen Informationen enthalten, eine Anzeige 280, wie sie in 6 veranschaulicht ist, erzeugt und angezeigt werden. Die Anzeige 280 ist als ein sog. Bullaugen- oder Zielscheiben-Diagramm konfiguriert, das in bekannter Weise mehrere Segmente 282 aufweist (es sind 17 Segmente veranschaulicht, wobei jedoch mehrere oder wenigere Segmente, z. B. 16 Segmente oder 18 Segmente, vorgesehen sein können). Jedes der Segmente 282 kann darin einen numerischen Wert enthalten, der die maximale systolische Verformung (Strain) für dieses Segment 282 kennzeichnet. Außerdem können farbkodierte Regionen 284 vorgesehen sein, die das Maß der Kontraktion anzeigen. Zum Beispiel können die Regionen 284 allgemein ein geschätztes räumliches und zeitliches Verhalten des linken Ventrikels anzeigen, indem sie eine Verteilung der Kontraktion des Myokards zeigen. Unterschiedliche Farben können unterschiedliche Werte der Herzwandbewegung oder -kontraktion repräsentieren.
  • Jedoch sind die verschiedenen Ausführungsformen nicht auf eine bestimmte Art einer Anzeige beschränkt. Zum Beispiel können Verformungskurven oder -bilder oder gekrümmte anatomische M-Mode-Bilder angezeigt werden, die in bekannter Weise die funktionellen Informationen (z. B. farbkodierte funktionelle Informationen) zeigen.
  • Verschiedene Ausführungsformen der Erfindung stellen eine funktionelle Bildgebung, z. B. eine automatisierte funktionelle Bildgebung mit 2D-Verfolgung auf der Basis einer Mehrebenen-Datenakquisition unter Verwendung beispielsweise eines 3D-Ultraschallscanns bereit. Die verschiedenen Ausführungsformen ergeben beispielsweise eine automatisierte funktionelle Bildgebung, wie sie in 7 veranschaulicht ist, die einen Ablauf 290 für die funktionelle Bildgebung eines Herzens unter Verwendung einer Mehrebenen-Datenakquisition mit 2D-Verfolgung veranschaulicht. Es sollte beachtet werden, dass der Arbeitsablauf 290 in Hardware, Software oder einer Kombination von diesen ausgeführt sein kann.
  • Der Arbeitsablauf enthält eine Akquisition mehrerer Ansichten oder Datenscheiben mit einem Mehrebenen-Ultraschallscann bei 292. Es sollte beachtet werden, dass die Anzahl der Ebenen, die verwendet werden, um die Ultraschalldaten zu akquirieren, eine beliebige Anzahl von beispielsweise zwei oder mehr sein kann, wie dies hierin beschrieben ist. Wie hierin beschrieben, können drei Scannebenen z. B. unter Verwendung elektronischer Strahllenkung bzw. -steuerung automatisch akquiriert werden. Die drei Scannebenen können zum Beispiel Standardansichten, wie beispielsweise eine apikale Langachsenansicht, eine 4-Kammer-Ansicht und eine 2-Kammer-Ansicht, des Herzens sein. Bei 294 wird ein interessierender Bereich, z. B. das linke Ventrikel oder Myokard, definiert. Es sollte beachtet werden, dass der interessierende Bereich für jede Scannebene identifiziert wird. Der interessierende Bereich kann durch Identifizierung einer oder mehrerer Markierungen, z. B. des Apikalpunktes des Myokards, definiert werden, die von einem Benutzer (z. B. durch Zeigen und Anklicken mit einer Maus) von Hand identifiziert oder automatisch identifiziert werden kann bzw. können, indem beispielsweise bekannte Bewegungen innerhalb des Herzens genutzt werden. Jedoch sollte beachtet werden, dass, weil die Langachsenorienierung des linken Ventrikels durch den Mehrebenen-Scann definiert ist, die Apikalpunktposition für alle Scannebenen automatisch (z. B. auf der Basis der bekannten Winkelverdrehung jeder der Scannebenen) bestimmt werden kann. Beispielsweise wird, nachdem ein einzelner Apikalpunkt auf einer einzelnen Ansicht z. B. durch einen Benutzer oder automatisch bestimmt worden ist, der Apikalpunkt für alle Scannebenen definiert.
  • In einigen Ausführungsformen kann auf eine beliebige geeignete Weise eine automatische Apikalpunktdetektion vorgesehen werden. Zum Beispiel kann ein Benutzer eine oder mehrere anatomische Markierungen (z. B. den Mitralklappenring) identifizieren, die anschließend verwendet wird bzw. werden, um den Apikalpunkt, beispielsweise basierend auf einem bekannten Abstand von der anatomischen Markierung, automatisch zu identifizieren. Als ein weiteres Beispiel kann eine Bewegung innerhalb des Bildes verwendet werden, um den Apikalpunkt, beispielsweise auf der Basis eines bekannten Abstands zu einem identifizierten sich bewegenden Abschnitt des Herzens, automatisch zu bestimmen.
  • Nachdem der interessierende Bereich definiert worden ist, wird bei 296 eine Verfolgungsvalidierung durchgeführt, die für jeden Bildframe durchgeführt wird. Zum Beispiel kann die Bildqualität oder 2D-Verfolgungsqualität, wie in größeren Einzelheiten hierin beschrieben, durch einen Benutzer validiert oder mit einem Modellbild verglichen werden um festzustellen, ob das Bild innerhalb einer vorbestimmten Varianz liegt. Wenn die Qualität nicht akzeptabel ist, können die Bilddaten erneut verarbeitet werden. Außerdem sollte beachtet werden, dass Segmente des Myokards, die ein bestimmtes Qualitätsniveau nicht erfüllen, aus den angezeigten Ergebnissen ausgeschlossen werden können (z. B. Graufarbenkodierung auf dem Zielscheiben- Diagramm). Anschließend kann bei 298 eine Einstellung des Aortenklappenverschlusses (AVC, Aortic Valve Closure) vorgenommen werden. Zum Beispiel kann ein Benutzer den AVC auf der Langachsen-Apikalansicht in bekannter Weise bestätigen um sicherzustellen, dass der definierte Punkt (z. B. Kurvenmaximum) des Aortenklappenverschlusses korrekt ist. Der AVC-Zeitpunkt kann auch automatisch, z. B. durch Vergleich mit einem erwarteten Wert, bestätigt werden. Der AVC kann in der gewünschten oder erforderlichen Weise eingestellt werden.
  • Danach kann bei 300 ein parametrisches Bild auf jede beliebige bekannte Weise erzeugt und angezeigt werden. Zum Beispiel kann ein maximales systolisches Verformungsbild (Strain-Bild) oder ein endsystolisches Verformungsbild mit farbkodierten Herzwandkontraktionsinformationen angezeigt werden, das auch eine Information über einen Prozentwert der Kontraktion enthalten kann.
  • Es können weitere Anzeigen als Teil des Ablaufs 290 bereitgestellt werden. Zum Beispiel können bei 302 Verformungskurven (Strain-Kurven) oder ein oder mehrere zielscheibenartige Diagramme (wie in 6 veranschaulicht), auf jede beliebige bekannte Weise und wie hierin beschrieben, erzeugt und angezeigt werden.
  • Somit ergeben die verschiedenen Ausführungsformen eine funktionelle Ultraschallbildgebung, worin eine 2D-Verfolgung auf einer Mehrebenen-Datenakquisition, beispielsweise in einem 3D-Bildgebungsmodus, basiert. Demgemäß wird eine Quantifizierung des linken Ventrikels auf der Basis einer 2D-Speckle-Verfolgung in gleichzeitig oder nahezu gleichzeitig akquirierten Mehrebenen-Daten erzielt. Die Anzahl von akquirierten Apikalebenen kann erhöht werden, indem beispielsweise sequentiell akquirierte Mehrebenen-Daten miteinander kombiniert oder an einander geheftet werden, die durch elektronische Verdrehung der Scannwinkel einer Ultraschallsonde ohne eine Bewegung der Ultraschallsonde akquiriert werden können. Außerdem kann der Apikalpunkt für alle Scannebenen basierend auf der durch den Mehrebenen-Scann definierten Langachsenorientierung des linken Ventrikels automatisch bestimmt (oder geschätzt) werden.
  • Das Ultraschallsystem 100 nach 1 kann in einem klein bemessenen System, wie beispielsweise einem Laptop-Computer oder einem Westentaschenformat großen System sowie in einem größeren konsolenartigen System verkörpert sein. 8 und 9 veranschaulichen kleine Systeme, während 10 ein größeres System veranschaulicht.
  • 8 veranschaulicht ein 3D-fähiges miniaturisiertes Ultraschallsystem 330, das eine Sonde 332 (z. B. eine dreidimensionale (3D) Trans-Esophageal-Echokardiographie(TEE)-Ultraschallsonde auf, die konfiguriert sein kann, um 3D-Ultraschalldaten, nämlich Mehrebenen-Ultraschalldaten, zu akquirieren. Zum Beispiel kann die Sonde 332 ein 2D-Array von Elementen 104 aufweisen, wie dies zuvor in Bezug auf die Sonde 106 nach 1 erläutert ist. Es ist eine Benutzerschnittstelle 334 (die auch eine integrierte Anzeige 336 enthalten kann) vorgesehen, um Befehle von einem Bediener zu empfangen. In dem hier verwendeten Sinne bedeutet „miniaturisiert”, dass das Ultraschallsystem 330 eine von Hand haltbare oder handgeführte Vorrichtung ist oder konfiguriert ist, um in einer Personenhand, einer Tasche, einem Aktenmappen großen Etui oder einem Rucksack getragen zu werden. Beispielsweise kann das Ultraschallsystem 330 eine handgeführte Vorrichtung sein, die eine Größe eines typischen Laptop-Computers aufweist. Das Ultraschallsystem 330 lässt sich von dem Bediener leicht transportieren. Die integrierte Anzeige 336 (z. B. eine interne Anzei ge) ist konfiguriert, um beispielsweise ein oder mehrere medizinische Bilder anzuzeigen.
  • Die Ultraschalldaten können zu einer externen Vorrichtung 338 über ein drahtgebundenes oder drahtloses Netzwerk 340 (oder eine Direktverbindung, z. B. über ein serielles oder paralleles Kabel oder einen USB-Port) gesandt werden. In einigen Ausführungsformen kann die externe Vorrichtung ein Computer oder eine Arbeitsstation (Workstation) mit einer Anzeige sein. Alternativ kann die externe Vorrichtung 338 eine separate externe Anzeige oder ein Drucker sein, die in der Lage sind, Bilddaten von dem handgeführten Ultraschallsystem 330 zu empfangen und Bilder anzuzeigen oder zu drucken, die eine größere Auflösung als die integrierte Anzeige 336 haben können.
  • 9 veranschaulicht ein handgeführtes oder im Westentaschenformat bemessenes Ultraschallbildgebungssystem 350, worin die Anzeige 352 und eine Benutzerschnittstelle 354 eine einzelne Einheit bilden. Zu Beispielszwecken kann das Ultraschallbildgebungssystem 350 im Westentaschenformat ein taschengroßes oder handgroßes Ultraschallsystem mit einer Breite von ungefähr 2 Zoll, einer Länge von ungefähr 4 Zoll und einer Tiefe von ungefähr 0,5 Zoll und mit einem Gewicht von weniger als 3 Unzen sein. Das Ultraschallbildgebungssystem 350 im Westentaschenformat enthält allgemein die Anzeige 352, die Benutzerschnittstelle 354, die eine tastaturartige Schnittstelle enthalten kann oder auch nicht, und einen Eingabe/Ausgabe-Anschluss (I/O-Port) zur Verbindung mit einer Scannvorrichtung, z. B. einer Ultraschallsonde 356. Die Anzeige 352 kann beispielsweise eine 320×320 Pixel große farbige LCD-Anzeige sein (auf der ein medizinisches Bild 190 dargestellt werden kann). Eine schreibmaschinenähnliche Tastatur 380 mit Tasten 382 kann in der Benutzerschnittstelle optional enthalten sein.
  • Multifunktionssteuerungen 384 können jeweils Funktionen zugeordnet sein, die dem Systembetriebsmodus (z. B. dem Anzeigen unterschiedlicher Ansichten) entsprechen. Folglich kann jede der Multifunktionssteuerungen 384 konfiguriert sein, um mehrere unterschiedliche Wirkungen zu erzielen. Bezeichnungsanzeigebereiche 386, die den Multifunktionssteuerungen 384 zugeordnet sind, können erforderlichenfalls auf der Anzeige 352 enthalten sein. Das System 350 kann ferner zusätzliche Tasten und/oder Steuerungen 388 für Spezialzweckfunktionen aufweisen, die beispielsweise, jedoch nicht darauf beschränkt, „Einfrieren”, „Tiefensteuerung”, „Verstärkungssteuerung”, „Farbmodus”, „Drucken” und „Speichern” enthalten können.
  • Ein oder mehrere der Bezeichnungsanzeigebereiche 386 können Bezeichnungen 392 enthalten, um die gerade angezeigte Ansicht anzuzeigen oder einem Benutzer zu ermöglichen, eine andere Ansicht des abgebildeten Objektes für die Darstellung zu wählen. Zum Beispiel können die Bezeichnungen 392 eine apikale 4-Kammer-Ansicht (a4ch), eine apikale Langachsenansicht (alax) oder eine apikale 2-Kammer-Ansicht (a2ch) anzeigen. Die Auswahl der unterschiedlichen Ansichten kann auch über die zugehörige Multifunktionssteuerung 384 vorgenommen werden. Zum Beispiel kann die 4ch-Ansicht mit der Multifunktionssteuerung F5 ausgewählt werden. Die Anzeige 352 kann ferner einen Textanzeigebereich 394 zum Anzeigen von Informationen, die die angezeigte Bildansicht betreffen (z. B. einer dem angezeigten Bild zugeordneten Bezeichnung), aufweisen.
  • Es sollte beachtet werden, dass die verschiedenen Ausführungsformen in Verbindung mit miniaturisierten oder kleinbemessenen Ultraschallsystemen implementiert sein können, die unterschiedliche Dimensionen, Gewichte und unterschiedlichen Leistungsverbrauch aufweisen können. Zum Beispiel können das Ultraschallbildgebungssystem 350 im Westentaschenformat und das miniaturisierte Ultraschallsystem 330 nach 8 die gleiche Scann- und Verarbeitungsfunktionalität wie das (in 1 veranschaulichte) System 100 bieten.
  • 10 veranschaulicht ein transportables Ultraschallbildgebungssystem 400, das auf einer bewegbaren Basis 402 vorgesehen ist. Das transportable Ultraschallbildgebungssystem 400 kann auch als ein wagenbasiertes System bezeichnet werden. Es sind eine Anzeige 404 und eine Benutzerschnittstelle 406 vorgesehen, und es sollte verstanden werden, dass die Anzeige 404 eine von der Benutzerschnittstelle 406 gesonderte oder trennbare Anzeige sein kann. Die Benutzerschnittstelle 406 kann optional durch einen berührungsempfindlichen Bildschirm gebildet sein, der dem Bediener ermöglicht, Optionen durch Antasten angezeigter Grafiksymbole, Icons und dergleichen auszuwählen.
  • Die Benutzerschnittstelle 406 enthält ferner Steuertasten 408, die verwendet werden können, um das transportable Ultraschallbildgebungssystem in der gewünschten oder erforderlichen und/oder gewöhnlich vorgesehenen Weise, zu steuern. Die Benutzerschnittstelle 406 bietet mehrere Interface-Optionen, die der Benutzer physisch betätigen kann, um mit Ultraschalldaten und anderen Daten, die angezeigt werden können, zu interagieren sowie um Informationen einzugeben und Scannparameter sowie Ansichtswinkel, etc. festzusetzen und zu verändern. Zum Beispiel kann/können eine Tastatur 410, ein Trackball 412 und/oder Multifunktionssteuerungen 414 vorgesehen sein.
  • Die verschiedenen Ausführungsformen und/oder Komponenten, z. B. die darin vorgesehenen Module oder Komponenten und Steuerungen, können auch als ein Teil eines oder mehrerer Computer oder Prozessoren implementiert sein. Der Computer oder Prozessor kann eine Rechenvorrichtung, eine Eingabevorrichtung, eine Anzeigeeinheit und eine Schnittstelle, z. B. für den Zugriff auf das Internet, enthalten. Der Computer oder Prozessor kann einen Mikroprozessor enthalten. Der Mikroprozessor kann mit einem Kommunikationsbus verbunden sein. Der Computer oder Prozessor kann ferner einen Speicher enthalten. Der Speicher kann einen Direktzugriffsspeicher (RAM) und einen Festwertspeicher (ROM) enthalten. Der Computer oder Prozessor kann ferner eine Speichervorrichtung enthalten, die ein Festplattenlaufwerk oder ein Wechselspeicherlaufwerk, wie beispielsweise ein Floppy-Diskettenlaufwerk, ein optisches Plattenlaufwerk und dergleichen sein kann. Die Speichervorrichtung kann auch eine andere ähnliche Einrichtung zum Laden von Computerprogrammen oder anderen Instruktionen in den Computer oder Prozessor sein.
  • In dem hierin verwendeten Sinne kann der Begriff „Computer” jedes beliebige Prozessor basierte oder Mikroprozessor basierte System, einschließlich Systeme mit Mikrocontrollern, Rechnern mit reduziertem Befehlssatz (RISC, Reduced Instruction Set Computers), anwendungsspezifischen integrierten Schaltungen (ASICs), Logikschaltungen und beliebigen sonstigen Schaltungen oder Prozessoren, die in der Lage sind, die hierin beschriebenen Funktionen auszuführen, enthalten. Die vorstehenden Beispiele sind lediglich beispielhafter Natur und somit nicht dazu vorgesehen, die Definition und/oder Bedeutung des Begriffs „Computer” in irgendeiner Weise zu beschränken.
  • Der Computer oder Prozessor führt einen Satz Instruktionen aus, die in einem oder mehreren Speicherelementen gespeichert sind, um Eingangsdaten zu verarbeiten. Die Speicherelemente können auch Daten oder andere Informationen speichern, sofern dies erwünscht oder erforderlich ist. Das Speicherelement kann in Form einer Informationsquelle oder eines physikalischen Speicherelementes in einer Verarbeitungsmaschine vorliegen.
  • Der Satz Instruktionen kann verschiedene Befehle enthalten, die den Computer oder Prozessor als eine Verarbeitungsmaschine anweisen, spezielle Operationen, wie beispielsweise die Verfahren und Prozesse der verschiedenen Ausführungsformen der Erfindung, auszuführen. Der Satz Instruktionen kann in Form eines Softwareprogramms vorliegen. Die Software kann in verschiedenen Formen, beispielsweise als Systemsoftware oder Anwendungssoftware, vorliegen. Ferner kann die Software in Form einer Sammlung gesonderter Programme, eines Programmmoduls innerhalb eines größeren Programms oder eines Abschnitts eines Programmmoduls vorliegen. Die Software kann auch modulare Programmierung in Form einer objektorientierten Programmierung enthalten. Die Verarbeitung von Eingangsdaten durch die Verarbeitungsmaschine kann als Reaktion auf Benutzerbefehle oder als Reaktion auf Ergebnisse früherer Verarbeitung oder als Reaktion auf eine durch eine andere Verarbeitungsmaschine gestellte Anforderung erfolgen.
  • In dem hierin verwendeten Sinne sind die Begriffe „Software” und „Firmware” gegeneinander austauschbar und enthalten jedes beliebige Computerprogramm, das in einem Speicher zur Ausführung durch einen Computer, einschließlich eines RAM-Speichers, ROM-Speichers, EPROM-Speichers, EEPROM-Speichers und eines nicht flüchtigen RAM-Speichers (NVRAM-Speichers), gespeichert sind. Die vorstehenden Speicherarten sind lediglich beispielhaft und somit hinsichtlich der Arten von zur Speicherung eines Computerprogramms nutzbaren Speichern nicht beschränkend.
  • Es ist zu verstehen, dass die obige Beschreibung dazu vorgesehen ist, lediglich veranschaulichend und nicht restriktiv zu sein. Zum Beispiel können die vorstehend beschriebenen Ausführungsformen (und/oder deren Aspekte) in Kombination miteinander verwendet werden. Außerdem können viele Modifikationen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Erfindung anzupassen, ohne von deren Rahmen abzuweichen. Während die Abmessungen und Arten von Materialien, wie hierin beschrieben, die Parameter der Erfindung definieren sollen, sind sie in keiner Weise beschränkend, und sie stellen lediglich beispielhafte Ausführungsformen dar. Es werden sich Fachleuten auf dem Fachgebiet beim Studium der obigen Beschreibung viele weitere Ausführungsformen erschließen. Der Umfang der Erfindung sollte folglich unter Bezugnahme auf die beigefügten Ansprüche gemeinsam mit dem vollen Umfang von Äquivalenten, die derartige Ansprüche umfassen, bestimmt werden. In den beigefügten Ansprüchen werden die Ausdrücke „enthaltend” und „in dem/der/denen” als die Äquivalente der jeweiligen Ausdrücke „aufweisen” und „worin” verwendet. Außerdem werden in den folgenden Ansprüchen die Ausdrücke „erste(r, s)”, „zweite(r, s)” und „dritte(r, s)”, etc. lediglich als Bezeichnungen verwendet, und sie sind nicht dazu vorgesehen, den Objekten irgendeine zahlenmäßige Anforderung aufzuerlegen.
  • Diese Beschreibung verwendet Beispiele, um die Erfindung, einschließlich der besten Ausführungsform, zu offenbaren und auch um jedem Fachmann zu ermöglichen, die Erfindung auszuführen, wozu eine Herstellung und Verwendung jeglicher Vorrichtungen oder Systeme und eine Durchführung jeglicher enthaltener Verfahren gehören. Der patentierbare Umfang der Erfindung ist durch die Ansprüche definiert und kann weitere Beispiele enthalten, die Fachleuten einfallen. Derartige weitere Beispiele sollen in dem Schutzumfang der Ansprüche enthalten sein, wenn sie strukturelle Elemente aufweisen, die sich von dem Wortsinn der Ansprüche nicht unterscheiden, oder wenn sie äquivalente strukturelle Elemente mit gegenüber dem Wortsinn der Ansprüche unwesentlichen Unterschieden enthalten.
  • Es sind ein System 100 und ein Verfahren 210 zur funktionellen Ultraschallbildgebung geschaffen. Das Verfahren 210 enthält ein Gewinnen 212 von Ultraschallbilddaten, die von einem Mehrebenen-Bildgebungsscann eines abgebildeten Objektes akquiriert werden. Die Ultraschallbilddaten definieren mehrere Bildebenen. Das Verfahren 210 enthält ferner ein Bestimmen 216 funktioneller Bildinformationen für das abgebildete Objekt aus zweidimensionalen Verfolgungsinformationen auf der Basis der mehreren Bildebenen und ein Erzeugen 218 funktioneller Ultraschallbilddaten für das abgebildete Objekt unter Verwendung der funktionellen Bildinformationen.
  • 100
    Ultraschallsystem
    102
    Sender
    104
    Elemente
    106
    Sonde
    108
    Empfänger
    110
    Strahlformer
    112
    HF-Prozessor
    114
    Speicher
    116
    Prozessor
    118
    Anzeige
    122
    Speicher
    124
    Benutzerschnittstelle
    126
    Funktionelles Bildgebungsmodul
    136
    Ultraschallprozessormodul
    150
    Ultraschallsteuerung
    152–164
    Teilmodule
    170
    Ultraschalldaten
    172
    Farb-Fluss-Daten
    174
    Leistungs-Doppler-Daten
    176
    B-Mode-Daten
    178
    Specktral-Doppler-Daten
    180
    M-Mode-Daten
    182
    ARFI-Daten
    184
    Gewebe-Doppler-Daten
    190
    Speicher
    192
    Konverter-Teilmodul
    194
    Prozessor-Teilmodul
    195
    Ultraschallbildframe
    196
    Bus
    198
    Multi-Mode-Bildframe
    200
    Prozessor-Teilmodul
    210
    Verfahren
    212
    Mehrebenen-Bilddaten erhalten
    214
    Jede Bildebene zur Durchführung einer 2D-Verfolgung verarbeiten
    216
    Funktionelle Bildinformationen aus 2D-Verfolgung bestimmen
    218
    Bilddaten mit funktionellen Bildinformationen erzeugen
    220
    Bild mit funktionellen Bildinformationen anzeigen
    230
    Bilddaten
    232–236
    Scannebenen
    238
    Drehachse
    240
    Bilddaten
    242–246
    Scannebenen
    280
    Anzeige
    282
    Segment
    284
    Regionen
    290
    Arbeitsablauf
    292
    Akquirieren mehrerer Ansichten oder Datenscheiben mit Mehrebenen-Ultraschallscann
    294
    Ein interessierender Bereich wird definiert
    296
    Verfolgungsvalidierung wird durchgeführt
    298
    Eine Einstellung des Aortenklappenverschlusses (AVC) kann vorgenommen werden
    300
    Ein parametrisches Bild kann erzeugt werden
    302
    Verfolgungskurven oder Zielscheibendiagramm(e) können erzeugt und angezeigt werden
    330
    Ultraschallsystem
    332
    Sonde
    334
    Benutzerschnittstelle
    336
    Integrierte Anzeige
    338
    Externe Vorrichtung
    340
    Drahtgebundenes oder drahtloses Netzwerk
    350
    Ultraschallbildgebungssystem
    352
    Anzeige
    354
    Benutzerschnittstelle
    356
    Ultraschallsonde
    380
    Schreibmaschinenähnliche Tastatur
    382
    Tasten
    384
    Multifunktionssteuerungen
    386
    Bezeichnungsanzeigebereiche
    388
    Steuerungen
    392
    Bezeichnungen
    394
    Textanzeigebereich
    400
    Transportables Ultraschallbildgebungssystem
    402
    Bewegbare Basis
    404
    Anzeige
    406
    Benutzerschnittstelle
    408
    Steuertasten
    410
    Tastatur
    412
    Trackball
    414
    Multifunktionssteuerungen

Claims (10)

  1. Verfahren (210) zur funktionellen Ultraschallbildgebung, wobei das Verfahren aufweist: Gewinnen (212) von Ultraschallbilddaten, die von einem Mehrebenen-Bildgebungsscann eines abgebildeten Objektes akquiriert werden, wobei die Ultraschallbilddaten mehrere Bildebenen definieren; Bestimmen (216) funktioneller Bildinformationen für das abgebildete Objekt aus zweidimensionalen Verfolgungsinformationen auf der Basis der mehreren Bildebenen; und Erzeugen (218) funktioneller Ultraschallbilddaten für das abgebildete Objekt unter Verwendung der funktionellen Bildinformationen.
  2. Verfahren (210) nach Anspruch 1, das ferner ein Durchführen einer zweidimensionalen Verfolgung zur Bestimmung der funktionellen Bildinformationen aufweist.
  3. Verfahren (210) nach Anspruch 1, wobei das abgebildete Objekt ein Herz ist und die Ultraschallbilddaten Daten des abgebildeten Herzens mit den Myokardkontraktionsinformationen aufweisenden funktionellen Informationen aufweisen.
  4. Verfahren nach Anspruch 3, das ferner eine automatische Bestimmung einer Apikalpunktposition in jedem von mehreren Bildframes auf der Basis eines Apikalpunktes in wenigstens einem der mehreren Bildframes aufweist.
  5. Verfahren nach Anspruch 1, wobei der Mehrebenen-Bildgebungsscann einen Dreiebenen-Bildgebungsscann aufweist.
  6. Verfahren nach Anspruch 5, wobei der Dreiebenen-Bildgebungsscann mehrere apikale Bildebenen bei unterschiedlich verdrehten Scannwinkeln aufweist.
  7. Verfahren nach Anspruch 1, wobei der Mehrebenen-Bildgbungsscann mehrere sequentiell akquirierte Dreiebenen-Bildgebungsscanns aufweist und das Verfahren ferner ein Kombinieren der Bildgebungsdaten von den mehreren Dreiebenen-Bildgebungsscanns aufweist.
  8. Verfahren nach Anspruch 7, wobei die mehreren Dreiebenen-Bildgebungsscanns entweder mehrere verdrehte Ein-Ebenen-Scanns oder mehrere verdrehte Zwei-Ebenen-Scanns aufweisen.
  9. Ultraschallsystem (100), das aufweist: eine Ultraschallsonde (106), die konfiguriert ist, um eine Mehrebenen-Ultraschallbildgebung durchzuführen, um mehrere Bildframes zu akquirieren; und einen Prozessor (116), der ein funktionelles Bildgebungsmodul (126) aufweist, das konfiguriert ist, um funktionelle Bildinformationen aus zweidimensionalen Verfolgungsinformationen für die akquirierten mehreren Bildframes zu bestimmen und funktionelle Ultraschallbilddaten zu erzeugen.
  10. Ultraschallsystem nach Anspruch 9, wobei die Ultraschallsonde entweder eine dreidimensionale Sonde mit einer elektronisch steuerbaren Matrixanordnung oder eine dreidimensionale (3D) Trans-Esophageal-Echokardiographie(TEE)-Ultraschallsonde aufweist.
DE102010015973A 2009-03-25 2010-03-15 System und Verfahren zur funktionellen Ultraschallbildgebung Withdrawn DE102010015973A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/410,924 2009-03-25
US12/410,924 US20100249589A1 (en) 2009-03-25 2009-03-25 System and method for functional ultrasound imaging

Publications (1)

Publication Number Publication Date
DE102010015973A1 true DE102010015973A1 (de) 2010-09-30

Family

ID=42664280

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010015973A Withdrawn DE102010015973A1 (de) 2009-03-25 2010-03-15 System und Verfahren zur funktionellen Ultraschallbildgebung

Country Status (3)

Country Link
US (1) US20100249589A1 (de)
JP (1) JP2010227568A (de)
DE (1) DE102010015973A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015068099A1 (en) * 2013-11-05 2015-05-14 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102368955B (zh) * 2009-04-01 2014-07-16 模拟技术公司 超声波探头
US8696579B2 (en) * 2010-06-04 2014-04-15 Siemens Medical Solutions Usa, Inc. Cardiac flow quantification with volumetric imaging data
KR101293744B1 (ko) * 2011-11-28 2013-08-06 삼성메디슨 주식회사 복수의 2차원 영상들과 3차원 모델의 합성을 위한 방법 및 장치
WO2013093837A1 (en) * 2011-12-23 2013-06-27 Koninklijke Philips Electronics N.V. Method and apparatus for interactive display of three dimensional ultrasound images
US9196092B2 (en) * 2012-06-11 2015-11-24 Siemens Medical Solutions Usa, Inc. Multiple volume renderings in three-dimensional medical imaging
JP2015150325A (ja) * 2014-02-18 2015-08-24 株式会社東芝 医用画像処理装置及び医用画像処理方法
JP6591195B2 (ja) * 2015-05-15 2019-10-16 キヤノンメディカルシステムズ株式会社 超音波診断装置及び制御プログラム
US11304681B2 (en) 2016-03-03 2022-04-19 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and image processing method
JP6925824B2 (ja) 2017-02-28 2021-08-25 キヤノンメディカルシステムズ株式会社 超音波診断装置、画像処理装置、及び画像処理プログラム
EP3821813A4 (de) * 2018-07-13 2022-04-20 Furuno Electric Co., Ltd. Ultraschallbildgebungsvorrichtung, ultraschallbildgebungssystem, ultraschallbildgebungsverfahren und ultraschallbildgebungsprogramm
EP3843639B1 (de) * 2018-08-29 2024-03-13 Koninklijke Philips N.V. Steuerung und anzeige der bildgebungsebene für intraluminalen ultraschall sowie zugehörige vorrichtungen, systeme und verfahren
KR20200132144A (ko) * 2019-05-15 2020-11-25 삼성메디슨 주식회사 초음파 영상 장치 및 그 표시 방법
US20230248331A1 (en) * 2022-02-09 2023-08-10 GE Precision Healthcare LLC Method and system for automatic two-dimensional standard view detection in transesophageal ultrasound images

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5872571A (en) * 1996-05-14 1999-02-16 Hewlett-Packard Company Method and apparatus for display of multi-planar ultrasound images employing image projection techniques
US5871019A (en) * 1996-09-23 1999-02-16 Mayo Foundation For Medical Education And Research Fast cardiac boundary imaging
US6030344A (en) * 1996-12-04 2000-02-29 Acuson Corporation Methods and apparatus for ultrasound image quantification
JP4116122B2 (ja) * 1997-11-28 2008-07-09 株式会社東芝 超音波診断装置及び超音波画像処理装置
US6458082B1 (en) * 1999-09-29 2002-10-01 Acuson Corporation System and method for the display of ultrasound data
US6607488B1 (en) * 2000-03-02 2003-08-19 Acuson Corporation Medical diagnostic ultrasound system and method for scanning plane orientation
US6443896B1 (en) * 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
AU2003212721A1 (en) * 2002-03-15 2003-09-29 Bjorn A. J. Angelsen Multiple scan-plane ultrasound imaging of objects
US20040116810A1 (en) * 2002-12-17 2004-06-17 Bjorn Olstad Ultrasound location of anatomical landmarks
US20050131302A1 (en) * 2003-12-16 2005-06-16 Poland Mckee D. Ultrasonic probe having a selector switch
US8012090B2 (en) * 2004-06-22 2011-09-06 General Electric Company Method and apparatus for real time ultrasound multi-plane imaging
DE102005002949A1 (de) * 2005-01-21 2006-08-03 Siemens Ag Verfahren zur Visualisierung von Schädigungen im Myokard
WO2006111871A1 (en) * 2005-04-18 2006-10-26 Koninklijke Philips Electronics N.V. Portable ultrasonic diagnostic imaging system with docking station
EP1744181B8 (de) * 2005-07-15 2014-04-09 Kabushiki Kaisha Toshiba Diagnostisches Ultraschallgerät und Verfahren zur Verarbeitung von Ultraschallbildern
JP5134787B2 (ja) * 2005-07-15 2013-01-30 株式会社東芝 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
US8081806B2 (en) * 2006-05-05 2011-12-20 General Electric Company User interface and method for displaying information in an ultrasound system
JP5148094B2 (ja) * 2006-09-27 2013-02-20 株式会社東芝 超音波診断装置、医用画像処理装置及びプログラム
US7831076B2 (en) * 2006-12-08 2010-11-09 Biosense Webster, Inc. Coloring electroanatomical maps to indicate ultrasound data acquisition
JP5319157B2 (ja) * 2007-09-04 2013-10-16 株式会社東芝 超音波診断装置、超音波画像処理装置、及び超音波画像処理プログラム
US7978461B2 (en) * 2007-09-07 2011-07-12 Sonosite, Inc. Enhanced ultrasound system
US8319770B2 (en) * 2008-07-11 2012-11-27 General Electric Company Method and apparatus for automatically adjusting user input left ventricle points

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015068099A1 (en) * 2013-11-05 2015-05-14 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging
CN105900140A (zh) * 2013-11-05 2016-08-24 皇家飞利浦有限公司 用于实时超声成像的三平面图像的自动分割
RU2677055C2 (ru) * 2013-11-05 2019-01-15 Конинклейке Филипс Н.В. Автоматическая сегментация трехплоскостных изображений для ультразвуковой визуализации в реальном времени
CN105900140B (zh) * 2013-11-05 2019-02-05 皇家飞利浦有限公司 用于实时超声成像的三平面图像的自动分割

Also Published As

Publication number Publication date
JP2010227568A (ja) 2010-10-14
US20100249589A1 (en) 2010-09-30

Similar Documents

Publication Publication Date Title
DE102010015973A1 (de) System und Verfahren zur funktionellen Ultraschallbildgebung
DE102011001819A1 (de) Verfahren und System zur Bestimmung eines interessierenden Bereichs in Ultraschalldaten
DE102010015937A1 (de) System und Verfahren zur Anzeige von Ultraschallbewegungsverfolgungsinformationen
DE102007019652A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem
US9943288B2 (en) Method and system for ultrasound data processing
DE102018218751A1 (de) Machinengestützter arbeitsablauf bei der ultraschallbildgebung
DE102009026110A1 (de) Vorrichtung und Verfahren zur Darstellung eines Ultraschallmesskopfes relativ zu einem Objekt
DE102013021729B4 (de) Verbesserung der Nadelvisualisierung in der diagnostischen Ultraschallbildgebung
DE102018216296A1 (de) Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung
DE102016105690A1 (de) Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung
DE102007021515A1 (de) Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden
DE102007015527B4 (de) Querverweis-Messung für die diagnostische medizinische Bildgebung
DE102007019859A1 (de) Benutzerschnittstelle für Ultraschallsystem mit automatischer Mehrfachebenenbildung
DE112006002162T5 (de) Verfahren und System zur Kartierung von pysiologischen Informationen auf anatomische Strukturen, welche auf Ultraschall beruhen
DE102007020862A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen in einem Ultraschallsystem
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE102016104263A1 (de) Kontinuierlich ausgerichtete verbesserte Ultraschallbildgebung eines Teilvolumens
US20100249592A1 (en) System and method for compensating for motion when displaying ultrasound motion tracking information
DE102019202545A1 (de) Platzierung der Region von Interesse für die quantitative Ultraschallbildgebung
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
DE112004000607T5 (de) Verfahren und Vorrichtung für eine wissensbasierte diagnostische Bildgebung
DE102007020314A1 (de) Verfahren und Vorrichtung zur Messung eines Flusses durch eine Herzklappe
DE102012108353A1 (de) Klassifikationsvorverarbeitung in der medizinischen ultraschallscherwellenbildgebung
DE102007018454A1 (de) System und Verfahren zum automatischen Gewinnen von Ultraschallbildebenen, basierend auf patientenspezifischen Daten
DE102007057884A1 (de) Speicherung von Bildgebungsparametern

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee