DE102016105690A1 - Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung - Google Patents

Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung Download PDF

Info

Publication number
DE102016105690A1
DE102016105690A1 DE102016105690.1A DE102016105690A DE102016105690A1 DE 102016105690 A1 DE102016105690 A1 DE 102016105690A1 DE 102016105690 A DE102016105690 A DE 102016105690A DE 102016105690 A1 DE102016105690 A1 DE 102016105690A1
Authority
DE
Germany
Prior art keywords
volume
interest
scan
scanning
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016105690.1A
Other languages
English (en)
Inventor
Wilko Gerwin Wilkening
Tobias Heimann
Kristof Ralovich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of DE102016105690A1 publication Critical patent/DE102016105690A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • A61B8/065Measuring blood flow to determine blood output from the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • A61B8/585Automatic set-up of the device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52063Sector scan display
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Hematology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Ein Volumen von Interesse wird mittels Ultraschall abgebildet (38). Ein Objekt von Interesse wird automatisch aus einem Volumenscan lokalisiert (32). In einem Ansatz wird durch einen Klassifikator ein geometrischer Begrenzungsrahmen gefunden, der ein Objekt umgibt. In einem weiteren Ansatz wird dem Benutzer eine Option für das Heranzoomen an das Objekt angegeben (33). Ein Scanbereich wird automatisch um das Objekt oder den Begrenzungsrahmen definiert (34), entweder als Reaktion auf die Benutzerauswahl der Option oder nicht. Der Scanbereich wird basierend auf dem Ultraschallscanformat, jedoch kleiner als das Volumen, geformt. Das durch den Scanbereich definierte Volumen von Interesse wird genutzt, um Bilder mit einer höheren zeitlichen und/oder räumlichen Auflösung zu erstellen (38) als das Scannen (30) des gesamten ursprünglichen Volumens.

Description

  • HINTERGRUND
  • Die vorliegende Erfindung betrifft Volumenbildgebung beim Ultraschall. Insbesondere wird die Volumenbildgebung mit einem Bereich von Interesse bereitgestellt.
  • Beim Scannen eines Volumens eines Patienten wird ein kleinerer Bereich des Volumens von Interesse identifiziert. Der kleinere Bereich von Interesse ermöglicht eine gezieltere Nutzung der vorhandenen Aufnahmezeit und des Transducers oder der Informationsrate des Systems. Eine höhere zeitliche oder räumliche Auflösung ist durch das Scannen des Volumenbereichs von Interesse statt des gesamten Volumens möglich.
  • In der klinischen Praxis muss der Ultraschalldiagnostiker das Volumen von Interesse manuell positionieren. Das benötigt Zeit und ist somit unter Umständen während peri-operativer Anwendungen (z. B. transösophagealer Echokardiographie (TEE)) schlechter durchführbar. Ein manuelles Verbessern der Position des Volumens von Interesse bezüglich des Transducers ist ebenfalls zeitaufwändig. Ein Volumen von Interesse ist als an einer vorgegebenen Position bezüglich des Transducers liegend gekennzeichnet. Die kontinuierliche Bildgebung einer bestimmten Struktur mit dem durch den Transducer definierten Referenzrahmen kann schwierig sein. Es ist nicht leicht, den Transducer still zu halten und die Organe können durch Atmen oder Herzschlag beeinflusst werden. Der Transducer oder die Bewegung des Patienten können die Struktur von Interesse aus dem relevanten Volumen bewegen, was mehr zeitaufwändiges manuelles Positionieren erfordert.
  • KURZE ZUSAMMENFASSUNG
  • Einleitend enthalten die unten beschriebenen bevorzugten Ausführungsformen Verfahren und Systeme zur Ultraschall-Bildgebung eines Volumens von Interesse. Ein Objekt von Interesse wird automatisch durch einen Volumenscan lokalisiert. Das Objekt kann zusammenhängend oder in Abschnitte eingeteilt sein. In einem Ansatz wird durch einen Klassifikator ein geometrischer Begrenzungsrahmen gefunden, der ein Objekt umgibt. In einem anderen Ansatz wird dem Benutzer eine Option für das Heranzoomen an das Objekt angezeigt. Ein Scanbereich wird automatisch um das Objekt oder den Begrenzungsrahmen definiert, entweder als Reaktion auf die Benutzerauswahl der Option oder nicht. Der Scanbereich wird basierend auf dem Ultraschallscanformat geformt, ist jedoch kleiner als das Volumen. Das durch den Scanbereich definierte Volumen von Interesse wird genutzt, um Bilder mit einer höheren zeitlichen und/oder räumlichen Auflösung zu erstellen als beim Scannen des gesamten ursprünglichen Volumens.
  • In einem ersten Aspekt wird ein Verfahren zur Ultraschall-Bildgebung eines Volumens von Interesse bereitgestellt. Ein Ultraschall-Bildgebungssystem nimmt Daten auf, die das Volumen eines Patienten darstellen. Ein Prozessor lokalisiert einen Zielbegrenzungsrahmen, der die Anatomie von Interesse und zusätzliche Anatomie umgibt. Der Prozessor identifiziert das Volumen von Interesse innerhalb des Volumens als Scanbereich in einem Scanformat, das den Zielbegrenzungsrahmen umschließt. Das Ultraschall-Bildgebungssystem scannt den Scanbereich im Scanformat. Ein Bild wird aus dem Scannen des Volumens von Interesse erstellt.
  • In einem zweiten Aspekt wird ein System zur Ultraschall-Bildgebung eines Volumens von Interesse bereitgestellt. Ein Transducer kann mit dem Sende- und Empfänger-Beamformer verbunden werden. Ein Prozessor ist so konfiguriert, dass er eine anatomische Struktur aus einem Ultraschalldatensatz selbstständig identifiziert, der auf Informationen vom Empfänger-Beamformer zurückgeht, die einen ersten Bereich des Patienten darstellen, und ist so konfiguriert, dass er die Scanparameterjustiert, um ausschließlich das Volumen von Interesse als Teilabschnitt des ersten Bereiches zu scannen. Das Volumen von Interesse enthält die anatomische Struktur. Ein Renderer ist so konfiguriert, dass er Bilder ausschließlich des Volumens von Interesse aus den Scans der Sende- und Empfänger-Beamformer unter Verwendung der Scanparameter erstellt. Eine Anzeige ist so konfiguriert, dass sie die Bilder anzeigt.
  • In einem dritten Aspekt wird ein Verfahren zur Ultraschall-Bildgebung eines Volumens von Interesse bereitgestellt. Ein Ultraschallgerät scannt ein Volumen des Patienten. Ein Prozessor lokalisiert die Anatomie im Volumen. Eine Option zum Heranzoomen an die Anatomie wird auf einer Anzeige präsentiert. Der Prozessor identifiziert das Volumen von Interesse als die Anatomie umschließend und kleiner als das Volumen des Patienten. Das Identifizieren erfolgt in Reaktion auf die Benutzerauswahl der Option. Das Ultraschallgerät scannt für mehrere Wiederholungen nach dem Identifizieren das Volumen von Interesse und scannt nicht das restliche Volumen des Patienten. Eine Folge von Bildern des Volumens von Interesse wird auf einer Anzeige erstellt. Die Bilder basieren auf Ultraschalldaten, die aus dem Scannen des Volumens von Interesse resultieren.
  • Die vorliegende Erfindung wird durch die folgenden Ansprüche definiert und nichts in diesem Teil sollte als Einschränkung dieser Ansprüche verstanden werden. Weitere Aspekte und Vorteile der Erfindung werden im Weiteren in Verbindung mit den bevorzugten Ausführungsformen offenbart und können später unabhängig oder in Kombination beansprucht werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Komponenten und die Figuren sind nicht zwingend maßstabsgetreu, wobei der Schwerpunkt stattdessen auf der Veranschaulichung der Grundsätze der Erfindung gelegt ist. Außerdem bezeichnen in den Figuren gleiche Bezugszeichen durchgehend die entsprechenden Teile in den unterschiedlichen Ansichten.
  • 1 ist ein Flussdiagramm einer Ausführungsform eines Verfahrens zur Ultraschall-Bildgebung eines Volumens von Interesse,
  • 2A–C zeigen Beispiele eines Begrenzungsrahmens, eines Scanbereichs beziehungsweise einer herangezoomten Anzeige,
  • 3 zeigt einen beispielhaften Aufnahmezyklus und
  • 4 ist ein Blockschaltdiagramm einer Ausführungsform eines Systems zur Ultraschall-Bildgebung eines Volumens von Interesse.
  • DETAILLIERTE BESCHREIBUNG DER ZEICHNUNGEN UND AKTUELL BEVORZUGTER AUSFÜHRUNGSFORMEN
  • Ein Volumen wird gescannt. Für eine stärkere zeitliche und räumliche Bildgebung des Patienten wird ein Volumen von Interesse um ein automatisch ermitteltes Objekt im Volumen definiert. Das Volumen von Interesse wird mit höherer zeitlicher Auflösung, Kontrastauflösung, verringerter Abschattung und/oder räumlicher Auflösung gescannt und abgebildet, als es mit einer Bildgebung des gesamten Sichtfeldes des Volumens möglich wäre. Der Rahmen mit dem Volumen von Interesse wird automatisch aus dem dreidimensionalen Bild des gesamten Sichtfeldes bestimmt und anschließend wird ausschließlich das fokussierte Volumen von Interesse gescannt.
  • In einer Ausführungsform steuert eine von einer Maschine erlernte Objektermittlung den Bildaufnahmeprozess. Dies ermöglicht das Fokussieren der Bildaufnahme auf die wichtigsten Bereiche: wo die Zielanatomie und/oder das Instrument angeordnet sind. Die Ultraschallstrahlen tasten die Anatomie spärlich mit Hilfe einer Aufnahme des gesamten Volumens ab, um das Objekt zu lokalisieren. Diese Position steuert den Bildaufnahmeprozess. Das Ultraschallsystem erkennt automatisch bestimmte Strukturen und optimiert das Sichtfeld und andere Bildgebungsparameter. Eine Serie von räumlich kleineren Aufnahmen des Volumens von Interesse wird für den Zielbereich ausgeführt. Unter Verwendung des unveränderlichen Transducer-Frequenz-Budgets ermöglicht dieses Zuweisungsschema eine höhere Bildqualität (z. B. Steigern der zeitlichen und räumlichen Auflösung) im Volumen von Interesse im Vergleich zu dem gesamten Volumen.
  • In einer weiteren Ausführungsform identifiziert ein Ultraschallsystem bestimmte Strukturen selbstständig in Ultraschalldatensätzen in Echtzeit und justiert Bildgebungsparameter in Echtzeit, um die Bildqualität zu optimieren und Daten für die anatomische Struktur zu sammeln. Zum Beispiel werden Daten für die Aortenklappe über zwei aufeinanderfolgende Herzzyklen gesammelt, nachdem die Herzklappe aus einem Scan des gesamten Herzens lokalisiert wurde. Als weiteres Beispiel wird die Position einer Biopsienadel bezüglich einer vorgegebenen Struktur, wie etwa einer verdächtigen Läsion, lokalisiert.
  • Das Volumen von Interesse ist dynamisch an einem Ziel verankert. Durch das Wiederholen des zeitlich und/oder räumlich spärlichen Scannens des Volumens und des Ermittens der Anatomie kann das fest platzierte Volumen von Interesse trotz der Bewegung des Patienten und/oder Transducers fortlaufend abgebildet werden. Das Ultraschallsystem justiert das Sichtfeld im Laufe der Zeit auf vorhersehbare Weise ein, um sicherzustellen, dass die Struktur nicht das Volumen von Interesse verlässt. Dies beinhaltet das Sondieren benachbarter Bereiche bei gelegentlicher spärlicher Aufnahme.
  • 1 zeigt eine Ausführungsform eines Verfahrens zur Ultraschall-Bildgebung eines Volumens von Interesse. Im Allgemeinen wird während der dreidimensionalen Ultraschall-Bildgebung ein Objekt von Interesse automatisch durch einen Volumenscan ermittelt. Die Ermittlung kann einen Begrenzungsrahmen enthalten, der eine geometrische Struktur ist, die sich von dem Objekt unterscheidet und nicht spezifisch in den Scandaten dargestellt ist. Ein Bereich oder Volumen von Interesse ist als Teilvolumen um das ermittelte Objekt oder den Begrenzungsrahmen definiert. Das Volumen von Interesse wird mehrere Male ohne Scans des Volumens gescannt. Das Volumen von Interesse wird mit einer höheren räumlichen und/oder zeitlichen Auflösung abgebildet, als es durch Scannen des Volumens möglich ist. Durch das Wiederholen der Ermittlung des Objektes aus einem kompletten Volumenscan mit Wiederholungen des Scannens des Volumens von Interesse wird die Objektposition aktualisiert, was eine automatische Bildgebung des Volumens von Interesse bereitstellt, die sich am Objekt von Interesse orientiert.
  • Das Verfahren wird durch das in 4 gezeigte System oder ein anderes System ausgeführt. Zum Beispiel scannt ein medizinisch-diagnostisches Ultraschall-Bildgebungssystem in den Vorgängen 30 und 36 und ein Prozessor lokalisiert in Vorgang 32, präsentiert eine Zoomoption in Vorgang 33 und positioniert eine Scanform in Vorgang 34. Das Bildgebungssystem erstellt das angezeigte Bild in Vorgang 38. Weitere Geräte können jeden der Vorgänge ausführen, wie etwa der Prozessor, der alle Nicht-Scan-Vorgänge ausführt.
  • Die Vorgänge werden in der gezeigten Reihenfolge oder in einer anderen Reihenfolge ausgeführt. Zum Beispiel wird Vorgang 33 vor Vorgang 32 ausgeführt.
  • Weitere, andere oder weniger Vorgänge können genutzt werden. Zum Beispiel wird Vorgang 33 nicht ausgeführt. Als weiteres Beispiel wird Vorgang 32 nicht ausgeführt und statt eines Begrenzungsrahmens wird die Scanform über dem ermittelten Objekt positioniert. In einem weiteren Beispiel wird die Wiederholungsschleife von Vorgang 38 bis Vorgang 30 nicht ausgeführt.
  • In Vorgang 30 werden Daten, die ein Volumen eines Patienten darstellen, aufgenommen. Die Daten werden mit einem Ultraschall-Bildgebungssystem aufgenommen. Der Ultraschall-Bildgebungsscanner scannt ein Volumen des Patienten. Alternativ werden die Daten aus einem früheren Scan aufgenommen, wie etwa durch die Übertragung von einem Speicher- oder Bildarchivierungs- und Kommunikationssystem.
  • Ein Volumen eines Patienten wird gescannt. Der Scan ist ein erstmaliger Scan, wie etwa ein erster Scan. Der erstmalige Scan kann als Erstes oder bevor die Anatomie in Vorgang 32 ermittelt ist, stattfinden, selbst wenn andere frühere Scans vor dem erstmaligen Scan stattfinden. Zum Beispiel wird das Scannen aus Vorgang 30 wiederholt, wenn ein Ultraschalldiagnostiker den Transducer positioniert, um das gewünschte Volumen zu scannen. Sobald sich das Objekt von Interesse im Sichtfeld befindet, findet das Ermitteln von Vorgang 32 statt, was den Volumenscan, der zur ersten Ermittlung genutzt wird, zum erstmaligen Scan für den verbleibenden Prozess macht.
  • Der erstmalige Scan wird von einem gesamten Volumen erstellt. Das gesamte Volumen ist ein Sichtfeld, das durch das Scannen hergestellt wird. Die seitliche Ausdehnung und die Tiefe definieren die Ausdehnung des gescannten Volumens. Basierend auf unterschiedlichen Einstellungen können unterschiedliche Volumengrößen den gesamten Volumenscan bilden. Der Benutzer oder das System bestimmt das Sichtfeld und das resultierende gesamte Scanvolumen durch das Konfigurieren für den erstmaligen Scan.
  • Um ein Sichtfeld mit Ultraschall zu scannen, werden Sende- und Empfangsstrahlen mit einem Ultraschallsystem geformt. Ein beliebiges Scanformat, wie etwa Sektor, linear oder Vektor® und das entsprechende Sichtfeld können verwendet werden. Das Scannen wird von einem dreidimensionalen Bereich oder einem Volumen erstellt. Die Scanlinien werden durch elektrische und/oder mechanische Lenkung in drei Dimensionen verteilt, was Daten bereitstellt, die ein Volumen darstellen (z. B. Volumen aus N × M × R Voxeln, wobei N, M und R ganze Zahlen größer als 1 sind). Ein beliebiges dreidimensionales Format kann verwendet werden, wie etwa das sequentielle Scannen entlang Ebenen, sodass die Scanebenen zusammen das Volumen darstellen. Das Scanformat oder die Anordnung der Scanlinien definiert einen Scanbereich. Zum Beispiel stellt ein linearer Scan einen rechteckigen Rahmen als Scanbereich bereit. Ein Sektor- oder Vektor®-Scan stellt einen fächerförmigen Scanbereich (z. B. Kegel, Kegelstumpf, Pyramide oder Pyramidenstumpf) bereit.
  • Die Eigenschaften des Sende- und/oder Empfängerstrahls können eingestellt werden oder aus Werten von Parametern resultieren. Die Tiefe und/oder seitliche Ausdehnung des Sichtfeldes wird eingestellt. Ebenso werden die Tiefenschärfe des Sendestrahls, die Sendefrequenz, Empfangsfrequenz, Liniendichte, Abtastdichte (Abtastabstand entlang der Linie), Sendewellenform (z. B. Anzahl der Zyklen und/oder Hüllkurve), Bildfrequenz, Blende und/oder andere Scaneigenschaften eingestellt. Die Anzahl der Sende-Fokuspositionen pro Scanlinie (z. B. eine oder zwei) kann eingestellt werden. Andere, zusätzliche oder weniger Scanparameter (z. B. zum Senden und/oder Empfangen) können genutzt werden.
  • Durch die Empfangsstrahlbildung stellen die resultierenden Daten Abtastungen im Sichtfeld dar. Vom Scannen empfangene Daten werden ermittelt. Ein B-Modus-Ermittler bestimmt die Intensität akustischer Echos, die durch die empfangenen Daten dargestellt werden. Zum Beispiel werden die Empfangsdaten als phasengleiche und Quadraturdaten formatiert. Die Quadratwurzel aus einer Summe der Quadrate der phasengleichen und Quadraturterme wird als Intensität berechnet. Andere Messwerte der Größe des akustischen Echos können für die Ermittlung des B-Modus genutzt werden.
  • Weitere B-Modus-Verarbeitungen können ausgeführt werden. Zum Beispiel werden die ermittelten B-Modus-Daten räumlich gefiltert. Als weiteres Beispiel wird eine Reihe von Rahmen aus einer entsprechenden Folge von Scans des gesamten Sichtfelds aufgenommen. Andere Paare oder Gruppierungen anderer Größe der resultierenden B-Modus-Rahmen der Daten werden vorübergehend gefiltert. Es kann Filterung mit unendlicher Impulsantwort oder mit endlicher Impulsantwort genutzt werden. In einem weiteren Beispiel wird eine allgemeine oder Gesamtverstärkung angewendet. Ein oder mehrere Parameter können die Gesamtverstärkung herstellen. Zusätzlich oder alternativ können tiefenabhängige Verstärkungen angewendet werden. Andere, zusätzliche oder weniger B-Modus-Verarbeitungsparameter können genutzt werden.
  • In weiteren Ausführungsformen werden andere Arten der Ermittlung und entsprechende Scans ausgeführt. Zum Beispiel wird Color-Flow-Schätzung (z. B. Doppler) genutzt. Geschwindigkeit, Leistung und/oder Varianz werden bewertet. Als weiteres Beispiel wird der Harmonic-Modus genutzt, wie etwa die Bildgebung mit einer zweiten Harmonischen einer Grundsendefrequenz. Es können Kombinationen der Modi genutzt werden.
  • Nach dem Verarbeiten werden die ermittelten Daten für den Scan umgewandelt, falls nötig. Ein zweidimensionales Bild kann erstellt werden. Durch das Erstellen von B-Mode-Bildern für unterschiedliche Ebenen werden Anzeigewerte für ein Volumen bereitgestellt. Ein B-Mode-Bild stellt die Intensität oder Reflektionsstärke des akustischen Echos im B-Mode-Sichtfeld dar. Die Intensitäten oder B-Mode-Daten werden mit Graustufen innerhalb des Dynamikbereichs der Anzeige abgebildet. Die Graustufen können gleiche oder ähnliche rote, grüne, blaue (RGB) Werte sein, die von der Anzeige genutzt werden, um die Pixel zu steuern. Es kann eine beliebige Farb- oder Graustufenabbildung genutzt werden.
  • Daten, welche für weitere Vorgänge genutzt werden, stammen aus beliebigen Punkten der Verarbeitungskette. In einer Ausführungsform werden vor einer Farb- oder Anzeigeabbildung ermittelte und in Scans umgewandelte skalare Werte genutzt. In weiteren Ausführungsformen werden strahlgeformte Abtastwerte vor der Ermittlung, ermittelte Daten vor der Scanumwandlung oder Anzeigewerte nach der Anzeigeabbildung genutzt. Die Daten liegen im Polarkoordinatensystem vor, das zum Scannen genutzt wird, oder werden in ein regelmäßiges Raster interpoliert, wie etwa ein kartesisches Koordinatensystem.
  • Die Werte der Parameter für das Scannen werden zu Beginn unter Verwendung eines beliebigen Prozesses eingestellt. In einer Ausführungsform werden ein oder mehrere der Parameter basierend auf der Eingabe des Benutzers, vorgegebener Werte und/oder der Auswahl einer Anwendung oder Konfiguration eingestellt. Zum Beispiel wählt der Benutzer Volumen- oder dreidimensionale Bildgebung einer bestimmten Anatomie aus, wie etwa einer Herzklappe. In alternativen oder zusätzlichen Ausführungsformen werden ein oder mehrere Parameter basierend auf dem Feedback oder unter Anpassung an die vom Scannen empfangenen Daten eingestellt. Automatisches Einstellen des Wertes oder der Werte des Parameters oder der Parameter wird ausgeführt. Zum Beispiel wird die Gesamtverstärkung und/oder der Dynamikbereich der B-Mode-Daten basierend auf dem Identifizieren der B-Mode-Daten für Positionen, die Gewebe im Sichtfeld zugeordnet werden, eingestellt und unter Verwendung einer Durchschnitts-, Median- oder weiteren B-Mode-Intensität für die Gewebepositionen verwendet, um die Verstärkung und/oder den Dynamikbereich einzustellen.
  • Die Werte der Parameter können auch zu Beginn für die gewünschten Bildgebungsqualitätsverbesserungen eingestellt werden. Die Werte für das Volumen von Interesse werden durch Voreinstellungen eingestellt. Es können mehrere Arten von Anatomie- und Bildverbesserungen für verschiedene Untersuchungsarten zur Auswahl stehen. Der Benutzer wählt die Volumenbildgebungsanwendung für eine bestimmte Anatomie. Die Werte für die Scaneinstellungen für das Volumen und für das Volumen von Interesse sind vorgegeben und werden basierend auf der Auswahl der Anwendung genutzt. Die Größe (z. B. seitliche und/oder Bereichsausdehnung), Ausrichtung und/oder Position des Volumens von Interesse können genutzt werden, um die Werte wenigstens einiger der Scanparameter zu berechnen.
  • Der Benutzer kann jeden der Werte des Scan des Volumens und/oder des Volumens von Interesse abändern oder verändern. In alternativen oder zusätzlichen Ausführungsformen können ein oder mehrere Parameter basierend auf Benutzereingaben oder Justierungen eingestellt werden. Zum Beispiel gibt der Benutzer eine minimale gewünschte Bildfrequenz des Volumens von Interesse ein.
  • Während einer Live- oder Echtzeit-Bildgebung (Scannen oder Ausgeben der Bilder zur gleichen Zeit oder während ein Transducer an den Patienten gehalten wird) ist für das Zielvolumen von Interesse allgemein keine besondere Interaktion erforderlich oder vom Benutzer erwartet. Der Benutzer wählt möglicherweise lediglich Anwendungen aus (z. B. dreidimensionale Bildgebung einer Herzklappe) und die übrige Konfiguration findet automatisch statt. Der Benutzer kann eine oder mehrere Einstellungen vorkonfigurieren und dann findet die Bildgebung ohne weitere Änderungen durch den Benutzer statt. In weiteren Ausführungsformen ist die Konfigurierbarkeit des Volumens von Interesse und/oder der Volumenbildgebung weiterhin während der Live-Bildgebung verfügbar. Der Benutzer kann einen oder mehrere Werte der Scanparameter abändern, ohne dass er diese als Teil des normalen Arbeitsablaufs abändern müsste oder dies von ihm erwartet würde.
  • Der erstmalige Scan oder die erstmaligen Scans des gesamten Volumens werden vor den separaten Scans des Volumens von Interesse ausgeführt. Das Scannen ist so konfiguriert, dass die Scans des Volumens des Patienten während eines mehrmaligen Wiederholens des Scannens des Volumens von Interesse in einem vorgegebenen Aufnahmezyklus unterbleiben. Die gesamte Folge des Scannens des gesamten Volumens, dann des Beendens des Scannens des gesamten Volumens während des Scannens des Volumens von Interesse, kann gelegentlich oder regelmäßig wiederholt werden, um das Volumen von Interesse kontinuierlich zu positionieren, um Bewegung zu berücksichtigen. Das Scannen beinhaltet diesen programmierten Aufnahmezyklus.
  • In Vorgang 32 ermittelt ein Prozessor ein Objekt aus den Daten des erstmaligen Scans. Die Daten, die das Volumen des Patienten darstellen, werden verarbeitet, um das Objekt von Interesse zu ermitteln. Zum Beispiel verschiebt und/oder dreht der Benutzer das Sichtfeld (bewegt z. B. den Transducer) im Verhältnis zum Patienten wie gewünscht. Sobald sich das Objekt im Sichtfeld befindet, ermittelt der Prozessor das Objekt. Zum Beispiel wird eine Herzklappe automatisch aus B-Mode-Daten ermittelt, die ein Volumen darstellen, das mindestens einen Abschnitt eines Herzes beinhaltet.
  • Die Ermittlung erfolgt automatisch während der Live-Bildgebung. Anstatt eine Benutzereingabe einer oder mehrerer Positionen für das Objekt zu erfordern, wendet der Prozessor Filtern, Kantenermittlung, Musterabgleich, Modellabgleich oder andere computergestützte Klassifikation an, um das Objekt in den Daten zu ermitteln. Der Prozessor ermittelt ohne Benutzereingabe einer oder mehrerer Position. Mehrere Variationen von Scanmethoden können zum Identifizieren von Läsionen versucht werden. Beispiele sind gelenkte räumliche Mischbildgebung (Spatial Compounding) und Rotation des Scanrasters und Kombinationen daraus, um die Ermittlung von Zysten zu unterstützen. Das System kann auch zuerst einen spärlichen Scan des kompletten Volumens ausführen, um die Referenzpunkte zu identifizieren.
  • In einer Ausführungsform wird ein von einer Maschine erlernter Klassifikator durch einen Prozessor angewendet (z. B. Zentralprozessor oder Grafikprozessor). Haar, Gradient, direktional, lenkbar oder andere Merkmale werden aus den Volumendaten und der Eingabe in den von der Maschine erlernten Klassifikator berechnet. Der von der Maschine erlernte Klassifikator gibt, basierend auf dem Lernen aus Trainingsdaten mit bekannter Wahrheit, die das Objekt von Interesse von anderem Gewebe, Fluid oder Geräten hervorheben, an, ob das Objekt von den Daten für das Volumen dargestellt wird und wo.
  • Es kann jedes beliebige maschinelle Lernen genutzt werden, wie etwa ein Probabilistic Boosting Tree, ein Baye'sches Netz, neuronales Netz oder eine Support Vector Machine. Es kann jedes beliebige Merkmal oder jeder beliebige Merkmalssatz genutzt werden. In einer Ausführungsform trainieren Probabilistic Boosting Trees mit Marginal Space Learning einen Klassifikator basierend auf Haar und lenkbaren Merkmalen (Steerable Features). In einer weiteren Ausführungsform wird eine Random-Forest-Regression zum Trainieren genutzt.
  • Ein Feedback kann bereitgestellt werden. Das Feedback gibt die Korrektheit des lokalisierten Objektes an. Dieses Feedback kann als zusätzliche Trainingsdaten genutzt werden, um den von einer Maschine erlernten Klassifikator neu zu erlernen oder zu verbessern. Es ist ein auf Online-Lernen basierendes Auffinden möglich, wobei die Auswahl eines Zielbereichs eine einzelne Wiederholung erfordert. Das Online-Lernen kann Online-Random-Forest, Online Bagging oder Sparse Online Learning beinhalten. Falls ein trainierter Klassifikator (oder Regressor) einen Kandidatenrahmen ausgibt, der außerhalb dessen oder nicht dort liegt, wo der Benutzer den Rahmen erwartet, dann zieht der Benutzer dort einen Rahmen auf einem Bild des gesamten Volumens, wo der Rahmen positioniert werden soll. Diese Position wird dann zum Online-Lernen weitergeleitet, welches anschließend das Objekt korrekt durch Neulernen auffindet, basierend mindestens zum Teil auf dem zurückgemeldeten Volumen und der korrigierten Rahmenposition als Trainingsdaten.
  • Das Objekt, welches lokalisiert werden muss, ist ein beliebiges Objekt, wie etwa Anatomie oder ein Gerät. Zum Beispiel wird eine Herzklappe lokalisiert. Es kann eine spezifische Herzklappe lokalisiert werden. Der Herzklappenvorhof-Annulusring, die Aortenwurzel, der linksventrikuläre Ausflusstrakt, Teile der Leber oder andere anatomische Positionen oder Läsionen können lokalisiert werden. In weiteren Ausführungsformen werden Geräte, wie etwa chirurgische Instrumente oder Implantate (z. B. Katheter, Werkzeugschaft, Nadel oder chirurgisches Gerät, wie etwa eine Annulus- oder Herzklappenprothese) statt der Anatomie ermittelt. Anatomie und hinzugefügte Geräte können beide in einem gegebenen Volumen ermittelt werden. Ein anderer oder der gleiche Ermittler ermittelt die andere Anatomie und/oder anderen Geräte. Das Objekt ist ein beliebiger anatomischer Bereich, Katheter (z. B. Lasso) oder Werkzeug, der bzw. das von einer Maschine erlernt wird oder das andere Ermittler ermitteln.
  • Die ermittelte Anatomie oder das ermittelte Gerät hat eine beliebige räumliche Ausdehnung. Zum Beispiel dehnt sich die Anatomie durch mehrere Voxel in einer oder mehreren Dimensionen aus. Die Anatomie hat eine beliebige Form, wie etwa eine sanft variierende gebogene Form. Zackige oder flache Abschnitte können auftreten. Ein Gerät kann eine glatte Oberfläche aufweisen.
  • Die Ermittlung stellt eine Position des Objektes von Interesse bereit. Merkmale, Oberflächen und/oder innere Abschnitte des Objektes werden gefunden. Merkmale, die durch die Daten dargestellt werden, aber nicht zum Objekt von Interesse gehören, können zum Lokalisieren des Objektes von Interesse genutzt werden. Voxel, die die Anatomie darstellen, werden als zur Anatomie gehörend gekennzeichnet oder markiert. Die Ermittlung bestimmt, ob das Objekt durch die Daten dargestellt wird oder nicht. Die Ermittlung bestimmt wo das Objekt dargestellt wird, wenn es dargestellt wird.
  • Aufgrund von Bewegung können Voxel, die in einem Moment zum Objekt gehören, in einem anderen Moment nicht zum Objekt gehören. Um etwas Bewegung zu ermöglichen, kann mehr als das Objekt lokalisiert werden. Zum Beispiel wird ein Rand mit einem bestimmten Abstand oder einer Anzahl von Voxeln um das Objekt lokalisiert. In einer Ausführungsform wird ein Begrenzungsrahmen lokalisiert. Ermittelt wird nicht allein das Objekt, sondern das Objekt und die Position eines Begrenzungsrahmens, der das Objekt umschließt. Unterschiedliche Teile des Objektes können sich in unterschiedlichem Maß bewegen; daher ist der Begrenzungsrahmen zur Berücksichtigung dieser Variationen bemessen und/oder ausgerichtet.
  • Während die Daten keinen Begrenzungsrahmen darstellen, wird der Begrenzungsrahmen basierend auf dem durch die Daten dargestellten Objekt und/oder anderen durch die Daten dargestellten Merkmalen positioniert. In einer Ausführungsform lokalisiert ein von einer Maschine erlernter Klassifikator den Begrenzungsrahmen. Experten kommentieren Trainingsdaten mit Begrenzungsrahmen. Das Maschinentraining lernt dann die Position des Begrenzungsrahmens basierend auf der Referenzmessung in den Trainingsdaten, die Scans von Patienten darstellen. Die Maschine lernt, anhand von Daten, die den Patienten darstellen, den Begrenzungsrahmen zu positionieren. Der Prozessor lokalisiert den Begrenzungsrahmen unter Verwendung der Matrix oder Matrizen des von einer Maschine erlernten Klassifikators. Die hervorgehobenen Merkmale, die genutzt werden, um den Begrenzungsrahmen zu lokalisieren, können andere sein als die Merkmale des Objektes von Interesse.
  • Weitere Ermittler oder Prozesse können verwendet werden. Zum Beispiel wird der Begrenzungsrahmen im Zentrum der ermittelten Anatomie zentral platziert oder ein Merkmal der Anatomie wird genutzt, um den Begrenzungsrahmen zu platzieren. Die Ausrichtung kann basierend auf der ermittelten Anatomie eingestellt werden. Der Maßstab kann auf dem Maßstab der Anatomie und einer beliebigen gewünschten minimalen Toleranz basieren.
  • Der Begrenzungsrahmen ist eine beliebige geometrische Struktur. Zum Beispiel ist der Begrenzungsrahmen ein Quader aus sechs Seiten, die in rechten Winkeln verbunden sind. Als weiteres Beispiel besitzt der Begrenzungsrahmen zwölf oder weniger Seiten. Die Form des Begrenzungsrahmens unterscheidet sich von der organischen Form der Anatomie, passt jedoch grundsätzlich zu der Anatomie. Die Form des Begrenzungsrahmens ist die gleiche wie die Form eines eingesetzten Objektes, wie etwa einem Zylinderbegrenzungsrahmen, der eine Nadel oder eine Katheterspitze umschließt, oder unterscheidet sich von dieser.
  • Der Begrenzungsrahmen ist so bemessen und ausgerichtet, dass er das Objekt von Interesse umschließt. Da sich Form, Ausrichtung und/oder Maßstab vom Objekt unterscheiden, umfasst der Begrenzungsrahmen mehr als das Objekt von Interesse. Ein oder mehrere (z. B. viele) Voxel, die nicht das Objekt darstellen, sind im Begrenzungsrahmen mit den Voxeln, die das Objekt darstellen, enthalten. In alternativen Ausführungsformen passt der Begrenzungsrahmen auf das Objekt und umfasst keine Voxel, die nicht zum Objekt gehören.
  • Das Ermitteln bestimmt eine Position, Ausrichtung und Größe des Zielbegrenzungsrahmens, der das relevante Objekt umgibt. Der Zielbegrenzungsrahmen ist durch die Position (x, y, z), 3D-Ausrichtung (α, β, γ) und Größe (sx, sy, sz) parametrisiert. 2A zeigt ein Beispiel. Ein Schnittpunkt eines Begrenzungsrahmens 40 mit anderer Größe und Form als der des umschlossenen Objektes wird in einem Querschnittbild positioniert gezeigt. Der lokalisierte Begrenzungsrahmen dehnt sich in drei Dimensionen aus, um das Objekt zu umschließen, kann jedoch eine oder mehrere offene Seiten aufweisen. Sobald der von einer Maschine erlernte Ermittler den Zielbegrenzungsrahmen lokalisiert hat, werden diese Parameter genutzt, um das Volumen von Interesse in Vorgang 34 zu definieren.
  • In Vorgang 33 präsentiert der Prozessor oder das Bildgebungssystem dem Benutzer eine Option. Die Option gibt die Ermittlung und/oder Position des Objektes oder des Begrenzungsrahmens an. Dem Benutzer wird eine Anzeige bereitgestellt, dass das Heranzoomen an das Volumen von Interesse verfügbar ist. Die Option gibt an, dass statt des kompletten Volumens das Volumen von Interesse abgebildet werden kann.
  • Die Option wird auf einer Anzeige angezeigt. Zum Beispiel wird der Begrenzungsrahmen als grafische Überlagerung in einem Bild angezeigt, wie etwa in 2A gezeigt. Die Option wird auf einem oder über einem zweidimensionalen Bild oder einer dreidimensionalen Bildsynthese (Rendering) angezeigt. Ein Kommentar wird mit der grafischen Überlagerung bereitgestellt. Der Kommentar gibt die Verfügbarkeit des Heranzoomens an das Volumen von Interesse an. Weitere Grafiken oder Optionspräsentationen können bereitgestellt werden, wie etwa das Anzeigen von Text, der die Ermittlung und Verfügbarkeit des Heranzoomens angibt. Die Option gibt dem Benutzer auf der Anzeige an, dass ein Objekt ermittelt wurde. Alternativ erfragt die Option, ob eine Ermittlung ausgeführt werden soll.
  • Die Option, die dem Benutzer bereitgestellt wird, ist wählbar, wie etwa mit einer Maus oder einer Steuerkugel und Aktivierungstaste. Durch das Auswählen der Option durch den Benutzer empfängt der Prozessor eine Angabe vom Benutzer über dessen Wunsch, an das Volumen von Interesse mit dem Objekt heranzuzoomen anstatt das gesamte Volumen abzubilden. In weiteren Ausführungsformen wird ein Hardkey, Softkey oder andere Benutzereingaben für den Zoom bereitgestellt, statt oder zusätzlich zu einer beliebigen Grafikanzeige der Option. Durch Aktivieren der Taste wählt der Benutzer aus.
  • In einem Arbeitsablaufbeispiel wählt der Benutzer eine Herzklappen-Bildgebungsanwendung aus. Das Herzvolumen wird gescannt und die Bilder werden in Echtzeit gerendert. Das Bildgebungssystem ermittelt und lokalisiert die Herzklappe. Mehr als eine Herzklappe kann lokalisiert werden. Das Bildgebungssystem gibt an, dass die Herzklappe oder Herzklappen ermittelt wurden, und bietet die Option an, an die Herzklappen heranzuzoomen. Der Benutzer wählt die Option für eine oder mehrere Herzklappen aus, um zur Bildgebung des Volumens von Interesse überzugehen (z. B. das Volumen um die Herzklappe). Die Identifikation eines Scanbereichs und das Scannen werden als Reaktion auf das Empfangen der Benutzerauswahl der Option ausgeführt.
  • In einem alternativen Arbeitsablauf werden die Anzeige und die Auswahl der Option zum Heranzoomen nicht bereitgestellt. Der Zoomvorgang oder Übergang zur Volumenbildgebung des Volumens von Interesse statt des kompletten Volumens findet automatisch statt. Das Bildgebungssystem ermittelt die Position der Herzklappe und geht damit automatisch zur Bildgebung des Volumens von Interesse über, ohne Benutzerauswahl einer Option während der Bildgebung. Statt dem Benutzer eine Option zum Scannen des Volumens von Interesse zu präsentieren, nimmt das System selbstständig ein Volumen von Interesse auf, sodass der Benutzer lediglich die Aufnahmen prüfen muss.
  • In einer weiteren Alternative hilft das System dem Benutzer, den Transducer so zu positionieren, sodass ein Volumen von Interesse mit besserer Qualität aufgenommen werden kann. Zum Beispiel befindet sich ein Volumen von Interesse dicht an den Rändern des kompletten Volumens, wo die räumliche Auflösung suboptimal ist. Ein weiteres Beispiel ist, dass das System Abschattung oder schlechten akustischen Kontakt identifizieren kann. Das Objekt wird für den Benutzer mit einer Aufforderung zur Neupositionierung des Transducers in Bezug auf den Patienten hervorgehoben.
  • In Vorgang 34 wird das Volumen von Interesse identifiziert. Zwar scannt das Ultraschall-Bildgebungssystem möglicherweise nur im Begrenzungsrahmen oder nur die Objektpositionen, doch kann diese Art des Scannens Ressourcen verschwenden. Ohne großen Verlust an räumlicher und/oder zeitlicher Auflösung kann ein größerer Bereich basierend auf dem Scanformat, das zum Scannen genutzt wird, gescannt werden. Um das Objekt und/oder den Begrenzungsrahmen abzutasten, werden Scanlinien mit einer vorgegebenen seitlichen Ausdehnung genutzt. Das Abtasten entlang eines größeren Tiefenbereichs als benötigt führt zu geringen Verlusten der zeitlichen oder räumlichen Auflösung. Das Volumen von Interesse ist der Scanbereich statt des Begrenzungsrahmens oder Objektes.
  • Der Prozessor identifiziert das Volumen von Interesse als Scanbereich. Der Scanbereich ist basierend auf der Scanlinienverteilung geformt. Für gerade Scans sind die Scanlinien parallel angeordnet. Der resultierende dreidimensionale Scanbereich ist ein Quader oder ein rechteckiger Rahmen, jedoch kann eine Zylinderform oder andere Form genutzt werden. Für Sektor- oder Vektorscans weichen die Scanlinien von einem Punkt auf der Transduceroberfläche beziehungsweise einem virtuellem Punkt, der hinter dem Transducer positioniert ist, ab. Die Sektor- und Vektorscanformate der Scanlinien scannen in einen fächer- oder kegelförmigen Bereich. Der Vektorscan kann ein fächerförmiger Bereich sein, ohne den Ursprungspunkt zu beinhalten, und kann beispielsweise im Querschnitt einem Trapezoid (z. B. Kegelstumpf oder Pyramidenstumpf) ähneln. Weitere Formen des Scanbereichs können genutzt werden, wie etwa eine Form, die durch einen linearen, Sektor- oder Vektorbogen durch Verschiebung und/oder Rotation des Transducers geformt wird.
  • Das Volumen von Interesse wird als Scanbereich identifiziert, der auf den Begrenzungsrahmen oder das Objekt bemessen und/oder an diesem ausgerichtet ist. Der Scanbereich wird definiert, um den Zielbegrenzungsrahmen oder das Zielobjekt zu scannen. Durch Umschließen des Begrenzungsrahmens oder Objektes in der Scanbereichsausdehnung wird das Objekt gescannt.
  • Der Scanbereich ist kleiner als das gesamte Volumen, das gescannt wird, um den Begrenzungsrahmen oder das Objekt zu lokalisieren. In einer Ausführungsform ist der Scanbereich so klein wie möglich bemessen (z. B. seitlich und/oder in der Tiefe), während er dennoch den kompletten Begrenzungsrahmen oder das komplette Objekt beinhaltet. Zum Beispiel wird das Volumen von Interesse automatisch als dreidimensionale Fächergeometrie so klein wie möglich berechnet, während es dennoch den gesamten Begrenzungsrahmen einschließt und eine regelmäßige Scangeometrie aufweist. Die Scangeometrie wird so angepasst, dass sie den Begrenzungsrahmen oder das Objekt ohne Verändern der Form der Scangeometrie umschließt. Das Scanformat, das für das Volumen von Interesse genutzt wird, kann sich von dem Scanformat unterscheiden, das für das komplette Volumen genutzt wird, um Aspekte der Bildqualität und Auflösung innerhalb des Volumens von Interesse zu optimieren. Das gleiche Format kann genutzt werden.
  • Als Alternative zur Minimierung des Scanbereichs kann um den Begrenzungsrahmen oder das Objekt ein Rand enthalten sein. Der Scanbereich wird mit einem Rand mit dem Begrenzungsrahmen oder Objekt identifiziert, sodass sich der Begrenzungsrahmen oder das Objekt nicht näher als in einem vorgegebenen Abstand von der Kante oder Oberfläche des Scanbereichs befinden. 2B zeigt ein Beispiel. Der Vektorscanbereich 42 ist mindestens für die seitliche Ausdehnung an den Begrenzungsrahmen 40 angepasst. Die seitliche Ausdehnung ist minimiert, so dass sie so klein wie möglich ist, während sie dennoch den Begrenzungsrahmen in Azimut und Höhe einschließt. Für Umfang und Tiefe wird ein Rand bereitgestellt. Der Rand für das Nahfeld unterscheidet sich von dem für das Fernfeld. Ein beliebiger Rand kann genutzt werden.
  • In einer Ausführungsform hat der Scanbereich als Volumen von Interesse Begrenzungen, die den Zielbegrenzungsrahmen in Tiefe, Höhe und Azimut einschließen. Das Volumen von Interesse ist ein fächerförmiger 3D-Bereich, der im dreidimensionalen Ultraschallkegel mit dem Abstand des nahen und fernen Endes (R1, R2) und Polarspannen des Azimut (AzStart, AzEnde) und der Höhe (ElStart, ElEnde) beschrieben ist. Das Scanformat nutzt ein Polarkoordinatensystem. Das Volumen von Interesse ist so verankert, dass das Volumen von Interesse die Begrenzungsrahmenabmessungen vollständig umschließt. Optional wird ein Rand angewendet, um mehr Ultraschallbildkontext um das Ziel zu erhalten.
  • Das Volumen von Interesse dehnt sich über drei Dimensionen aus. Das Volumen von Interesse befindet sich innerhalb des Volumens; es befindet sich beispielsweise vollständig innerhalb oder innerhalb, aber mit gemeinsamer Kante. Das Volumen von Interesse kann kleiner als 1/2 sein, kleiner als 1/3, kleiner als 1/4 sein oder ein weiteres Größenverhältnis bezüglich des kompletten Volumens aufweisen.
  • Das Volumen von Interesse ist um den Begrenzungsrahmen oder das Objekt als erstmalige Zuordnung positioniert. Da der Transducer und/oder das Objekt von Interesse sich bezüglich des Patienten bewegen können, kann das Volumen von Interesse so bemessen sein, dass es jegliche Bewegungen abdeckt, und/oder seine Position kann abgeändert werden, um Bewegung zu berücksichtigen. Um die Bildfrequenz und/oder Bildqualitätsverbesserung für das Volumen von Interesse zu optimieren, ist die Größe kleiner als benötigt, um wahrscheinliche Bewegung zu berücksichtigen. Nach der erstmaligen Zuordnung können weitere Zuordnungen stattfinden, um das Volumen von Interesse neu zu positionieren.
  • Durch das Identifizieren des Volumens von Interesse als Scanbereich, der den Begrenzungsrahmen oder das Objekt, jedoch weniger als das gesamte Sichtfeld für den Volumenscan umfasst, beinhaltet das resultierende Bild nicht das komplette Volumen, sondern nur das Volumen von Interesse. Da ein kleinerer Bereich gescannt wird, kann die Aufnahme eine höhere räumliche und/oder zeitliche Auflösung als das komplette Volumen aufweisen.
  • In Vorgang 36 scannt das Ultraschall-Bildgebungssystem den Scanbereich. Das Ultraschallgerät scannt das Volumen von Interesse und nicht den Rest des größeren Volumens. Die verbliebenen Teile des kompletten Volumens außerhalb des Scanbereichs 42 werden über eine beliebige Anzahl von Wiederholungen des Scannens des Volumens von Interesse nicht gescannt. Zum Beispiel wird das Volumen von Interesse vier, acht, zehn oder mehr Male gescannt, bevor das komplette Volumen gescannt wird. Das Ultraschall-Bildgebungssystem führt separate Scans des Volumens von Interesse aus, ohne das gesamte Volumen zu scannen. Für den Scan des Volumens von Interesse finden andere Sende- und resultierende Empfangsereignisse statt als für den kompletten Volumenscan.
  • Da das komplette Volumen weniger häufig gescannt wird, ist die zeitliche Auflösung des Volumens von Interesse verhältnismäßig höher. Da das Volumen von Interesse kleiner ist, wird weniger Zeit gebraucht, um jeden Scan fertigzustellen. Als Ergebnis kann eine noch höhere zeitliche Auflösung bereitgestellt werden.
  • Die räumlichen Einsparungen, die aus dem Scannen des kleineren Aufnahmefensters des Volumens von Interesse resultieren, können gegen eine höhere räumliche Auflösung im Raum des Volumens von Interesse abgewogen werden. Die physikalischen Grenzen der räumlichen Auflösung werden durch die Blende (Größe) des Transducers und die Ultraschallfrequenz eingestellt. Die Scanliniendichte und/oder Probendichte entlang jeder Scanlinie kann größer sein als die Scanliniendichte und/oder Abtastdichte, die zum Scannen des kompletten Volumens genutzt wird. Das Signal-Rausch-Verhältnis und/oder die Kontrastauflösung können durch das Scannen des kleineren Volumens statt des kompletten Volumens verbessert werden.
  • Das Volumen von Interesse wird mit anderen Werten der Scaneinstellungen als die des Scannens des kompletten Volumens in Vorgang 30 gescannt. Das Volumen wird mit Scaneinstellungen gescannt, die andere Werte als für das Volumen von Interesse aufweisen. Ein oder mehrere (z. B. zwei oder mehr) beliebige Parameter haben unterschiedliche Werte. Zum Beispiel sind die Liniendichte, Sendestärke, Bildfrequenz, Linien-(Scan-)ausrichtung, Scanformat und/oder Sendefokus für den Scan des Volumens von Interesse anders als beim Volumenscan. In einer Ausführungsform wird das Volumen von Interesse gescannt, um eine höhere Bildfrequenz, Auflösung, Kontrast oder Kombinationen aus diesen im Vergleich mit dem größeren Volumen bereitzustellen. Zum Beispiel ist die Liniendichte für das Volumen von Interesse größer als für das komplette Volumen.
  • Im Herzklappenbeispiel werden die Scaneinstellungen für den Scan des Volumens von Interesse für die Herzklappen-Bildgebung optimiert, wie etwa das Anwenden einer höheren Bildfrequenz als für das komplette Volumen. Die Bildfrequenz kann wichtiger sein als Auflösung oder Kontrast und kann somit höher, mit einem Verlust bei der räumlichen Auflösung und/oder dem Kontrast, eingestellt werden. Die räumliche Auflösung und/oder der Kontrast des Volumens von Interesse können gleich, besser oder schlechter sein als die des Volumens. Die Fokuspunkte können zwecks eines besseren Fokus im Vergleich zum kompletten Volumenscan im Volumen von Interesse zentriert sein. Die Sendeenergie für das Volumen von Interesse kann höher sein als für das Volumen. Die Werte werden für die Anatomie von Interesse eingestellt und können somit im Verhältnis zueinander für das Volumen von Interesse und im Verhältnis zum kompletten Volumen eingestellt werden. Das Scannen weiterer Anatomie kann die gleichen oder andere Abwägungen nutzen.
  • In Vorgang 38 werden die Daten aus dem Scannen aus Vorgang 36 genutzt, um ein Bild zu erstellen. Der Prozessor, Renderer oder eine andere Vorrichtung erstellt ein Bild aus den Daten des Volumens von Interesse. Zum Beispiel werden die Daten aus dem Scannen des Volumens von Interesse an einen dreidimensionalen Renderer weitergeleitet.
  • Das Volumen von Interesse wird zu einem Bild gerendert, welches das Objekt darstellt. Ausschließlich das Volumen von Interesse wird gerendert. Für jede Wiederholung des Scannens in Vorgang 36 wird in Vorgang 38 ein Bild erstellt. Das Bild stellt nur das Volumen von Interesse dar und nicht die verbliebenen Teile des kompletten Volumens. Zum Beispiel zeigt 2C ein dreidimensionales Rendering des Volumens von Interesse 42 ohne Bildgebung des verbliebenen kompletten Volumens, wie in 2B gezeigt.
  • In alternativen Ausführungsformen können das Volumen von Interesse und das Volumen getrennt voneinander gerendert und angezeigt werden. Zwei unterschiedliche Bilder werden angrenzend aneinander angezeigt. In einer weiteren Ausführungsform wird das Volumen von Interesse gerendert und ein resultierendes Bild wird über einem Rendering des Volumens eingeblendet. Die gleiche Ansichtsperspektive, aber mit unterschiedlichem Rendering (z. B. Übertragungsfunktion, Art des Renderings, Farbabbildung, Transparenz oder Abschattung) wird für beide Renderings genutzt. Die Anatomie kann auf einer Anzeige durch Helligkeit, Farbe, Grafikrahmen oder andere sichtbare Anzeiger besonders markiert sein. In noch einer weiteren Ausführungsform werden die Daten des Volumens von Interesse anders verarbeitet, wie etwa mit einer anderen Übertragungsfunktion, jedoch dann mit den Volumendaten verbunden. Die resultierenden vermengten Daten werden als ein Bild gerendert. Abtastungen des Volumens von Interesse und anderer Teile werden zeitlich und räumlich vermengt, sodass das Bild das gesamte Volumen darstellt.
  • Eine Folge von Bildern des Volumens von Interesse wird erstellt. Da das Scannen wiederholt wird, wird auch die entsprechende Bilderstellung wiederholt. Jeder neu aufgenommene Satz von Daten, der das Volumen von Interesse darstellt, wird genutzt, um ein Bild zu erstellen. Eine Live-Bildgebung, die aktualisiert wird, während die Daten verfügbar werden, wird ausgeführt. Die Bilder werden mit der gleichen Bildfrequenz erstellt wie der Scan des Volumens von Interesse.
  • Die dreidimensionalen Bilder werden durch Rendern erstellt. Beliebiges Rendern kann genutzt werden, wie etwa Projektions- oder Oberflächen-Rendering. Abschattung kann hinzugefügt werden oder nicht. In weiteren Ausführungsformen wird eine multiplanare Rekonstruktion oder ein anderes Bildformat aus einem Datensatz, der drei Dimensionen darstellt, genutzt.
  • Die Bilder sind B-Modus-Bilder, können jedoch andere Modi sein. Das Bild wird ohne eine Grafik erstellt, die das Objekt oder den Begrenzungsrahmen zeigt. Alternativ gibt eine Grafik oder eine andere Unterscheidung das Objekt und/oder den Begrenzungsrahmen an.
  • Die Bildgebung wird für die Diagnose und/oder Behandlungsanleitung genutzt. Eine verbesserte Bildgebung der Herzklappen kann bei der Interventionskardiologie und strukturellen Herzerkrankungen unterstützen. Das Volumen von Interesse wird mit einer zeitlichen oder räumlichen Auflösung gezeigt, die sonst beim Scannen des größeren Volumens nicht verfügbar wäre. Verbesserte Bilder eines eingeführten Objektes können genutzt werden, um das Einführen, Positionieren und/oder den Gebrauch zu steuern.
  • Wenn die Bildfrequenzen es erlauben, kann mehr als ein Volumen von Interesse innerhalb des gleichen großen Volumens genutzt werden. Die Position des Objektes in Vorgang 32, das Positionieren der Scanform in Vorgang 34, das Scannen des Volumens von Interesse in Vorgang 36 und/oder das Erstellen des Bildes in Vorgang 38 werden für jedes Objekt von Interesse ausgeführt, was in zwei Bildern für die zwei Objekte resultiert.
  • Eine Feedback-Schleife wird von Vorgang 38 zu Vorgang 30 gezeigt. Da das Objekt sich in Bezug zum Transducer im Laufe der Zeit bewegen kann, wird der Prozess wiederholt. Die Abmessung des Begrenzungsrahmens und/oder Volumens von Interesse kann einige oder alle der wahrscheinlichen Bewegungen berücksichtigen, sodass die Wiederholung von Vorgang 30 eventuell nicht notwendig ist. Um die Bildgebung (z. B. verbesserte Auflösung und/oder Kontrast) zu optimieren und/oder mit unerwarteter Bewegung umzugehen, kann die Abmessung des Scanbereichs kleiner sein, jedoch mit Feedback. Das komplette Volumen wird in Vorgang 30 erneut gescannt, um das Objekt oder den Begrenzungsrahmen in Vorgang 32 erneut zu lokalisieren. Diese Position kann eine andere oder die gleiche sein. Die Präsentation der Zoomoption in Vorgang 33 muss nicht wiederholt werden, da die Auswahl der Option vorher bereitgestellt wurde. Die Scanform wird in Vorgang 34 für eine beliebige neue Position des Objektes und/oder Begrenzungsrahmens positioniert. Das Scannen in Vorgang 36 und die resultierende Bilderstellung in Vorgang 38 werden wiederholt.
  • 3 zeigt ein Beispiel des Aufnahmezyklus. In Vorgang 50 wird ein dichtes dreidimensionales Bild aufgenommen. Das Bild stammt von einem Scan, der das Objekt von Interesse im Ultraschallkegel beinhaltet. In Vorgang 52 wird ein dreidimensionaler Zielbegrenzungsrahmen im Volumen oder dreidimensionalen Ultraschallbild lokalisiert. In Vorgang 54 wird die Aufnahmegeometrie des Volumens von Interesse abgeleitet, um den dreidimensionalen Begrenzungsrahmen zu umschließen. In Vorgang 56 werden dreidimensionale Scans und resultierende Bilder des Volumens von Interesse für den Rest des Aufnahmezyklus aufgenommen.
  • Wieder in Bezug auf 1 stellen die Vorgänge 30, 32, 34, 36 und 38 den Aufnahmezyklus dar. Innerhalb des Aufnahmezyklus werden ein oder mehrere Bilder des Volumens von Interesse erstellt. Zum Beispiel werden vier oder mehr Bilder in Echtzeit aus einer entsprechenden Folge von vier oder mehr Scans erstellt. Der Aufnahmezyklus wird zeitlich festgelegt, um die Bewegungen des Objektes einzuschränken. Das Objekt bewegt sich mit einem gegebenen Tempo. Die Anzahl der Wiederholungen des Scannens und der Bildgebung in den Vorgängen 36 und 38 kann auf dem Ausmaß und/oder der Richtung der Bewegung basieren. Der Zeitraum für den Aufnahmezyklus ist auf einen Zeitraum eingestellt, in dem die Bewegung des Objektes wahrscheinlich im Begrenzungsrahmen oder Volumen von Interesse bleibt. Die Dauer des Aufnahmezyklus wird basierend auf anatomischen Informationen (z. B. Herz- oder Atemzyklus) bestimmt, die abgebildet werden. Synchronisation zwischen dem Aufnahmezyklus und dem Herzzyklus kann genutzt werden, um die Dauer des Aufnahmezyklus adaptiv zu bestimmen (z. B. Benutzen von EKG-Taktung). Alternativ wird der Zeitraum durch den Benutzer vorgegeben oder eingestellt.
  • Der Aufnahmezyklus wird wiederholt. Das erstmalige Scannen in Vorgang 30 und das Lokalisieren in Vorgang 32 werden wiederholt, um das Objekt von Interesse aufzufinden. Jede Wiederholung bestimmt eine neue Position für das Objekt im Volumen des Patienten. Durch regelmäßiges Aktualisieren der Position wird das Objekt im Laufe der Zeit aufgefunden. Die Dauer des Aufnahmezyklus bestimmt die Genauigkeit der Platzierung des Volumens von Interesse. In jedem Aufnahmezyklus wird eine einzige oder eine Folge von Scandaten des kompletten Volumens aufgenommen. Diese Daten werden genutzt, um die aktuelle Stellung (z. B. Position, Ausrichtung und Maßstab) des Volumens von Interesse zu bestimmen. Im restlichen Aufnahmezyklus bleiben die Parameter des Volumens von Interesse gleich (z. B. im Transducerkoordinatensystem stationär oder unveränderlich).
  • Das Auffinden wird ohne Benutzereingabe einer Angabe einer Position des Objektes ausgeführt. Der Prozessor führt die Ermittlung ohne Benutzeridentifikation einer Position des Objektes aus. Alternativ gibt der Benutzer eine Anatomieposition ein.
  • Das Auffinden kann voraussagend sein. Da die Bewegung des Objektes kontinuierlich oder regelmäßig sein kann, kann sich die Position des Objektes vom Zeitpunkt der Ermittlung in Vorgang 32 zum Zeitpunkt des Scannens des Volumens von Interesse in Vorgang 36 verlagern. Die Verzögerung kann darin resultieren, dass das Objekt sich an einer anderen Position befindet. In ähnlicher Weise kann die Verzögerung des Wiederholens von Vorgang 36 von Scan zu Scan darin resultieren, dass das Objekt sich an einer anderen Position befindet. Diese Ungenauigkeit kann angesichts einer gegebenen Spanne im Volumen von Interesse akzeptabel sein.
  • Alternativ sagt der Prozessor die nächste Position vorher. Die Bewegung gegenüber einem oder mehreren bisher aufgenommenen Datensätzen des kompletten Volumens wird genutzt, um die nächste Position für den Zeitpunkt des nächsten Scans vorherzusagen. Wenn sich das Objekt mit gegebenem Tempo und gegebener Richtung bewegt, werden das Tempo und die Richtung genutzt, um die Position zum Zeitpunkt des nächsten Scans des Volumens von Interesse vorherzusagen. Eine Bewegungshistorie, wie etwa im Zusammenhang mit zyklischer Bewegung, kann für die Prognose genutzt werden. Die aktuelle Phase wird genutzt, um das erwartete Tempo und die Richtung für den anschließenden Scan zu bestimmen. Die Prognose gleicht die Verzögerung zwischen Scans des Volumens von Interesse und/oder kompletten Volumens zum Verbessern der Position aus.
  • Der Feedback-Pfeil von Vorgang 38 zu Vorgang 30 stellt laufendes oder kontinuierliches Scannen dar. Das Scannen wird mit der abgeänderten Position des Volumens von Interesse basierend auf wiederholter Ermittlung des Objektes wiederholt. Dieser Prozess wird im Laufe der Zeit in der Live- oder Echtzeit-Bildgebung fortgesetzt, wodurch das Objekt im Volumen aufgefunden wird. Das Objekt von Interesse profitiert weiterhin trotz Bewegung von höherer Bildfrequenz, Auflösung und/oder Kontrast (d. h. Bildqualität) im Zeitverlauf. Durch das automatische Auffinden kann das Volumen von Interesse kleiner gemacht werden, was eine optimiertere Bildgebung der Anatomie ermöglicht.
  • Durch automatisches Ermitteln und Auffinden durch die aktualisierte Ermittlung des Objektes kann dreidimensionale Bildgebung ausgeführt werden, ohne dass der Benutzer die Bildgebungsparameter justieren muss, wie etwa für die Größe und Position des Volumens von Interesse. Die Ermittlung, wie etwa mit einem von einer Maschine erlernten Klassifikator, erhöht die Arbeitsgeschwindigkeit des Bildgebungssystems, um Echtzeitermittlung zu ermöglichen. Die Zuverlässigkeit der Messungen basierend auf dem Volumen von Interesse wird erhöht, indem gewährleistet wird, dass Referenzpunkte enthalten sind und die Bildqualität optimal ist.
  • 4 zeigt eine Ausführungsform eines Systems 10 zur Ultraschall-Bildgebung eines Volumens von Interesse. Der Benutzer konfiguriert das System 10 für das Volumen oder die dreidimensionale Bildgebung, wie etwa die Auswahl einer Anwendung für die Volumenbildgebung spezieller Anatomie oder von eingeführten Vorrichtungen. Der Benutzer kann die Werte einer oder mehrerer Voreinstellungen wie gewünscht abändern. Sobald das Scannen beginnt, ermittelt das System 10 automatisch das Objekt, scannt das Objekt anders als das verbliebene Volumen im Sichtfeld und erstellt ein Bild oder Bilder, die das Volumen von Interesse zeigen. Durch das regelmäßige Auffinden oder Ermitteln des Objektes positioniert das System 10 das Volumen von Interesse für verbesserte dreidimensionale Bildgebung in Bezug auf das Volumen neu, was automatisch eine bessere Bildqualität für das Objekt von Interesse bereitstellt.
  • Das System 10 ist ein Ultraschall-Imager. In einer Ausführungsform ist der Ultraschall-Imager ein medizinisch-diagnostisches Ultraschall-Bildgebungssystem. In alternativen Ausführungsformen ist der Ultraschall-Imager ein Personal Computer (PC), ein Arbeitsplatz, eine PACS-Station oder eine andere Anordnung an der gleichen Position oder über ein Netzwerk für Echtzeit- oder Nachaufnahme-Bildgebung verteilt.
  • Das System 10 setzt das Verfahren von 1, das Verfahren von 3 oder andere Verfahren um. Das System 10 beinhaltet einen Sende-Beamformer 12, einen Transducer 14, einen Empfänger-Beamformer 16, einen Bildprozessor 18, einen Renderer 21, eine Anzeige 22, eine Beamformer-Steuereinheit 24 und einen Speicher 26. Zusätzliche, andere oder weniger Komponenten können bereitgestellt werden. Zum Beispiel werden ein räumlicher Filter, ein Scanumwandler, ein Abbildprozessor zur Einstellung des Dynamikbereichs und/oder ein Verstärker zur Anwendung von Verstärkung bereitgestellt. In einem weiteren Beispiel wird eine Benutzereingabe bereitgestellt.
  • Der Sende-Beamformer 12 ist ein Ultraschall-Sender, Speicher, Impulsgeber, eine Analogschaltung, Digitalschaltung oder eine Kombination aus diesen. Der Sende-Beamformer 12 ist konfiguriert, um Wellenformen für mehrere Kanäle mit unterschiedlichen oder relativen Amplituden, Verzögerungen und/oder Phasengestaltungen zu erstellen, um einen resultierenden Strahl an einer oder mehreren Tiefen zu fokussieren. Die Wellenformen werden erstellt und in einer Transducer-Anordnung mit beliebiger Zeitsteuerung oder Impulswiederholungsfrequenz angewendet. Zum Beispiel erzeugt der Sende-Beamformer 12 eine Reihe von Impulsen für unterschiedliche seitliche und/oder Reichweitenbereiche. Die Impulse haben eine Mittenfrequenz.
  • Der Sende-Beamformer 12 ist mit dem Transducer 14 verbunden, wie etwa durch einen Sende-Empfangsumschalter. Nach dem Senden von akustischen Wellen vom Transducer 14 als Reaktion auf die erzeugten Wellen werden während eines gegeben Sendeereignisses ein oder mehrere Strahlen geformt. Die Strahlen sind für B-Modus oder andere Modi der Bildgebung vorgesehen. Sektor-, Vektor®-, lineare oder andere Scanformate können genutzt werden. Derselbe Bereich wird mehrere Male gescannt, um eine Folge von Bildern zu erstellen. Die geformten Strahlen haben eine Blende, einen Ursprung am Transducer 14 und einen Winkel bezüglich des Transducers 14. Die Strahlen im Sichtfeld haben eine gewünschte Liniendichte und ein gewünschtes Format.
  • Der Transducer 14 ist eine 1-, 1,25-, 1,5-, 1,75- oder zweidimensionale Anordnung aus piezoelektrischen oder kapazitiven Membranelementen. Der Transducer 14 beinhaltet mehrere Elemente für das Umwandeln zwischen akustischen und elektrischen Energien. Zum Beispiel ist der Transducer 14 eine eindimensionale PZT-Anordnung mit etwa 64–256 Elementen in einer Wobbler-Anordnung für mechanische Bewegung der eindimensionalen Anordnung zum Scannen eines Volumens. In einer Ausführungsform ist der Transducer 14 eine multidimensionale Anordnung oder andere Anordnung für das Scannen eines Volumens. Zum Beispiel ist der Transducer 14 eine Anordnung für die transösophageale Echokardiografie (TEE), eine Anordnung für die intrakardiale Volumen-Echokardiografie (ICE) oder eine Anordnung für die transthorakale Echokardiografie (TTE).
  • Der Transducer 14 ist lösbar mit dem Sende-Beamformer 12 zum Umwandeln elektrischer Wellenformen in akustische Wellenformen und mit dem Empfänger-Beamformer 16 zum Umwandeln akustischer Echos in elektrische Signale verbindbar. Der Transducer 14 beinhaltet einen Stecker, der in ein Bildgebungssystem gesteckt werden kann, oder er kommuniziert kabellos mit einem Bildgebungssystem. Der Transducer 14 sendet die Sendestrahlen. wobei die Wellenformen eine Frequenz haben und auf einen Gewebebereich oder eine Position von Interesse im Patienten fokussiert sind. Die akustischen Wellenformen werden als Reaktion auf die Anwendung elektrischer Wellenformen auf die Transducer-Elemente erzeugt. Der Transducer 14 sendet akustische Energie aus und empfängt Echos. Die Empfängersignale werden als Reaktion auf Ultraschallenergie (Echos), die auf die Elemente des Transducers 14 auftrifft, erzeugt.
  • Der Empfänger-Beamformer 16 beinhaltet mehrere Kanäle mit Verstärkern, Verzögerungen und/oder Phasenrotatoren und einen oder mehrere Summierer. Jeder Kanal ist mit einem oder mehreren Transducer-Elementen verbunden. Der Empfänger-Beamformer 16 wendet relative Verzögerungen, Phasen und/oder Apodisierung an, um einen oder mehrere Empfänger-Strahlen als Reaktion auf jedes Senden für die Ermittlung zu formen. Dynamische Fokussierung beim Empfang kann bereitgestellt sein. Der Empfänger-Beamformer 16 gibt unter Verwendung der empfangenen akustischen Signale Daten aus, die räumliche Positionen darstellen. Relative Verzögerungen und/oder Phasengestaltung und Summierung der Signale von unterschiedlichen Elementen stellen Strahlformung bereit. In alternativen Ausführungsformen ist der Empfänger-Beamformer 16 ein Prozessor zum Erstellen von Abtastwerten unter Verwendung von Fourier- oder anderen Transformationen. Die Abtastdichte durch den Empfänger-Beamformer 16 ist für einen Tiefenbereich vorgesehen. Es wird Zeitsteuerung zur Auswahl des Tiefenbereichs genutzt, über den die Abtastung stattfindet. Die Empfängerstrahlen haben eine gewünschte Scanliniendichte in einer Ausrichtung oder Ausrichtungen unter Verwendung einer Blende.
  • Der Empfänger-Beamformer 16 kann einen Filter beinhalten, wie etwa einen Filter zum Isolieren von Informationen auf einer zweiten Harmonischen oder einem anderen Frequenzband relativ zum Sendefrequenzband. Derartige Informationen beinhalten eher das gewünschte Gewebe, Kontrastmittel und/oder Flussinformationen. In einer weiteren Ausführungsform beinhaltet der Empfänger-Beamformer 16 einen Speicher oder Zwischenspeicher und einen Filter oder Addierer. Zwei oder mehr Empfängerstrahlen werden kombiniert, um Informationen in einem gewünschten Frequenzband, wie etwa einer zweiten Harmonischen, einem kubischen Grundband oder einem anderen Band, zu isolieren. Alternativ kann das Grundfrequenzbereich genutzt werden.
  • Der Empfänger-Beamformer 16 gibt strahlensummierte Daten aus, die räumliche Positionen darstellen. Daten für Positionen für ein Volumen und/oder Volumen von Interesse werden ausgegeben.
  • Die Beamformer-Steuereinheit 24 und/oder ein anderer Prozessor konfigurieren die Beamformer 12, 16. Die Beamformer-Steuereinheit 24 ist ein Prozessor, ein anwendungsspezifischer integrierter Schaltkreis, ein feldprogrammierbarer Gatter-Array, eine Digitalschaltung, eine Analogschaltung, ein Speicher, ein Zwischenspeicher, Kombinationen aus diesen oder eine andere Vorrichtung zum Konfigurieren der Sende- und Empfänger-Beamformer 12, 16.
  • Die Beamformer-Steuereinheit 24 kann den Speicher 26 nutzen, um Werte für unterschiedliche Beamformer-Parameter aufzunehmen und/oder zwischenzuspeichern. Die Beamformer 12, 16 können auf die Werte zugreifen und/oder aus dem Speicher 26 in Zwischenspeicher oder Speicher der Beamformer 12, 16 laden, um die Beamformer 12, 16 zu konfigurieren. Durch das Laden der Werte in Register oder eine Tabelle, die für den Betrieb genutzt werden, werden die Werte der Aufnahmeparameter, die von den Beamformern 12, 16 zur dreidimensionalen Bildgebung genutzt werden, eingestellt. Beliebige Kontrollstrukturen oder Formate können genutzt werden, um die Bildfolge herzustellen. Die Beamformer 12, 16 werden veranlasst, Daten für die dreidimensionale Bildgebung mit einer Bildfrequenz, mit einem Sendefokus, mit einem Bildgebungs-Frequenzband, über eine Tiefe, mit einer Liniendichte, mit einer Abtastdichte und/oder mit einer Linienausrichtung aufzunehmen. Unterschiedliche Werte eines oder mehrerer Aufnahme- oder Scanparameter können eine unterschiedliche Bildfrequenz, ein unterschiedliches Signal-Rausch-Verhältnis, eine unterschiedliche Penetration, einen unterschiedlichen Kontrast und/oder eine unterschiedliche Auflösung zur Folge haben.
  • Die Beamformer-Steuereinheit 24 veranlasst die Beamformer 12, 16, ein Volumen eines Patienten zu scannen. Ein beliebiges dreidimensionales Scanformat kann genutzt werden. In ähnlicher Weise veranlasst die Beamformer-Steuereinheit 24 die Beamformer 12, 16, ein Volumen von Interesse innerhalb des Volumens zu scannen. Ein beliebiges dreidimensionales Scanformat kann genutzt werden, um das Volumen von Interesse zu scannen.
  • Der Scan des Volumens von Interesse ist getrennt vom restlichen Volumen und/oder nimmt zusätzliche Daten auf, die nicht für das restliche Volumen aufgenommen werden. Zum Beispiel wird das Volumen von Interesse mit Scanlinien in einem anderen Winkel oder Winkeln als das restliche Volumen gescannt. Der Winkel in Bezug zum Gewebe und/oder Transducer ist anders. Das Volumen und das Volumen von Interesse werden mit unterschiedlichen Ausrichtungen gescannt. Weitere Parameter können eingestellt werden, um das Volumen von Interesse mit höherer Auflösung, Kontrast und/oder Bildfrequenz im Vergleich mit dem restlichen Volumen zu scannen, wie etwa das unterschiedliche Einstellen der Abtastdichte und/oder Liniendichte.
  • Der Bildprozessor 18 ermittelt aus den strahlengeformten Abtastungen, wie etwa das Ermitteln der Intensität. Eine beliebige Ermittlung kann genutzt werden, wie etwa B-Modus- und/oder Farbflussermittlung. In einer Ausführungsform ist ein B-Modus-Ermittler ein allgemeiner Prozessor, ein anwendungsspezifischer integrierter Schaltkreis oder ein feldprogrammierbares Gatter-Array. Log-Kompression kann durch einen B-Modus-Ermittler bereitgestellt werden, sodass der Dynamikbereich der B-Modus-Daten dem Dynamikbereich der Anzeige entspricht. Der Bildprozessor 18 kann einen Scanumwandler beinhalten oder nicht.
  • Der Renderer 21 ist ein Grafikprozessor, eine Grafikkarte, ein separater Computer, Prozessor oder eine andere Vorrichtung zum dreidimensionalen Rendern. Der Renderer 21 wird durch eine Software, Hardware und/oder Firmware dafür konfiguriert, ein Bild oder Bilder des Patienten aus den Daten des Volumens und/oder den Daten des Volumens von Interesse zu erstellen. Separate Bilder für das Volumen und das Volumen von Interesse können erstellt werden, wie etwa Bilder des kompletten Volumens, bis das Objekt ermittelt ist, und danach nur Bilder des Volumens von Interesse oder bis der Benutzer die Fertigstellung angibt. Alternativ oder zusätzlich wird ein Bild erstellt, um sowohl das Volumen als auch das Volumen von Interesse in einer einzelnen Darstellung darzustellen. Die Daten des Volumens und des Volumens von Interesse können getrennt verarbeitet (z. B. in Farbe oder Intensität abgebildet) und dann für das Rendering kombiniert werden. Alternativ werden die Daten des Volumens und des Volumens von Interesse getrennt gerendert und dann werden die resultierenden gerenderten Daten zu dem Bild kombiniert. Eine Folge derartiger Bilder kann erstellt werden.
  • In einer Ausführungsform ist ein Renderer 21 dafür konfiguriert, Bilder ausschließlich des Volumens von Interesse aus den Scans der Sende- und Empfänger-Beamformer 12, 16 über einen Zeitraum, wie etwa für vier, zehn oder mehr Rahmen, zu erstellen. Innerhalb eines Aufnahmezyklus wird das Volumen von Interesse abgebildet und nicht das komplette Volumen. Alternativ bleibt das aktuellste Bild des kompletten Volumens bestehen, während die Bilder des Volumens von Interesse aktualisiert werden. Der erstmalige Aufnahmezyklus kann ein Bild oder Bilder des kompletten Volumens vor dem Übergang zur Bildgebung des Volumens von Interesse beinhalten. Anschließende Wiederholungen des Aufnahmezyklus scannen das komplette Volumen, um die aktuelle Position der Anatomie zu ermitteln, jedoch wird kein entsprechendes Bild des kompletten Volumens gerendert. Alternativ wird ein Bild des kompletten Volumens gerendert, wenn die Daten verfügbar sind. Die Bilder des kompletten Volumens sind mit Bildern des Volumens von Interesse veschachtelt, jedoch ist die Bildfrequenz des Volumens von Interesse mindestens zweimal so hoch wie die des kompletten Volumens. Weitere Verhältnisse können bereitgestellt werden.
  • Die Anzeige 20 ist eine ORT-, LCD-, Monitor-, Plasma-, Projektor-, Drucker- oder andere Vorrichtung zur Anzeige eines Bildes oder einer Folge von Bildern. Eine beliebige derzeit bekannte oder später entwickelte Anzeige 20 kann genutzt werden. Die Anzeige 20 zeigt dreidimensionale Darstellungen an. Die Anzeige 20 zeigt ein oder mehrere Bilder an, die das Volumen von Interesse darstellen.
  • Die räumliche Auflösung und/oder Bildqualität basiert zum Teil auf den Aufnahme- oder Scanparametern. Die Verwendung unterschiedlicher Aufnahmeparameter des Ultraschall-Imagers kann in unterschiedliche räumliche Auflösungen, zeitliche Auflösungen oder Bildqualitäten des angezeigten Bildes resultieren. Das Volumen von Interesse ist kleiner als das komplette Volumen, hat also eventuell eine höhere Bildqualität als das komplette Volumen. Das Volumen von Interesse kann die Position aufgrund des Auffindens verändern, was dem Benutzer ermöglicht, weiterhin das Objekt von Interesse mit höherer Qualität, verglichen mit der Bildgebung des kompletten Volumens, anzusehen.
  • Die Beamformer-Steuereinheit 24, der Bildprozessor 18, der Renderer 21 oder weitere Prozessoren sind dafür konfiguriert, das Objekt zu ermitteln. Software, Hardware und/oder Firmware konfigurieren für die Ermittlung des Objektes. Eine anatomische Struktur oder eine eingeführte Vorrichtung innerhalb des Patienten wird automatisch identifiziert. Ein Klassifikator, wie etwa ein von einer Maschine erlernter Klassifikator, wird auf die Scandaten angewendet, die vom Empfänger-Beamformer 16 empfangen werden und das komplette Volumen darstellen. Der Klassifikator ermittelt selbstständig die Position des Objektes im Volumen und/oder einem Begrenzungsrahmen in Bezug zum Volumen und Objekt.
  • Die Ermittlung wird im Laufe der Zeit wiederholt, um die Position des Objektes zu unterschiedlichen Zeiten aufzufinden. Der Prozessor wiederholt die Identifikation aus später aufgenommenen Ultraschalldaten aus einem späteren Scan des kompletten Volumens. Die Position der Anatomie kann zu einem künftigen Zeitpunkt aus vergangener Ermittlung und/oder Modellierung der Bewegung der Anatomie vorhergesagt werden. Die Beamformer-Steuereinheit 24 ist dafür konfiguriert, die Sende- und Empfänger-Beamformer 12, 16 zu veranlassen, im Laufe der Zeit die Position der Anatomie des Volumens von Interesse innerhalb des Volumens basierend auf einer Position des ermittelten Objektes oder Begrenzungsrahmens im Laufe der Zeit aufzufinden.
  • Der Prozessor (z. B. die Beamformer-Steuereinheit 24, der Bildprozessor 18, Renderer 21, Kombinationen aus diesen oder ein anderer Prozessor) ist dafür konfiguriert, die Scanparameter zu justieren, um das Volumen von Interesse zu scannen. Der Prozessor kann eine GPU (Grafikprozessor) und/oder eine CPU (Zentralprozessor) sein. Über die meiste Zeit, 75%, 90% oder weitere Zeitspannen, wird ausschließlich das Volumen von Interesse gescannt. Das komplette Volumen kann regelmäßig zum Auffinden gescannt werden, jedoch wird die restliche Zeit ausschließlich das Volumen von Interesse gescannt. Die Scanparameter werden zum Scannen des Volumens von Interesse eingestellt oder justiert. Die Scanliniendichte, Abtastdichte, Abtastrate, Tiefe, seitliche Ausdehnung, das Scanformat, die Frequenz, der Sendefokus, die Sendeleistung und/oder weitere Scanparameter bekommen Werte zum Scannen des Volumens von Interesse und nicht des restlichen kompletten Volumens zugewiesen. Die Scanparameter werden so justiert, um einen fächerförmigen Bereich oder einen Bereich mit einem anderen Ultraschallscanformat zu scannen, der den Begrenzungsrahmen und/oder das Objekt umschließt. Zum Beispiel werden die Scanparameter auf Werte zum Scannen eines Scanbereichs eingestellt, der bemessen ist, um den Begrenzungsrahmen minimal oder minimal mit einem Rand zu umschließen. Wenn das Volumen von Interesse die Position verändert, werden die Scanparameter abgeändert.
  • Die Beamformer-Steuereinheit 24, der Bildprozessor 18, der Renderer 21 und/oder der Ultraschall-Imager arbeiten gemäß Anweisungen, die im Speicher 26 oder weiteren Speichern gespeichert sind. Die Anweisungen konfigurieren das System für die Ausführung der Vorgänge in 1. Die Anweisungen konfigurieren für den Betrieb, indem sie in eine Steuereinheit geladen werden, durch Veranlassen des Ladens einer Tabelle von Werten (z. B. Elastizitäts-Bildgebungsfolge) und/oder indem sie ausgeführt werden. Der Speicher 26 ist ein nicht-transitorisches computerlesbares Speichermedium. Die Anweisungen zur Umsetzung der Prozesse, Verfahren und/oder Techniken, die hier besprochen wurden, werden auf computerlesbaren Speichermedien oder Speichern bereitgestellt, wie etwa Cachespeichern, Zwischenspeichern, RAMs, Wechselmedien, Festplatten oder anderen computerlesbaren Speichermedien. Computerlesbare Speichermedien beinhalten verschiedene Arten flüchtiger und nicht flüchtiger Speichermedien. Die in den Figuren gezeigten oder hierin beschriebenen Funktionen, Vorgänge oder Aufgaben werden als Reaktion auf einen oder mehrere Sätze von Anweisungen, die in oder auf den computerlesbaren Speichermedien gespeichert sind, ausgeführt. Die Funktionen, Vorgänge oder Aufgaben sind unabhängig von der konkreten Art des Anweisungssatzes, den Speichermedien, dem Prozessor oder der Verabeitungsstrategie und können durch Software, Hardware, integrierte Schaltkreise, Firmware, Micro-Code und dergleichen, allein oder in Kombination betrieben, ausgeführt werden. Ebenfalls können die Verarbeitungsstrategien Multiprocessing, Multitasking, Parallelverarbeitung und dergleichen beinhalten. In einer Ausführungsform sind die Anweisungen auf einem Wechseldatenträger zum Lesen durch lokale oder ferne Systeme gespeichert. In weiteren Ausführungsformen sind die Anweisungen an einem beliebigen Ort zur Übertragung durch ein Computernetzwerk oder über eine Telefonleitung gespeichert. In weiteren Ausführungsformen sind die Anweisungen innerhalb eines vorgegebenen Computers, einer CPU, GPU oder eines Systems gespeichert.
  • Obwohl die Erfindung vorstehend anhand verschiedener Ausführungsformen beschrieben worden ist, versteht es sich, dass viele Änderungen und Modifikationen vorgenommen werden können, ohne vom Umfang der Erfindung abzuweichen. Es ist daher beabsichtigt, dass die vorstehende detaillierte Beschreibung als veranschaulichend und nicht als einschränkend verstanden wird, und es versteht sich, dass die folgenden Ansprüche, einschließlich aller Äquivalente, den Sinn und den Umfang dieser Erfindung definieren sollen.

Claims (16)

  1. Verfahren zur Ultraschall-Bildgebung eines Volumens von Interesse, wobei das Verfahren umfasst: Aufnehmen (30) von Daten, die ein Volumen eines Patienten darstellen, mit einem Ultraschall-Bildgebungssystem, Lokalisieren (32) eines Zielbegrenzungsrahmens, der ein Objekt von Interesse und zusätzliche Anatomie umgibt, durch einen Prozessor (18, 24), Identifizieren (34) des Volumens von Interesse, durch den Prozessor (18, 24), innerhalb des Volumens als Scanbereich in einem Scanformat, das den Zielbegrenzungsrahmen umschließt, Scannen (36) des Scanbereichs in dem Scanformat mit dem Ultraschall-Bildgebungssystem und Erstellen (38) eines Bildes aus dem Scannen (36) des Volumens von Interesse.
  2. Verfahren nach Anspruch 1, wobei das Aufnehmen (30) das Aufnehmen (30) vor dem Scannen (36) und das Beenden der Scans des Volumens des Patienten während des mehrmaligen Wiederholens des Scannens (36) des Scanbereichs umfasst oder wobei das Aufnehmen (30) das Aufnehmen (30) mit einer ersten Liniendichte umfasst und wobei das Scannen (36) das Scannen (36) des Scanbereichs mit einer zweiten Liniendichte größer als die erste Liniendichte umfasst.
  3. Verfahren nach Anspruch 1, wobei das Lokalisieren (32) das Lokalisieren (32) des Zielbegrenzungsrahmens als geometrische Struktur umfasst, die weniger als dreizehn Seiten und eine äußere Oberfläche beinhaltet, die sich vom Objekt von Interesse unterscheidet, oder wobei das Lokalisieren (32) das Anwenden eines von einer Maschine erlernten Klassifikators umfasst, oder wobei das Lokalisieren (32) das Ermitteln einer Position, Ausrichtung und Größe des Zielbegrenzungsrahmens umfasst, um das Objekt von Interesse zu umgeben.
  4. Verfahren nach Anspruch 1, wobei das Identifizieren (34) das Identifizieren (34) des Scanbereichs als eine minimale dreidimensionale Fächerform umfasst, die den kompletten Zielbegrenzungsrahmen einschließt, oder wobei das Identifizieren (34) das Identifizieren (34) des Scanbereichs als Ultraschall-Kegelbereich mit Begrenzungen umfasst, der den Zielbegrenzungsrahmen in Tiefe, Höhe und Azimut einschließt.
  5. Verfahren nach Anspruch 1, wobei das Scannen (36) des Scanbereichs das Scannen (36) des Scanbereichs und nicht das Scannen (36) der verbliebenen Bereiche des Volumens des Patienten über mindestens zehn Wiederholungen des Scannens (36) umfasst.
  6. Verfahren nach Anspruch 5, wobei das Aufnehmen (30), Scannen (36) und Wiederholungen des Scannens (36) einen Aufnahmezyklus umfassen, ferner das Wiederholen des Aufnahmezyklus umfassend, wobei das Wiederholen des Aufnehmens (30) und des Lokalisierens (32) das Auffinden des Objektes von Interesse im Volumen des Patienten umfasst.
  7. Verfahren nach Anspruch 1, wobei das Erstellen (38) des Bildes das Erstellen (38) des Bildes des Volumens von Interesse und nicht von anderen Bereichen des Volumens des Patienten umfasst.
  8. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen aus den Daten, dass das Objekt von Interesse im Volumen des Patienten ist, Präsentieren (33) einer Option für den Benutzer zum Heranzoomen an das Volumen von Interesse und Ausführen des Identifizierens (34) und Scannens (36) als Reaktion auf das Empfangen einer Benutzerauswahl der Option.
  9. System zur Ultraschall-Bildgebung eines Volumens von Interesse, wobei das System umfasst: einen Sende-Beamformer (12), einen Empfänger-Beamformer (16), einen Transducer (14), der mit dem Sende- und dem Empfänger-Beamformer (12, 16) verbunden werden kann, einen Prozessor (18, 24), der dafür konfiguriert ist, selbstständig eine anatomische Struktur aus einem Ultraschalldatensatz zu identifizieren, der aus Informationen vom Empfänger-Beamformer (16) resultiert, die einen ersten Bereich des Patienten darstellen, und dafür konfiguriert ist, die Scanparameter zu justieren, um ausschließlich das Volumen von Interesse als Teilabschnitt des ersten Bereiches zu scannen, wobei das Volumen von Interesse die anatomische Struktur einschließt, einen Renderer (21), der dafür konfiguriert ist, Bilder ausschließlich des Volumens von Interesse aus den Scans des Sende- und des Empfänger-Beamformers (12, 16) unter Verwendung der Scanparameter zu erstellen, und eine Anzeige (22), die dafür konfiguriert ist, die Bilder anzuzeigen.
  10. System nach Anspruch 9, wobei der Prozessor (18, 24) dafür konfiguriert ist, die Identifikation aus einem zusätzlichen Ultraschalldatensatz zu wiederholen, der aus zusätzlichen Informationen resultiert, und die Justierung der Scanparameter zu wiederholen.
  11. System nach Anspruch 9, wobei der Renderer (21) dafür konfiguriert ist, die Bilder ausschließlich des Volumens von Interesse verschachtelt mit Bildern des ersten Bereichs zu erstellen.
  12. System nach Anspruch 9, wobei der Prozessor (18, 24) dafür konfiguriert ist, die anatomische Struktur mit einem von einer Maschine erlernten Klassifikator zu identifizieren.
  13. System nach Anspruch 9, wobei der Prozessor (18, 24) dafür konfiguriert ist, die anatomische Struktur mit einem Begrenzungsrahmen der anatomischen Struktur zu identifizieren, und wobei der Prozessor (18, 24) dafür konfiguriert ist, die Scanparameter einzustellen, um einen Fächerformbereich zu scannen, der den Begrenzungsrahmen umschließt, wobei der Fächerformbereich eine Scanform ist, die so bemessen ist, dass sie den Begrenzungsrahmen minimal oder minimal mit einem Rand umschließt.
  14. Verfahren zur Ultraschall-Bildgebung eines Volumens von Interesse, wobei das Verfahren umfasst: Sannen (30) eines Volumens des Patienten durch ein Ultraschallgerät, Lokalisieren (32) eines Objektes im Volumen durch einen Prozessor (18, 24), Präsentieren (33) einer Option zum Heranzoomen an das Objekt auf einer Anzeige, Identifizieren (34) des Volumens von Interesse durch den Prozessor (18, 24) als das Objekt umgebend und geringer als das Volumen des Patienten, wobei das Identifizieren (34) als Reaktion auf die Benutzerauswahl der Option stattfindet, Scannen (36) des Volumens von Interesse durch das Ultraschallgerät und nicht das Scannen des restlichen Volumens des Patienten über mehrere Wiederholungen nach dem Identifizieren (34) und Erstellen (38) einer Folge von Bildern des Volumens von Interesse auf einer Anzeige, wobei die Bilder auf Ultraschalldaten basieren, die aus dem Scannen (36) des Volumens von Interesse resultieren.
  15. Verfahren nach Anspruch 14, wobei das Lokalisieren (32) das Lokalisieren (32) eines Begrenzungsrahmens umfasst, der das Objekt und zusätzliche Positionen umschließt, und wobei das Identifizieren (34) das Identifizieren (34) des Volumens von Interesse als eine Scanform, die minimal oder minimal mit einem Rand den Begrenzungsrahmen umschließt, umfasst.
  16. Verfahren nach Anspruch 14, ferner das Auffinden des Objektes durch Wiederholen des Scannens (36) des Volumens des Patienten, das Lokalisieren (32), das Identifizieren (34), das Scannen (36) des Volumens von Interesse und das Erstellen (38) der Folge von Bildern umfassend.
DE102016105690.1A 2015-03-30 2016-03-29 Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung Pending DE102016105690A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/673,583 US10835210B2 (en) 2015-03-30 2015-03-30 Three-dimensional volume of interest in ultrasound imaging
US14/673,583 2015-03-30

Publications (1)

Publication Number Publication Date
DE102016105690A1 true DE102016105690A1 (de) 2016-10-06

Family

ID=56937183

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016105690.1A Pending DE102016105690A1 (de) 2015-03-30 2016-03-29 Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung

Country Status (4)

Country Link
US (1) US10835210B2 (de)
JP (1) JP6297085B2 (de)
CN (2) CN106037797B (de)
DE (1) DE102016105690A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3530193A1 (de) * 2018-02-26 2019-08-28 Koninklijke Philips N.V. Bereitstellung eines dreidimensionalen ultraschallbildes
CN111281424A (zh) * 2018-12-07 2020-06-16 深圳迈瑞生物医疗电子股份有限公司 一种超声成像范围的调节方法及相关设备

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10667790B2 (en) 2012-03-26 2020-06-02 Teratech Corporation Tablet ultrasound system
US9877699B2 (en) 2012-03-26 2018-01-30 Teratech Corporation Tablet ultrasound system
WO2015191414A2 (en) 2014-06-09 2015-12-17 Siemens Corporation Landmark detection with spatial and temporal constraints in medical imaging
US20160317122A1 (en) * 2015-04-28 2016-11-03 Qualcomm Incorporated In-device fusion of optical and inertial positional tracking of ultrasound probes
JP6552724B2 (ja) * 2016-04-01 2019-07-31 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
US11151721B2 (en) 2016-07-08 2021-10-19 Avent, Inc. System and method for automatic detection, localization, and semantic segmentation of anatomical objects
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
US10657671B2 (en) 2016-12-02 2020-05-19 Avent, Inc. System and method for navigation to a target anatomical object in medical imaging-based procedures
EP3420914A1 (de) * 2017-06-30 2019-01-02 Koninklijke Philips N.V. Ultraschallsystem und verfahren
CN107766874B (zh) * 2017-09-07 2021-06-04 深圳度影医疗科技有限公司 一种超声容积生物学参数的测量方法及测量系统
EP3469993A1 (de) * 2017-10-16 2019-04-17 Koninklijke Philips N.V. Ultraschallbildgebungssystem und -verfahren
CN109273073A (zh) * 2018-08-28 2019-01-25 上海联影医疗科技有限公司 医学图像的存储方法及装置、计算机可读存储介质
US10593099B2 (en) * 2017-11-14 2020-03-17 Siemens Healthcare Gmbh Transfer function determination in medical imaging
US11625597B2 (en) 2017-11-15 2023-04-11 Canon Medical Systems Corporation Matching network for medical image analysis
US11006926B2 (en) 2018-02-27 2021-05-18 Siemens Medical Solutions Usa, Inc. Region of interest placement for quantitative ultrasound imaging
JP7324578B2 (ja) * 2017-12-12 2023-08-10 キヤノンメディカルシステムズ株式会社 超音波診断装置及びパルス繰り返し周波数制御プログラム
US11284865B2 (en) 2017-12-12 2022-03-29 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and method for controlling pulse repetition frequency
TWI649698B (zh) * 2017-12-21 2019-02-01 財團法人工業技術研究院 物件偵測裝置、物件偵測方法及電腦可讀取媒體
US11382601B2 (en) * 2018-03-01 2022-07-12 Fujifilm Sonosite, Inc. Method and apparatus for annotating ultrasound examinations
EP3549529A1 (de) * 2018-04-05 2019-10-09 Koninklijke Philips N.V. Ultraschallbildgebungssystem und -verfahren
EP3549528A1 (de) * 2018-04-05 2019-10-09 Koninklijke Philips N.V. Ultraschallbildgebungssystem und -verfahren
WO2019222478A2 (en) * 2018-05-17 2019-11-21 Teratech Corporation Portable ultrasound system
US20190374165A1 (en) * 2018-06-07 2019-12-12 Canon Medical Systems Corporation Image processing apparatus and method
EP3858223B1 (de) * 2018-09-26 2024-04-24 FUJIFILM Corporation Vorrichtung zur verarbeitung medizinischer bilder, endoskopsystem und betriebsverfahren für vorrichtung zur verarbeitung medizinischer bilder
CN109272050B (zh) * 2018-09-30 2019-11-22 北京字节跳动网络技术有限公司 图像处理方法和装置
EP3711673A1 (de) 2019-03-18 2020-09-23 Koninklijke Philips N.V. Verfahren und systeme zur anpassung des sichtfeldes einer ultraschallsonde
CN113795198B (zh) * 2019-05-06 2024-10-18 皇家飞利浦有限公司 用于控制体积速率的系统和方法
US11113898B2 (en) * 2019-12-20 2021-09-07 GE Precision Healthcare LLC Half box for ultrasound imaging
EP4066747B1 (de) * 2021-03-31 2024-07-17 AURA Health Technologies GmbH Verfahren und system zur detektion von objekten in ultraschallbildern von körpergewebe
CN116421215A (zh) * 2021-10-04 2023-07-14 巴德阿克塞斯系统股份有限公司 目标子区域的非均匀超声图像修改
US20240206852A1 (en) * 2022-12-27 2024-06-27 GE Precision Healthcare LLC System and method for automatically acquiring and rotating an ultrasound volume based on a localized target structure

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10277030A (ja) 1997-04-09 1998-10-20 Aloka Co Ltd 超音波診断装置
US5873830A (en) 1997-08-22 1999-02-23 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
JP2000175914A (ja) 1998-12-17 2000-06-27 Fukuda Denshi Co Ltd 超音波診断装置
US6572547B2 (en) * 2001-07-31 2003-06-03 Koninklijke Philips Electronics N.V. Transesophageal and transnasal, transesophageal ultrasound imaging systems
JP4382374B2 (ja) 2003-03-12 2009-12-09 アロカ株式会社 超音波診断装置
US7862511B2 (en) * 2003-10-23 2011-01-04 Koninkliljke Philips Electronics N.V. Ultrasound imaging method and apparatus
US20050096538A1 (en) * 2003-10-29 2005-05-05 Siemens Medical Solutions Usa, Inc. Image plane stabilization for medical imaging
CN1894598A (zh) * 2003-12-11 2007-01-10 皇家飞利浦电子股份有限公司 使用二维阵列换能器的体积超声成像系统
US20050228280A1 (en) * 2004-03-31 2005-10-13 Siemens Medical Solutions Usa, Inc. Acquisition and display methods and systems for three-dimensional ultrasound imaging
JP4868843B2 (ja) * 2005-01-26 2012-02-01 株式会社東芝 超音波診断装置及び超音波診断装置の制御プログラム
EP1685799B1 (de) 2005-01-26 2013-02-27 Kabushiki Kaisha Toshiba Diagnostische Ultraschallvorrichtung und Verfahren zur Aufnahme von Ultraschallbildern
US8286079B2 (en) * 2006-09-19 2012-10-09 Siemens Medical Solutions Usa, Inc. Context aware user interface for medical diagnostic imaging, such as ultrasound imaging
US20120093383A1 (en) * 2007-03-30 2012-04-19 General Electric Company Sequential image acquisition method
US8073215B2 (en) 2007-09-18 2011-12-06 Siemens Medical Solutions Usa, Inc. Automated detection of planes from three-dimensional echocardiographic data
WO2010032155A1 (en) * 2008-09-16 2010-03-25 Koninklijke Philips Electronics N.V. 3-d ultrasound imaging with volume data processing
JP5461845B2 (ja) 2009-02-05 2014-04-02 株式会社東芝 超音波診断装置及び超音波診断装置の制御プログラム
US9390236B2 (en) * 2009-05-19 2016-07-12 Koninklijke Philips N.V. Retrieving and viewing medical images
US20110125022A1 (en) * 2009-11-25 2011-05-26 Siemens Medical Solutions Usa, Inc. Synchronization for multi-directional ultrasound scanning
CN102081697B (zh) 2009-11-27 2013-12-11 深圳迈瑞生物医疗电子股份有限公司 一种在超声成像空间中定义感兴趣容积的方法及其装置
US20110144495A1 (en) * 2009-12-14 2011-06-16 Siemens Medical Solutions Usa, Inc. Perfusion Imaging of a Volume in Medical Diagnostic Ultrasound
US20130018264A1 (en) * 2011-07-15 2013-01-17 General Electric Company Method and system for ultrasound imaging
BR112014013935A2 (pt) * 2011-12-12 2017-06-13 Koninklijke Philips Nv dispositivo de processamento de imagem, e, meio legível por computador
US9033887B2 (en) * 2012-05-31 2015-05-19 Siemens Corporation Mitral valve detection for transthoracic echocardiography
KR20140074093A (ko) * 2012-12-07 2014-06-17 삼성메디슨 주식회사 볼륨 데이터를 이용한 초음파 진단 방법 및 장치
US8795178B2 (en) 2012-12-31 2014-08-05 General Electric Company Ultrasound imaging system and method for identifying data from a shadow region
BR112015025074B1 (pt) * 2013-04-03 2022-03-22 Koninklijke Philips N.V. Sistema de imageamento por ultrassom e método para gerar e avaliar vistas bidimensionais padrão a partir de dados de volume ultrassônico tridimensional
WO2015044901A1 (en) * 2013-09-30 2015-04-02 Koninklijke Philips N.V. Image guidance system with user definable regions of interest
US10194888B2 (en) * 2015-03-12 2019-02-05 Siemens Medical Solutions Usa, Inc. Continuously oriented enhanced ultrasound imaging of a sub-volume

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3530193A1 (de) * 2018-02-26 2019-08-28 Koninklijke Philips N.V. Bereitstellung eines dreidimensionalen ultraschallbildes
WO2019162477A1 (en) * 2018-02-26 2019-08-29 Koninklijke Philips N.V. Providing a three dimensional ultrasound image
CN111970974A (zh) * 2018-02-26 2020-11-20 皇家飞利浦有限公司 提供三维超声图像
US11877893B2 (en) 2018-02-26 2024-01-23 Koninklijke Philips N.V. Providing a three dimensional ultrasound image
CN111281424A (zh) * 2018-12-07 2020-06-16 深圳迈瑞生物医疗电子股份有限公司 一种超声成像范围的调节方法及相关设备

Also Published As

Publication number Publication date
JP6297085B2 (ja) 2018-03-20
JP2016190032A (ja) 2016-11-10
US20160287214A1 (en) 2016-10-06
CN117503199A (zh) 2024-02-06
US10835210B2 (en) 2020-11-17
CN106037797A (zh) 2016-10-26
CN106037797B (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
DE102016105690A1 (de) Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung
DE60316584T2 (de) Ultraschallabbildungssystem und verfahren für eine benutzergeführte dreidimensionale volumenscansequenz
DE102018218751A1 (de) Machinengestützter arbeitsablauf bei der ultraschallbildgebung
DE69706766T2 (de) Ultraschall-Diagnose-Vorrichtung und Verfahren zur Erzeugung von Ultraschall-Bildern mit der Vorrichtung
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE102016104263A1 (de) Kontinuierlich ausgerichtete verbesserte Ultraschallbildgebung eines Teilvolumens
DE102010049324A1 (de) Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung
DE102019202545A1 (de) Platzierung der Region von Interesse für die quantitative Ultraschallbildgebung
DE102010061577A1 (de) Verfahren und System zur Verarbeitung von Ultraschalldaten
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE112006002162T5 (de) Verfahren und System zur Kartierung von pysiologischen Informationen auf anatomische Strukturen, welche auf Ultraschall beruhen
DE102012108353A1 (de) Klassifikationsvorverarbeitung in der medizinischen ultraschallscherwellenbildgebung
DE102016107222A1 (de) Erfassungssteuerung für Gemischtmodus-Ultraschallbildgebung
DE102011012299A1 (de) Volumetric quantification for ultrasound diagnostic imaging
DE102013007136A1 (de) Ultraschall zur Therapiekontrolle oder -überwachung
DE102012103990A1 (de) Verfahren und System zur Ultraschallbildgebung mit Kreuzflächenbildern
DE102010015973A1 (de) System und Verfahren zur funktionellen Ultraschallbildgebung
DE102009019983A1 (de) Animation zum Übertragen von Raumbeziehungen in einer dreidimensionalen medizinischen Bildgebung
DE102015116500A1 (de) Unterdrückung von Schatten bei der Ultraschall-Bildgebung
DE102010061571A1 (de) Ultraschallbildgebungssystem und Verfahren zum Anzeigen eines Zielbildes
JP7061232B6 (ja) 超音波画像の取得をガイドするためのシステム及び方法
US20240041431A1 (en) Ultrasound imaging method and system
CN106030657B (zh) 医学4d成像中的运动自适应可视化
DE112020002256T5 (de) Systeme und verfahren zur steuerung des volumendurchsatzes
DE102021116225A1 (de) Bildklassifizierungsabhängige Benutzeroberfläche bei der Ultraschallbildgebung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, US

Free format text: FORMER OWNER: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA., US

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA., US

R082 Change of representative

Representative=s name: BALS & VOGEL PATENTANWAELTE, DE

R081 Change of applicant/patentee

Owner name: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, US

Free format text: FORMER OWNERS: SIEMENS HEALTHCARE GMBH, 91052 ERLANGEN, DE; SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA., US

R082 Change of representative

Representative=s name: BALS & VOGEL PATENTANWAELTE, DE

R016 Response to examination communication
R082 Change of representative

Representative=s name: BALS & VOGEL PATENTANWAELTE PARTG MBB, DE