DE102018216296A1 - Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung - Google Patents

Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung Download PDF

Info

Publication number
DE102018216296A1
DE102018216296A1 DE102018216296.4A DE102018216296A DE102018216296A1 DE 102018216296 A1 DE102018216296 A1 DE 102018216296A1 DE 102018216296 A DE102018216296 A DE 102018216296A DE 102018216296 A1 DE102018216296 A1 DE 102018216296A1
Authority
DE
Germany
Prior art keywords
volume
location
image
ultrasound
intensities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018216296.4A
Other languages
English (en)
Inventor
Ingmar Voigt
Tommaso Mansi
Helene C. Houle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of DE102018216296A1 publication Critical patent/DE102018216296A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Pulmonology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)

Abstract

Zur Messpunktbestimmung (68) bei der Bildgebung mit einem medizinischen Scanner (10) wählt (64) der Benutzer einen Ort auf dem Bild aus. Anstatt diesen Ort zu verwenden, wird ein „beabsichtigter“ Ort, der einer lokalen Grenze oder einem in dem Bild dargestellten Referenzpunkt entspricht, identifiziert (68). Der medizinische Scanner verwendet die einfache Benutzeroberfläche (22), um genauer Punkte für die Messung zu bestimmen (68). Ein oder mehrere Strahlen werden von dem vom Benutzer ausgewählten Ort ausgestrahlt (66). Der tatsächliche Ort wird gefunden (68), indem Daten entlang des Strahls oder der Strahlen untersucht werden. Für die 2D-Bildgebung werden die Strahlen in der Ebene ausgestrahlt (66). Für die 3D-Bildgebung wird der Strahl entlang einer Blickrichtung ausgestrahlt (66), um die Tiefe zu finden. Die Intensitäten entlang des Strahls oder um den Strahl herum werden verwendet, um den tatsächlichen Ort zu finden (68), beispielsweise durch Anwendung eines maschinell gelernten Klassifizierers auf den begrenzten Bereich um den Strahl herum oder durch Auffinden von Intensitäten entlang des Strahls relativ zu einem Grenzwert.

Description

  • STAND DER TECHNIK
  • Die vorliegenden Ausführungsformen beziehen sich auf medizinische diagnostische Bildgebung. Viele Entscheidungen in der modernen Kardiologie basieren auf quantitativen Messungen der Anatomie, die nichtinvasiv von nicht-invasiver Bildgebung abgeleitet werden. Die Dimensionen des Herzens unterscheiden sich in der normalen Funktion im Vergleich zur Operation am offenen Herzen.
  • Die Quantifizierung von planaren Strukturen auf zweidimensionalen (2D) Bildern mit Konturierungswerkzeugen erfordert eine zeitaufwendige und gewissenhafte manuelle Gliederung. Eine angenehme Benutzerinteraktion ist, insbesondere bei einer interventionellen Einstellung, wichtig, bei der aufgrund der vielen unterschiedlichen, auftretenden Aktivitäten und/oder einer begrenzten Benutzeroberfläche, die in dieser Einstellung verfügbar ist (z. B. Joystick-Steuerung), begrenzte Freiheitsgrade vorhanden sein können.
  • Kürzliche Fortschritte in der Scantechnologie ermöglichen dreidimensionale und zeitliche (3D + t) Echtzeit-Ultraschallbildgebung des Herzens. 3D-Bildgebung kann die Quantifizierung noch schwieriger machen. Die 3D-Bildgebung ist dafür bekannt, ein besseres Verständnis der anatomischen Form im Vergleich zur herkömmlichen 2D-Bildgebung zu ermöglichen. Auf der anderen Seite ist die Komplexität der Verwendung der 2D-Ultraschall-Bildgebung geringer im Vergleich zu 3D und oft in der klinischen Praxis bevorzugt. Außerdem werden zur anatomischen Quantifizierung Messungen an 2D-multiplanaren Neuformatierungs- oder -Rekonstruktionsbildern (MPR-Bildern) durchgeführt, die mit zusätzlichen Benutzeroberflächen wie Trackball-Steuerungen oder tischseitigen Joystick-Steuerungen ausgewählt werden.
  • Mit maschinellen Lerntechnologien werden reguläre anatomische Strukturen effizient und robust auf vollautomatische oder halbautomatische Weise modelliert. Die Bewältigung der anatomischen Variabilität kann jedoch insbesondere in Ausnahmefällen eine Herausforderung darstellen. Darüber hinaus ist die maschinell gelernte Technologie darauf trainiert, spezifische Segmentierung und/oder Messungen bereitzustellen, aber die Benutzer möchten möglicherweise benutzerdefinierte Dimensionen in Abhängigkeit von ihren Bedürfnissen definieren. Effiziente Arbeitsabläufe, um allgemein willkürliche quantitative Informationen aus 3D-Bildern auf schnelle intuitive Weise abzuleiten, müssen noch definiert werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Als einleitende Beschreibung umfassen die nachstehend beschriebenen bevorzugten Ausführungsformen Verfahren, computerlesbare Medien und Systeme zur Messpunktbestimmung bei der Bildgebung mit einem medizinischen Scanner. Der Benutzer wählt einen Ort auf dem Bild aus. Anstatt diesen Ort zu verwenden, wird ein „beabsichtigter“ Ort identifiziert, der einer lokalen Grenze oder einem in dem Bild dargestellten Referenzpunkt entspricht. Der medizinische Scanner verwendet die einfache Benutzeroberfläche, um Punkte für die Messung genauer zu bestimmen. Ein oder mehrere Strahlen werden von dem vom Benutzer ausgewählten Ort ausgestrahlt. Der tatsächliche Ort wird gefunden, indem Daten entlang des Strahls oder der Strahlen untersucht werden. Für eine 2D-Bildgebung (z. B. eine MPR, die aus einem 3D-Volumen oder einem Native oder 2D-Scanbild berechnet wird) werden die Strahlen innerhalb der Ebene (d. h. parallel dazu) ausgestrahlt. Bei der 3D-Bildgebung wird der Strahl entlang einer Blickrichtung auf das 3D-Volumen ausgestrahlt, um die Tiefe zu ermitteln. Die Intensitäten entlang des Strahls oder um den Strahl herum werden verwendet, um den tatsächlichen Ort zu finden, beispielsweise durch das Anwenden eines maschinell gelernten Klassifizierers auf den begrenzten Bereich um den Strahl herum, oder durch das Auffinden von Intensitäten entlang des Strahls relativ zu einem Grenzwert.
  • In einem ersten Aspekt wird ein Verfahren zur Messpunktbestimmung bei der Bildgebung mit einem Ultraschallscanner bereitgestellt. Ein Ultraschallbild wird aus Ultraschalldaten dreidimensional gerendert, die ein Gewebevolumen eines Patienten auf einem Display darstellt. Eine Benutzereingabevorrichtung empfängt eine Position eines Messschiebers auf dem Ultraschallbild. Ein Strahl wird entlang einer Blickrichtung von der Position des Messschiebers in das Volumen definiert. Eine Tiefe entlang des Strahls wird mit einem maschinell gelernten Klassifizierer basierend auf der Eingabe von Ultraschalldaten von einem Teilbereich des Volumens identifiziert, der um den Strahl herum und einschließlich des Strahls begrenzt ist. Ein Bildprozessor berechnet eine Größe als eine Funktion der Position des Messschiebers und der Tiefe. Die Größe wird ausgegeben.
    Bevorzugt ist ein Verfahren gemäß dem ersten Aspekt, wobei das Anzeigen das Anzeigen des Ultraschallbildes als ein volumengerendertes kardiales Bild in einer Sequenz von Bildern umfasst; und ferner das Nachverfolgen der Position und Tiefe durch Ultraschalldaten der Bilder der Sequenz umfasst.
    Ferner ist ein Verfahren bevorzugt, wobei das Definieren des Strahls das Ausstrahlen von Strahlen umfasst, wobei die Blickrichtung eine Blickrichtung von dem dreidimensionalen Rendering ist.
    Bevorzugt ist ein Verfahren, wobei das Identifizieren der Tiefe das Identifizieren der Tiefe mit Intensitäten aus den Ultraschalldaten und Gradienten aus den Ultraschalldaten für den Teilbereich umfasst.
    Ferner wird ein Verfahren bevorzugt, wobei das Identifizieren der Tiefe das Identifizieren (68) der Tiefe mit dem maschinell gelernten Klassifizierer umfasst, der einen probabilistischen Verstärkungsbaum oder einen gelernten Klassifizierer eines tiefen neuronalen Netzwerkes umfasst.
    Bevorzugt ist ferner ein Verfahren, wobei das Identifizieren der Tiefe das Identifizieren der Tiefe mit dem maschinell gelernten Klassifizierer umfasst, der aus Proben verschiedener Organe trainiert wurde.
    Bevorzugt ist ein Verfahren, wobei das Berechnen das Berechnen einer Entfernung als die Größe umfasst, wobei die Position und der Punkt ein Ende der Entfernung in dem Volumen definieren (66).
    Ferner wird ein Verfahren bevorzugt, wobei das Berechnen das Berechnen einer Fläche, eines Volumens oder einer Dimension der Fläche oder des Volumens umfasst, wobei die Position und der Punkt einen Punkt in drei Dimensionen einer Grenze der Fläche oder des Volumens definieren.
  • In einem zweiten Aspekt wird ein Verfahren zur Messpunktbestimmung bei der Bildgebung mit einem medizinischen Scanner bereitgestellt. Eine Anzeige zeigt ein medizinisches Bild an, das aus Intensitäten, die das Gewebe eines Patienten darstellen, abgebildet wird. Eine Benutzereingabevorrichtung empfängt eine Position eines Messschiebers auf dem medizinischen Bild. Ein Strahl, der sich von der Position des Messschiebers erstreckt, wird definiert. Ein Ort entlang des Strahls wird basierend auf den Intensitäten von einem Teilbereich identifiziert, der um den Strahl herum und einschließlich des Strahls begrenzt ist. Ein Bildprozessor berechnet eine Größe als eine Funktion des Ortes. Die Größe wird ausgegeben.
    Bevorzugt ist ein Verfahren gemäß dem zweiten Aspekt, wobei das Anzeigen das Anzeigen des medizinischen Bilds umfasst, das nur eine Ebene darstellt, wobei das Definieren des Strahls das Definieren des Strahls als einen einer Vielzahl von Strahlen in der Ebene umfasst, wobei der Strahl eine Grenze an dem Ort aufweist, der der Position am nächsten liegt.
    Bevorzugt ist ferner ein Verfahren gemäß dem zweiten Aspekt, wobei das Verfahren ferner das Wiederholen des Empfangens, Definierens und Identifizierens für andere Positionen beim Nachverfolgen einer Grenze umfasst, und wobei das Berechnen das Berechnen als eine Funktion der Grenze umfasst. Bevorzugt ist ein Verfahren gemäß dem zweiten Aspekt, wobei das Identifizieren des Ortes das Identifizieren mit der Eingabe der Intensitäten des Teilbereichs an einen maschinell gelernten Klassifizierer umfasst.
    Bevorzugt ist ferner ein Verfahren gemäß dem zweiten Aspekt, wobei das Anzeigen ein Volumenrendering umfasst, wobei die Intensitäten Ultraschalldaten umfassen, die einen dreidimensionalen Bereich des Gewebes des Patienten darstellen, wobei das Definieren des Strahls das Definieren des Strahls entlang einer Blickrichtung des volumengerenderten medizinischen Bilds umfasst, und wobei das Identifizieren des Ortes das Identifizieren des Ortes in drei Dimensionen wie an der Position in zwei Dimensionen und einer Tiefe basierend auf den Intensitäten von dem Teilbereich um den Strahl herum und einschließlich des Strahls umfasst.
  • In einem dritten Aspekt umfasst ein medizinisches Ultraschallsystem einen Ultraschallscanner, der konfiguriert ist, ein Volumen eines Patienten zu scannen, eine Benutzereingabevorrichtung, die konfiguriert ist, eine Anzeige einer Position auf einem volumengerenderten Bild des Volumens des Patienten zu empfangen, und einen Bildprozessor. Der Bildprozessor ist konfiguriert, einen Strahl von der Position entlang einer Blickrichtung auszustrahlen, basierend auf Ultraschalldaten von dem Scan des Volumens einen Ort entlang des Strahls auszuwählen und eine Grafik zu erzeugen, die einen Punkt an der Position und am Ort anzeigt.
    Bevorzugt ist ein medizinisches Ultraschallsystem, wobei der Bildprozessor konfiguriert ist, einen maschinell gelernten Klassifizierer durch Anwendung der Ultraschalldaten in einem Teilvolumen um den Strahl herum und einschließlich des Strahls auszuwählen.
  • Die vorliegende Erfindung wird durch die folgenden Ansprüche definiert, und nichts in diesem Abschnitt sollte als eine Beschränkung dieser Ansprüche angesehen werden. Weitere Aspekte und Vorteile der Erfindung werden nachstehend in Verbindung mit den bevorzugten Ausführungsformen diskutiert und können später unabhängig oder in Kombination beansprucht werden.
  • Figurenliste
  • Die Komponenten und die Figuren sind nicht notwendigerweise maßstabsgetreu, wobei die Betonung stattdessen auf der Veranschaulichung der Prinzipien der Erfindung liegt. In den Figuren bezeichnen gleiche Bezugszeichen in den unterschiedlichen Ansichten entsprechende Teile.
    • 1 ist ein Flussdiagramm einer Ausführungsform eines Verfahrens zur Messpunktbestimmung in der medizinischen Bildgebung;
    • 2 zeigt Beispiele von volumengerenderten medizinischen Bildern mit Punkten, die für die Entfernungsberechnung definiert sind;
    • 3 zeigt andere Beispiele von volumengerenderten medizinischen Bildern mit Punkten, die für die Entfernungsberechnung definiert sind;
    • 4 zeigt eine beispielhafte Sequenz zum manuellen Nachverfolgen einer Grenze in einem medizinischen Bild;
    • 5 zeigt ein Beispiel einer Konturierung mit unterschiedlichem Rendering eines Volumens; und
    • 6 ist ein Blockdiagramm einer Ausführungsform eines Systems zur Messpunktbestimmung.
  • DETAILLIERTE BESCHREIBUNG DER FIGUREN UND SPEZIFISCHEN AUSFÜHRUNGSFORMEN
  • Eine Benutzeroberfläche ermöglicht eine ungenaue Messschieberpositionierung durch den Benutzer und wählt automatisch eine verfeinerte Position zur Quantifizierung aus. 2D-planare oder 3D-Volumendatensätze werden mit einem medizinischen Scanner erfasst, wie etwa mit einer Computertomographie (CT), Magnetresonanz (MR), Ultraschall (z. B. TEE, TTE, ICE oder einer anderen Art von Wandler) oder einer Kombination von diesen Modalitäten. Referenzpunkte, Konturen oder volumetrische Netze werden effizient in einer halbautomatischen Weise entweder auf einer 3D-Volumenvisualisierung oder einem 2D-Planarbild (z. B. 2D MPR) markiert. Der gewünschte Ort wird manuell auf einer Struktur ausgewählt, die als eine Fläche im Volumenrendering oder eine Position in einem 2D-Bild dargestellt wird. Strukturen in der Nähe des Mauszeigers werden dann ausgewählt oder vorgeschlagen, wie beispielsweise die Auswahl einer Grenze eines Organs oder Blutlache oder die Auswahl eines unterscheidenden, anatomischen Referenzpunkts. Die ausgewählten Referenzpunkte und Konturen können mit einer überlagerten Grafik visualisiert werden, und Messungen werden basierend auf den Punkten berechnet. Die Quantifizierung kann mit einer Variation über die Zeit durchgeführt werden, wenn 3D + t verfügbar ist (z. B. 3D-TEE, TTE oder Volumen-ICE im Fall von Herzultraschall). Die Quantifizierung kann mit anderen Bildgebungsverfahren in Verbindung stehen, wie zum Beispiel Fusing-Multimodalitäts-Bildgebung zur Überlagerung von Anatomie und Messgrafiken von Ultraschall auf Fluoroskopie.
  • In einer Ausführungsform werden Referenzpunkte und Messungen für 3D-Volumen-Scans bereitgestellt. Benutzer intuitive Interaktionen mit einer 3D-Visualisierung eines volumetrischen medizinischen Bildes werden zur Verfügung gestellt. Punkte auf Organteilen, die als Oberflächen visualisiert sind (z. B. Blut-Gewebeoberflächen im Falle eines 3D-Herzultraschallscan), werden identifiziert. Anstatt durch orthogonale MPRs zu scrollen, bis der gewünschte 3D-Ort gefunden und verifiziert ist, klickt der Benutzer lediglich auf die 3D-Volumenvisualisierung. Der Bildprozessor verwendet die ausgewählte Position des Cursors beim Klicken und Ausstrahlen der Strahlen, um beispielsweise Punkte auf der endokardialen Wand, auf dem Mitralklappen Kranz, den Blättchen oder jeder anderen als opake Oberfläche visualisierten Struktur einschließlich medizinischer Implantate zu positionieren. Für 2D-Bildgebung (z. B. bei einer MPR) wählt der Benutzer eine Position aus, die dann unter Verwendung des Ausstrahlens von Strahlen auf eine Grenze oder einen Referenzpunkt extrapoliert wird. Zum Nachverfolgen kann das ungenaue „Kritzeln“ des Benutzers verfeinert werden, um entlang einer nahen Grenze unter Verwendung des Ausstrahlens von Strahlen zu sein. Durch Begrenzen der Suche auf Daten entlang der lokalen Strahlen kann die Verfeinerung in Echtzeit im Vergleich zum Finden einer gesamten Grenze erfolgen.
  • Dieser Ansatz ermöglicht die Bestimmung von einem oder mehreren Orten direkt auf einem Volumenrendering, wodurch die mühsame MPR-Navigation zum Finden jedes Ortes reduziert wird. Kein MPR muss positioniert werden, um die Tiefe zu definieren und/oder einen 3D Punkt als Punkte kann direkt in einem Volumenrendering positioniert werden. Die Konturierung beliebiger Formen auf einem Volumenrendering oder einem 2D-Bild (z. B. MPR) wird erleichtert, so dass der Benutzer weniger präzise nachverfolgen muss. Eine reibungslose Interaktion für fortgeschrittene Arbeitsabläufe wird durch die Echtzeit-Referenzpunkt-Identifizierung bereitgestellt, da die Suche auf einen Bereich beschränkt ist, der in der Nähe der vom Benutzer ausgewählten Position liegt. Wo maschinelles Lernen verwendet wird, um den Referenzpunkt genau zu finden, ermöglicht der strahlenbegrenzte Suchbereich eine schnellere Identifizierung des Referenzpunkts und/oder ermöglicht das Trainieren eines Klassifizierers, der für Organe oder Teile eines Organs generisch ist. Derselbe Klassifizierer kann angewendet werden, um Grenzen ungeachtet des Organs zu finden, wodurch die Referenzpunktbestimmung robust und vielseitig wird. Üblicherweise wird eine umfangreiche Organmodellierung zu Laufzeiten in Sekundenbruchteilen durchgeführt, jedoch nicht notwendigerweise bei interaktiven Bildraten. Durch die Reduzierung des Suchraums um den definierten Strahl herum wird eine schnellere Identifizierung ermöglicht. Eine weitere Beschleunigung wird erzielt, indem Daten in Kugelkoordinaten vor der Scanumwandlung bearbeitet werden und somit die Rechenzeit reduziert wird.
  • 1 zeigt eine Ausführungsform eines Verfahrens zur Messpunktbestimmung bei der Bildgebung mit einem medizinischen Scanner, beispielsweise einem Ultraschallscanner. Zur Quantifizierung in der medizinischen Bildgebung wählt der Benutzer einen Punkt oder eine Reihe von Punkten aus. Der Bildprozessor verfeinert die Auswahl basierend auf einer Grenz- oder Referenzpunktsuche, die auf den Punkt lokalisiert ist, wodurch eine halbautomatische Schnellpunktbestimmung ermöglicht wird, ohne dass eine präzise Benutzereingabe erforderlich ist. Die Punktbestimmung kann an einem planaren Bild oder einem Volumenrendering unter Verwendung des Ausstrahlens von Strahlen von dem vom Benutzer ausgewählten Punkt durchgeführt werden.
  • Das Verfahren wird durch ein medizinisches diagnostisches Bildgebungssystem, eine Überprüfungsstation, eine Arbeitsstation, einen Computer, eine PACS-Station, einen Server, Kombinationen davon oder eine andere Vorrichtung zur medizinischen Bildverarbeitung implementiert. Zum Beispiel implementiert das Ultraschallsystem 10 oder der Speicher 14 und der Bildprozessor 12, die in 6 gezeigt sind, das Verfahren. Andere Systeme oder Scanner können verwendet werden, wie zum Beispiel CT oder MR anstelle von Ultraschall. In noch anderen Ausführungsformen erhält ein Computer, ein Server oder eine Arbeitsstation medizinische Bilddaten von dem Speicher, und ein medizinischer Scanner ist nicht vorgesehen.
  • Die Beispiele hierin werden für die Ultraschallbildgebung bereitgestellt. In alternativen Ausführungsformen werden andere medizinische Modalitäten verwendet, die zur medizinischen Bildgebung in der Lage sind, wie zum Beispiel Magnetresonanz, Computertomographie, Positronenemissionstomographie, Einzelphotonenemissions-Computertomographie oder Röntgen.
  • Das Verfahren wird in der gezeigten Reihenfolge oder in einer anderen Reihenfolge implementiert. Ein gleicher Datensatz, der eine Ebene oder ein Volumen darstellt, wird für alle Schritte 62 bis 74 verwendet. Für eine Sequenz von Datensätzen, wie etwa über einen Herzzyklus, wird der Schritt 70 anstelle der Schritte 64 bis 68 durchgeführt, nachdem der Ort in Schritt 68 in einem Datensatz identifiziert wurde. Die Größe wird in den Schritten 72 und 74 als eine Funktion der Zeit berechnet und ausgegeben. Alternativ werden die Schritte 64-68 für jeden Datensatz und die entsprechende Zeit durch die Sequenz wiederholt.
  • Die Schritte werden entweder in Echtzeit mit dem Scannen oder in einer Nach-Scan-Überprüfung durchgeführt. Es kann eine Einfrieroperation oder eine Auswahl eines gegebenen Datensatzes zur Verwendung für die Messung verwendet werden. Der Benutzer kann Bilder während des Scannens betrachten und mit diesen interagieren, wie zum Beispiel mit einem eingefrorenen Bild interagieren, wobei der Punktort dann durch die Sequenz in Echtzeit nachverfolgt wird.
  • Zusätzliche, andere oder weniger Schritte können durchgeführt werden. Zum Beispiel ist Schritt 70 optional. Als ein anderes Beispiel wird ein Scannen durchgeführt, um die Daten zu erfassen, die für die Anzeige in Schritt 62 verwendet werden. In noch einem anderen Beispiel wird die Größe in Schritt 72 ohne Ausgabe in Schritt 74 berechnet. In einem Beispiel werden Schritte 72 und 74 nicht ausgeführt, stattdessen wird eine Grafik oder eine andere Hervorhebung eines ausgewählten Punkts oder von ausgewählten Punkten mit dem Bild ausgegeben.
  • In Schritt 62 zeigt ein Bildprozessor oder medizinischer Scanner ein medizinisches Bild an. Um das medizinische Bild anzuzeigen, wird ein Patient gescannt. Zum Scannen wird ein Ultraschallwandler angrenzend, auf oder in einem Patienten positioniert. In einer Ausführungsform ist ein Volumenscanwandler positioniert, wie beispielsweise ein mechanischer Wobbler, ein transösophageales Echokardiogramm (TEE)-Array, ein intrakardiales Echokardiographie (ICE)-Array oder ein mehrdimensionales Array. Für planare oder 2D-Bildgebung kann ein Volumenscanwandler (z. B. für MPR) oder ein 2D-Bildwandler (z. B. 1 D-Array) verwendet werden. Für die angrenzende oder die Positionierung auf einem Patienten, ist der Wandler direkt auf der Haut positioniert oder akustisch mit der Haut des Patienten gekoppelt. Für die innere Positionierung in dem Patienten wird ein Intraoperations-, Intercavity-, ICE-Array, TEE-Array oder ein anderer im Patienten positionierbarer Wandler zum Scannen innerhalb des Patienten verwendet.
  • Der Benutzer kann den Wandler manuell positionieren, etwa indem er eine Handsonde verwendet oder Führungsdrähte manipuliert. Alternativ dazu positioniert ein Roboter- oder mechanischer Mechanismus den Wandler.
  • Der Volumenbereich des Patienten wird gescannt. Alternativ wird ein 2D-Bereich oder nur eine Ebene des Patienten gescannt. Ein ganzes Herz oder ein Teil des Herzens kann von der Speiseröhre oder durch ein anderes akustisches Fenster gescannt werden. Andere Organe oder Teile eines Patienten können gescannt werden. Ein oder mehrere Objekte, wie das Herz, ein Organ, ein Gefäß, eine Fluidkammer, ein Gerinnsel, eine Läsion, ein Muskel und/oder ein Gewebe befinden sich innerhalb des Bereichs. Das Array erzeugt akustische Energie und empfängt ansprechende Echos.
  • Ein oder mehrere Sätze von Ultraschalldaten werden erhalten. Die Ultraschalldaten entsprechen einem angezeigten Bild (z. B. detektierten und scangewandelten Ultraschalldaten), strahlformierten Daten, detektierten Daten und/oder scangewandelten Daten. Die Ultraschalldaten repräsentieren einen Bereich eines Patienten. Daten für mehrere planare Schichten können den Volumenbereich darstellen. Alternativ wird ein Volumen-Scan verwendet.
  • Die Ultraschalldaten sind von einem beliebigen Bildgebungsmodus, wie etwa dem Strömungsmodus oder dem B-Modus. Der Strömungsmodus umfasst Doppler- oder andere Schätzungen der Bewegung (z. B. Farb- oder Dopplergeschwindigkeit oder Energie). Die Form einer Struktur oder eines räumlichen Aspekts kann sich in B-Modus-Daten widerspiegeln.
  • In Schritt 62 zeigt eine Anzeigevorrichtung ein medizinisches Bild an. Das medizinische Bild wird aus Intensitäten, die Gewebe und/oder andere Objekte in dem Patienten repräsentieren, abgebildet. Das Scannen liefert die Intensitäten. Zum Beispiel sind die Intensitäten B-Mode- oder Strömungsmodus-Werte von dem Ultraschallscan. Als ein anderes Beispiel werden die Intensitäten durch Strahlformung vor der Detektion erzeugt. Nach der Detektion können die Skalarwerte für die Intensitäten scanumgewandelt werden, wodurch Intensitäten in einem anderen Format bereitgestellt werden. Durch Abbilden von skalaren Werten auf einen dynamischen Bereich und mit einer Bildverstärkung werden Anzeigewerte als Intensitäten erzeugt. Das medizinische Bild ist ein Farbbild oder ein Graustufenbild. Kardiale Bildgebung oder Bildgebung von anderen Teilen des Körpers kann vorgesehen werden.
  • In einer Ausführungsform ist das medizinische Bild ein Volumengerendertes Bild eines Volumens von Gewebe, das durch Ultraschall gescannt wurde. Bei Verwendung von Oberflächenrendering, Projektion, Pfadnachverfolgung oder einer anderen Volumenrendering-Technik werden die Daten, die das Volumen darstellen, zu einem Bild gerendert. Ein Bildprozessor (z. B. eine Grafikverarbeitungseinheit) rendert das Bild auf der Anzeige.
  • Das Bild umfasst Informationen von dem gesamten Volumen oder einem nichtplanaren Teil des Volumens. Zum Beispiel wird der Wert eines gegebenen Pixels aus mehreren Voxeln entlang einer Linie bestimmt, die entlang einer Blickrichtung durch das Pixel verläuft. Unter Verwendung eines Vergleichs wird ein Wert einer Oberfläche (z. B. der höchste oder der erste über einem Grenzwert) ausgewählt. Bei einem anderen Ansatz kombiniert der Alpha-Blending- oder andere Projektionsansatz Daten entlang der Linie. Das volumengerenderte Bild wird aus Daten erzeugt, die in drei Dimensionen beabstandet sind und nicht eine Ebene im Volumen darstellen. Mit Ultraschall kann ein Echtzeit-Volumenscan bereitgestellt werden, der die Anzeige einer Sequenz von volumengerenderten Ultraschallbildern in Echtzeit ermöglicht.
  • In einer anderen Ausführungsform wird das medizinische Bild aus Intensitäten erzeugt, die nur eine Ebene repräsentieren. Eine Ebene wird gescannt und das Bild wird aus dem Scan erzeugt. Alternativ ist eine Ebene in einem Volumen definiert. Die Intensitäten von Volumen- oder 3D-Scans, die die Ebene repräsentieren, werden verwendet, um das medizinische Bild zu erzeugen, beispielsweise mit MPR. Die Interpolation kann verwendet werden, um die Intensitäten nur auf der Ebene von dem Volumendatensatz zu bestimmen.
  • In Schritt 64 empfängt eine Benutzereingabevorrichtung eine Position eines Messschiebers auf dem medizinischen Bild. Der Prozessor empfängt die Position von der Benutzereingabevorrichtung. Zum Beispiel positioniert der Benutzer in 2 einen Messschieber 42 oder Messungsanzeige auf dem volumengerenderten Bild 38 unter Verwendung der Benutzereingabevorrichtung. Der Benutzer positioniert den Messschieber 42 an dem gewünschten Ort zum Messen. Sobald er positioniert ist, aktiviert der Benutzer den Messschieber, beispielsweise durch Drücken einer Taste (z. B. durch Klicken mit einer Maus).
  • Die Eingabevorrichtung stellt einen vom Benutzer ausgewählten Messort auf dem angezeigten medizinischen Bild bereit, wie etwa ein gerendertes volumetrisches Bild des dreidimensionalen Objekts. Beim VolumenRendering entspricht der Ort auf dem Bildschirm einem Bereich möglicher Tiefen relativ zu oder entlang der Blickrichtung des volumengerenderten Bildes. Der Punkt in drei Dimensionen ist basierend auf der Benutzerauswahl einer 2D-Position auf dem volumengerenderten Bild 38 unbestimmt. Die Benutzereingabeposition kann auch nicht präzise sein. Für die 2D-Bildgebung entspricht der Ort einer Reihe möglicher Referenzpunkte oder Grenzorten in der Nähe des vom Benutzer eingegebenen Ortes. Die Benutzereingabeposition kann nicht präzise sein.
  • Die Positionen von mehr als einem Messschieber 42 können empfangen werden. Für eine Entfernungsmessung werden die Positionen von zwei oder mehr Messschiebern 42 (z. B. die linken zwei Bilder von 2) oder Messformen (z. B. oval oder Box) empfangen, und eine Grafik 44, die die zwei Positionen verbindet, kann angezeigt werden. Die Grafik 44 wird nach der Identifizierung von Schritt 68 und/oder Berechnung von Schritt 72 angezeigt. Für Flächen- oder Volumenmessungen können drei oder mehr Messschieberpositionen 44 empfangen werden. Zum Beispiel verfolgt der Benutzer eine Grenze, beispielsweise eine Blut-/ oder Gewebegrenze.
  • In Schritt 66 von 1 definiert der Bildprozessor einen Strahl, der sich von der Position jedes Messschiebers erstreckt. Der Strahl erstreckt sich in einer Richtung (d. h. beginnt an der Position) oder in mehreren Richtungen (d. h. erstreckt sich durch die Position). Die Benutzereingabeposition bestimmt einen Punkt auf dem Strahl.
  • Die Länge des Arrays wird als Standard festgelegt. Die Länge kann auf der abgebildeten Fläche oder dem Volumen basieren, wie z. B. auf einer Erstreckung zu einer Kante des Blickfelds. Der Strahl kann eine gegebene Entfernung von der Messschieberposition 44 abschließen. Es kann jede Länge verwendet werden.
  • Die Richtung des Strahls basiert auf der Art der Bildgebung. Für ein 2D-Bild oder ein Bild, das nur eine Ebene darstellt, befindet sich der Strahl innerhalb der Ebene. Eine Mehrzahl von Strahlen mit einem beliebigen Winkelabstand sind durch oder von der Messschieberposition definiert. Zum Beispiel sind vier, acht oder sechzehn Strahlen definiert, die sich in einer oder mehreren Richtungen erstrecken. Alternativ erstrecken sich ein oder mehrere Strahlen aus der Ebene heraus, beispielsweise wo ein Volumenscan durchgeführt wird und werden zum Erzeugen des planaren Bildes (z. B. MPR) verwendet. Bei anderen Alternativen wird ein einzelner Strahl gebildet, beispielsweise entlang einer Blickrichtung eines Volumenrenderings, das mit dem 2D-MPR-Bild angezeigt wird, auf dem der Benutzer den Messschieber positioniert.
  • Für ein Volumengerendertes medizinisches Bild wird ein einzelner Strahl entlang einer Richtung definiert. Der Strahl erstreckt sich entlang einer Blickrichtung. Der Strahl ist entlang der Blickrichtung von oder durch die Position des Messschiebers 44 definiert. Der Strahl erstreckt sich in einer oder zwei Richtungen von der Position. Zum Beispiel wird der Strahl an der Position ausgestrahlt, die entlang dem Strahl zentriert ist, oder der Strahl erstreckt sich über die Position in entgegengesetzten Richtungen. Die Blickrichtung aus dem 3D-Rendering des Volumengerenderten Bildes definiert die Richtung des Strahls. Die Mausposition und die Kameraposition liefern die Blickrichtung und das Pixel oder den Ort in dem Volumen für das Ausstrahlen des Strahls. Der Strahl wird entlang der Kamerarichtung in Richtung des Volumens nachverfolgt, wie beim Ausstrahlen von Strahlen beim Rendern einer 3D-Volumenvisualisierung. Alternativ werden mehrere Strahlen gebildet, wie z. B. Strahlen mit unterschiedlichem Winkelabstand, die von der Kamera divergieren, oder parallele Strahlen mit einem Mittelstrahl in der Normalen zur Kamera- oder Projektionsebene von dem vom Benutzer ausgewählten Pixel.
  • Ein oder mehrere Strahlen sind für jede vom Benutzer ausgewählte Position definiert. Wenn ein Referenzpunkt lokalisiert wird, kann eine einzelne vom Benutzer ausgewählte Position empfangen werden. Wenn eine Entfernung gemessen wird, können zwei vom Benutzer ausgewählte Positionen empfangen werden. Wenn eine Fläche oder ein Volumen gemessen wird, werden zwei (z. B. Fit-Flächen-Form, definiert durch zwei Orte), drei (z. B. Fit-Volumen oder Flächen-Form, definiert durch drei Orte) oder mehr (z. B. Benutzernachverfolgung einer Grenze) empfangen. Zusätzlich können diese Formen in einem nachfolgenden Schritt verfeinert werden. Strahlen werden für jede der Benutzereingabepositionen definiert. Strahlen können für andere Positionen definiert werden, beispielsweise für Orte, die zwischen Benutzereingabepositionen interpoliert sind. Die Definition von Strahlen wird beliebig oft wiederholt.
  • Der Strahl definiert einen Teilsatz der Scandaten. Zum Beispiel definiert der Strahl eine Linie in einer Ebene oder einem Volumen. Die Ultraschallintensitäten umfassen Intensitäten entlang der Linie oder können durch Interpolation entlang der Linie gebildet werden. Alternativ definiert der Strahl den Teilsatz von Scandaten in einem Zylinder, Kegel oder einer anderen Form um den Strahl herum. Anstatt nur Intensitäten entlang des Strahls zu verwenden, werden Intensitäten entlang paralleler Strahlen oder innerhalb einer gegebenen Entfernung von dem Strahl verwendet.
  • Die Intensitäten entlang der Linie oder in dem Teilsatz können eine Grenze oder einen anderen Referenzpunkt darstellen. In Schritt 68 identifiziert der Bildprozessor einen Ort entlang des Strahls. Wenn mehrere Strahlen vorhanden sind, identifiziert der Bildprozessor einen Ort entlang eines der Strahlen und identifiziert somit einen bestimmten Strahl. Wenn der Strahl ein Volumen oder einen Flächen-Teilsatz definiert, der Orte innerhalb einer Entfernung von dem Strahl umfasst (d. h. ein Teilbereich, der um den Strahl herum und einschließlich des Strahls begrenzt ist), identifiziert der Bildprozessor einen Ort in der Fläche oder dem Volumen.
  • Für jede Benutzereingabeposition und einen entsprechenden Strahl oder Strahlen wird ein Ort identifiziert. Die Identifizierung wird für jede von der Benutzereingabe empfangene Position wiederholt.
  • Wenn mehrere Strahlen für eine gegebene Position definiert sind, wird ein Ort entlang jedem Strahl gefunden. Der Ort, der der vom Benutzer eingegebenen Position am nächsten ist, wird dann ausgewählt. Für Strahlen in einer Ebene wird der Strahl und der entsprechende Ort einer Grenze oder eines Referenzpunkts, der der vom Benutzer eingegebenen Position am nächsten ist, ausgewählt. Die Suche nach dem Ort verläuft entlang konzentrischer Strahlen um den angeklickten Punkt herum. Für einen Strahl, der durch ein Volumen ausgestrahlt wird, hat die Benutzerposition keine definierte Tiefe. Stattdessen wird eine erste Grenze oder ein Referenzpunkt entlang der Blickrichtung oder des Strahls von der Kameraposition lokalisiert. Der Ort in drei Dimensionen wird an der vom Benutzer eingegebenen Position in zwei Dimensionen und einer Tiefe identifiziert. Ein Punkt in der Volumengerenderten Ansicht des 3D-Volumens unter dem Mauszeiger, wo das Volumen für den Benutzer undurchsichtig erscheint, wird identifiziert.
  • Der Ort wird basierend auf den Intensitäten identifiziert (z. B. medizinische Scandaten). Intensitäten von dem Strahl oder einem Teilbereich um den Strahl herum und einschließlich des Strahls werden für die Identifizierung verwendet. Andere Informationen können alternativ oder zusätzlich verwendet werden, wie z. B. Gradienten, die aus den Intensitäten berechnet werden, Scandaten von anderen Modalitäten und/oder klinische Informationen (z. B. Alter, Geschlecht, Gewicht und/oder Blut-Biomarker-Werte).
  • Die Intensitäten für das angezeigte Bild (d. h. Anzeigewerte) oder Intensitäten von anderen Punkten in der Verarbeitungskette werden verwendet. Zum Beispiel werden Intensitäten von detektierten Ultraschalldaten vor der ScanUmwandlung (d. h. in einem polaren oder kugelförmigen Koordinaten-Scan-Format) verwendet. In einem anderen Beispiel werden Intensitäten in einem kartesischen Koordinatenformat (d. h. Scan-konvertiert) vor dem Abbilden zu Anzeigewerten verwendet. Die Intensitäten können dem Dynamikbereich und der Bildverstärkungsabbildung unterliegen oder nicht.
  • In einer Ausführungsform wird ein Grenzwert verwendet, um den Ort zu identifizieren. Ausgehend von dem vom Benutzer ausgewählten Punkt für ein medizinisches 2D-Bild oder von der Kameraposition für ein 3D-gerendertes Bild werden die Intensitäten untersucht. Jede Intensität wird mit einem Grenzwert verglichen. Der Ort der ersten Intensität über dem Grenzwert wird identifiziert. Die nächstliegende Intensität über dem Grenzwert wird identifiziert. Die Intensitäten können tiefpassgefiltert sein oder der Ort kann dort sein, wo eine gegebene Anzahl von benachbarten Intensitäten über dem Grenzwert liegt. Ein Überschreiten des Grenzwertes identifiziert den Ort. Alternativ kann das Unterschreiten eines Grenzwerts den Ort identifizieren.
  • In einer Ausführungsform werden die Intensitäten verwendet, um eine Opazität zu erzeugen. Volumenrendering-Techniken werden verwendet, um den Ort zu identifizieren. Beim Durchqueren des Volumens entlang des Strahls werden Voxelwerte unter Verwendung einer Übertragungsfunktion abgebildet (z. B. um mit der tatsächlichen Volumenvisualisierung übereinzustimmen). Eine beliebige Bildverstärkung und ein dynamischer Bereich werden verwendet, um sich ähnlich wie beim Volumenrendering an die Visualisierungseinstellungen des Renderers anzupassen. Die Voxel entlang des Strahls werden integriert, bis sie einen vordefinierten Grenzwert erreichen, der einer opaken Volumenoberfläche entspricht. Der Raum wird „ausgehend von dem Bildschirm“ in Richtung des Volumens durchquert (d. h. entlang der Normalen der „nahen Ebene“ des Blickkegelstumpfs, der von dem angeklickten Punkt in Weltkoordinaten beginnt). Ohne Integration werden Volumenintensitäten gescannt, bis ein bestimmter Intensitätsgrenzwert überschritten wird.
  • In einer anderen Ausführungsform identifiziert ein maschinell gelernter Klassifizierer den Ort. Anstelle der direkten Verwendung von Volumenintensitäten werden lernbasierte Verfahren verwendet, um den Ort aus den Intensitäten robust zu bestimmen. Die Intensitäten und/oder eingegebenen Merkmalswerte, die von den Intensitäten (z. B. Haar-Wavelets) abgeleitet werden, werden in einen maschinell gelernten Klassifizierer eingegeben. In einer anderen Ausführungsform werden die Intensitäten mit einem Hessian-of-Gaussian-Filter oder einem anderen Filterkern gefaltet, um Unterscheidungspunkte in dem Bild zu bestimmen. Die Ergebnisse der Faltung werden in den Klassifizierer eingegeben. Die Information von der durch den Strahl oder die Strahlen definierten Teilbereich wird dem maschinell gelernten Klassifizierer bereitgestellt.
  • Der Klassifizierer gibt basierend auf dem eingegebenen Merkmalsvektor eine Identifizierung des Ortes aus. Die Tiefe, der Referenzpunkt und/oder der Grenzpunkt werden durch Anwendung des maschinell gelernten Klassifizierers identifiziert. Zum Beispiel wird eine Tiefe entlang des Strahls mit einem maschinell gelernten Klassifizierer basierend auf der Eingabe von Ultraschalldaten aus einem Teilbereich des Volumens identifiziert, der um den Strahl herum und einschließlich des Strahls begrenzt ist.
  • Um die Anwendung des Klassifizierers zu beschleunigen, wird der Teilbereich verwendet. Anstatt zu versuchen, ein ganzes Organ oder einen Teil eines Organs von einem Blickfeld zu segmentieren, begrenzt der Teilbereich basierend auf dem definierten Strahl den Suchbereich. Zum Beispiel ist der Teilbereich weniger als 5% des gescannten Volumens. Dies kann eine schnellere Identifizierung des Referenzpunktes, der Grenze oder eines anderen Ortes ermöglichen. Da der Suchbereich begrenzt ist, kann der maschinell gelernte Klassifizierer trainiert werden, den Ort unabhängig von spezifischen Organen zu identifizieren. Ein Klassifizierer kann trainiert werden, um eine Grenze zu finden, ohne für einen Teil eines Organs oder sogar eines Organs spezifisch zu sein. Diese Verallgemeinerung kann zeitaufwendiges organspezifisches Training vermeiden und generalisiert die Anwendbarkeit der Technik auf beliebige Organe und Referenzpunkte. In alternativen Ausführungsformen ist der maschinell gelernte Klassifizierer organ-, gewebe- oder teilspezifisch.
  • In einem Beispiel ist der maschinell gelernte Klassifizierer trainiert, um eine Tiefe entlang einer Blickrichtung von Ultraschalldaten und/oder Gradienten von den Ultraschalldaten für den Teilbereich zu identifizieren. Das Training besteht darin, Punkte entlang von Grenzen von Organen zu finden, wie z. B. einer intrakardialen Blutlachengrenze. Volumengradienten und -intensitäten werden zu einem kombinierten Merkmalsvektor kombiniert. Ein Klassifizierer wie etwa ein probabilistischer Verstärkungsbaum, eine Unterstützungsvektormaschine, ein neuronales Netzwerk, ein Bayesisches Netzwerk oder ein tiefes neuronales Netzwerk werden mit diesen Merkmalen aus einer Sammlung verschiedener Annotationen trainiert (d.h. Trainingsdaten von der Herzkammer - und/oder Klappenscans von Patienten mit Grundwahrheit - bekannte Orte). Wenn der Klassifizierer für verschiedene Organe oder Scananwendungen generisch sein soll, umfassen die Trainingsdaten Proben von den unterschiedlichen Organen und/oder Scananwendungen. Nach dem Training wertet der Klassifizierer während der Laufzeit Daten für einen bestimmten Patienten entlang des ausgestrahlten Strahls aus.
  • In einem anderen Beispiel wird der maschinell gelernte Klassifizierer trainiert, nahe gelegene anatomische Referenzpunkte zu finden. Basierend auf einer Benutzereingabe an einem allgemeinen oder unpräzisen Ort auf einem planaren oder Volumengerenderten Bild und dem resultierenden definierten Strahl oder Strahlen, wird der Klassifizierer verwendet, um auf einen Referenzpunkt zu „schnappen“, wie beispielsweise Mitral-Trigonale, Herzklappen-Kommissuren, Mitralkranz, elektrokardiographischer Apex, Lungenvenen, LAA-Öffnung oder ein Punkt für eine nächste Grenze.
  • Der maschinell gelernte Klassifizierer kann eine Matrix oder Matrizen sein. Bei gegebenen Werten eines eingegebenen Merkmalsvektors wird der Klassifizierer trainiert, um den Ort auszugeben. Zum Beispiel faltet das neurale Netzwerk Filterkerne mit der Eingabe und/oder den Ergebnissen anderer Faltungen, indem es Intensitäten einem trainierten neuralen Netzwerk zur Verfügung stellt, die räumlich auf den strahldefinierten Teilbereich zugeschnitten sind, und bestimmt einen Ort aus den Ergebnissen der Faltungen. Die Ausgabe kann eine Karte von Wahrscheinlichkeiten sein (z. B. eine Wärmekarte), wobei der Ort basierend auf der Karte ausgewählt wird, wie zum Beispiel das Auswählen eines Ortes mit der größten Wahrscheinlichkeit oder das Auswählen eines Ortes, der in einem Bereich mit größeren Wahrscheinlichkeiten zentriert ist.
  • In einer Ausführungsform wird tiefes Lernen verwendet, beispielsweise das Trainieren eines tiefen neuronalen Bild-zu-Bild-Netzwerks. Anstatt auf einem von einem Programmierer erstellten eingegebenen Merkmalsvektor zu trainieren, lernt das Training Filterkerne zur Faltung mit Eingabeintensitäten und/oder anderen Daten. Alternativ kann eine 3D-Erweiterung von SegNet oder eine andere tiefe Lerntechnik verwendet werden. Ein neuronales Netzwerk lernt Merkmale und lernt, den Ort basierend auf den erlernten Merkmalen zu finden.
  • In einer anderen Ausführungsform wird ein tiefes Verstärkungslernen angewendet. Eine Reihe von Bildverarbeitungsschritten wird durch Verstärkung gelernt. Der Klassifizierer lernt, Schritte auszuführen, um den Ort zu identifizieren. Ein künstlicher Agent lernt durch Verstärkung, wie man die Referenzpunkte findet.
  • Während des Abtastens von Strahlen, um Blut-GewebeOberflächen zu finden, wertet ein Klassifizierer den eingegebenen Merkmalsvektor für jeweilige Probenorte in dem Volumen oder der Ebene aus. Auf diese Weise ist die Identifizierung gegenüber Rauschen, Artefakten oder Aussetzern robuster als der Vergleich mit einem Grenzwert. Das Training kann einen Kontext bei unterschiedlichen Auflösungen um den jeweiligen Punkt oder die Strahlnachbarschaft einbeziehen. Der trainierte Klassifizierer gibt dann nahegelegene Referenzpunkte aus, indem er über die Nachbarschaft der Probenorte scannt.
  • Um eine Grenze in drei Dimensionen zu finden, kann der Benutzer eine Vielzahl von Positionen auf einem Volumengerenderten Bild positionieren. Die Grenzorte werden dann durch Anwenden eines maschinell trainierten Klassifizierers basierend auf einer auf die Strahlnachbarschaft beschränkten Eingabe gefunden. Ein Netz kann dann unter Verwendung der Intensitäten und der identifizierten Orte an die identifizierten Orte angepasst werden.
  • Zur Konturierung in einem 2D-Bild werden die Orte für die Kontur identifiziert. 4 zeigt ein Beispiel für ein MPR-Bild. Der Benutzer positioniert den Cursor und zeichnet dann die Grenze auf, die in diesem Beispiel eine Grenze für Blutgewebe darstellt. Die obere Reihe der Bilder zeigt die manuelle Nachverfolgung in der Reihenfolge von links nach rechts. Der Bildprozessor verwendet dann die Orte des Cursors, um nahe Orte der tatsächlichen Grenze zu identifizieren. Durch Suchen nach nahegelegenen Grenzen eines Hohlraums (z. B. das Ausstrahlen von Strahlen innerhalb der MPR-Ebene und das Bestimmen von Organ- oder Blutlachen-Grenzorten) kann der Benutzer einfach um die Umgebung der gewünschten Struktur herum „kritzeln“, anstatt akribisch nachzuverfolgen. Die tatsächliche Kontur wird basierend auf hohen Intensitäten nahe dem Mauszeiger bestimmt. Der Mauszeiger schwebt nicht direkt an der Grenze des Hohlraums, sondern bewegt sich entlang seiner Nähe, wodurch die Notwendigkeit einer akribischen Nachverfolgung entfällt. Das untere Bild von 4 zeigt Messungen der Kontur, die auf dem Bild überlagert ist, wie z. B. einer Konturlänge oder eines minimalen und maximalen Durchmessers der Kurve.
  • Für jeden Zweck wird der Ort in 2D oder 3D basierend auf Intensitäten und der Benutzereingabe einer Position bestimmt. Der Ort kann auf einer Benutzereingabe in einem Volumengerenderten Bild basieren, wobei die Tiefe für ein bestimmtes Pixel mehrdeutig sein kann. Der Ort kann auf einer Benutzereingabe in einem Volumengerenderten Bild oder einem 2D-Bild basieren, das nur eine Ebene darstellt, wobei die Benutzereingabe ungenau ist, was eine leichtere Auswahl ermöglicht. Der Bildprozessor identifiziert den Ort basierend auf den Intensitäten und der Benutzereingabeposition.
  • In Schritt 70 von 1 verfolgt der Bildprozessor den identifizierten 2D- oder 3D-Ort durch eine Sequenz. Zum Beispiel wird die Position und Tiefe (d. h. 3D-Punkt) durch Ultraschalldaten der Bilder der Sequenz verfolgt. Anstatt die Benutzereingabe und die entsprechende Strahldefinition und Ortsidentifizierung zu wiederholen, wird die Nachverfolgung verwendet.
  • Jede Nachverfolgung kann verwendet werden, wie etwa Speckle-Nachverfolgung, maschinell gelernte Klassifizierung basierend auf der Nachverfolgung von einem Bild zu einem anderen oder irgendeine andere Nachverfolgung eines gegebenen Ortes oder Bereichs über die Zeit. Jeder Punkt wird separat nachverfolgt, oder die Nachverfolgung umfasst eine simultane Lösung für mehrere nachverfolgte Punkte. Die Nachverfolgung erfolgt über die Datensätze, die den Patienten im Laufe der Zeit repräsentieren. Diese Nachverfolgung kann für die Bewegung des Wandlers und/oder des Patienten verantwortlich sein, wobei die identifizierten Orte dynamisch über die Zeit aktualisiert werden oder wenn neue Datensätze durch Scannen erfasst werden.
  • Zum Beispiel identifiziert der Bildprozessor im Falle einer MitraClip-Intervention in Schritt 68 einen Ort einer Einstichstelle. Dieser Ort wird im Laufe der Zeit nachverfolgt, wenn neue Datensätze erfasst werden, die ein Volumen des Patienten darstellen. In ähnlicher Weise wird eine Spitze eines Zuführkatheters lokalisiert. Basierend auf dem Nachverfolgen der Spitze kann auch eine Entfernung zwischen den zwei Orten kontinuierlich oder regelmäßig aktualisiert werden.
  • In dem Fall einer Echtzeit-Referenzpunkt-Nachverfolgung kann die Ortsidentifizierungstechnik die Benutzererfahrung verbessern, um Referenzpunkte in Echtzeit auf einem Bild zu positionieren. Sobald der Mauszeiger über einem MPR schwebt, kann die nächste Grenze eines Organs oder einer kardialen Blutlache bestimmt werden. Einmal bestimmt, kann dieser Grenzort dann sofort über die Zeit nachverfolgt werden. Der Ort kann in einem späteren Bild korrigiert werden, indem der Mauszeiger bewegt und der Punkt aktiviert wird, wodurch die Startposition aktualisiert wird, um den Referenzpunkt in diesem späteren Bild nachzuverfolgen. Die Nachverfolgung schreitet dann von dem Ort fort, der durch das Ausstrahlen von Strahlen von der neuen Eingabeposition identifiziert wird. Alternativ wird die Ortsidentifizierung wiederholt, anstatt nachzuverfolgen. In noch anderen Alternativen wird der Ort für eine gegebene Zeit oder Phase und nicht für andere Zeiten oder Phasen identifiziert.
  • In Schritt 72 berechnet der Bildprozessor eine Größe als eine Funktion des Ortes. Der 2D- oder 3D-Ort wird für eine Messung oder andere Quantifizierung verwendet. Zum Beispiel wird die 2D-Position, die vom Benutzer auf einem Volumenrendering plus der in Schritt 68 identifizierten Tiefe eingegeben wird, zur Quantifizierung verwendet. In einem anderen Beispiel wird ein 3D-Punkt, der in Schritt 68 basierend auf einer Benutzereingabe identifiziert wird, um einen Bereich zum Suchen zu definieren, zur Quantifizierung verwendet.
  • Jede Größe kann berechnet werden. Zum Beispiel wird eine Entfernung zwischen zwei Endpunkten berechnet. Durch Positionieren von Messschiebern an unterschiedlichen Orten im Gewebe wird eine Entfernung zwischen den Orten gemessen. Eine Größe einer Läsion, eine Länge eines Fötus, eine Breite oder Länge eines Knochens oder eine Dimension einer anderen Anatomie kann gemessen werden. Der Benutzer kann die Orte in einem Volumengerenderten Bild anstelle eines MPR identifizieren. Als ein weiteres Beispiel wird eine Fläche, ein Umfang, ein Volumen oder ein anderes räumliches Maß durchgeführt.
  • Der Prozessor verwendet den definierten Punkt oder die definierten Punkte zum Berechnen. Für die Entfernung wird die Entfernung zwischen zwei in dem Volumen positionierten Endpunkten berechnet. Die räumliche Ausdehnung des Volumens oder der Größe von Voxeln ist aus der Scan-Geometrie bekannt. Indem zwei Endpunkte im dreidimensionalen Raum definiert werden, wird eine Entfernung zwischen den Punkten berechnet. Die Entfernung bezieht sich auf den dreidimensionalen Raum und nicht auf die Entfernung zwischen Punkten in zwei Dimensionen. In einigen Ausführungsformen können sich beide Punkte auf derselben Ebene befinden. Die prozessorgestützte Ortsidentifizierung in der Ebene ermöglicht eine weniger präzise und damit einfachere Positionierung der Punkte.
  • Für die Fläche, das Volumen, den Umfang oder andere Maße können mehr als zwei Punkte identifiziert werden. Der Benutzer kann die Orte im dreidimensionalen Raum als Startpunkte angeben. Der Prozessor führt eine Grenzdetektion durch, wie zum Beispiel die Verwendung einer Grenzwertbildung, einer Random-Walker- oder Gradientenverarbeitung unter Verwendung der Startpunkte, um die in der Berechnung verwendete Grenze zu identifizieren. Eine Kurven- oder Formanpassung unter Verwendung der identifizierten Orte und der Intensitätsdaten kann verwendet werden, um eine Größe für die Anpassungskurve oder -form zu berechnen.
  • Ein räumlicher Aspekt des dreidimensionalen Objekts, der durch die Ultraschalldaten dargestellt wird, wird gemessen. Die Messung basiert auf einem oder mehreren Orten, die auf ein medizinisches Bild eingegeben und durch Bildverarbeitung der Intensitäten genauer positioniert werden.
  • Die 2 und 3 zeigen das Berechnen einer Entfernung als die Größe. Die vom Benutzer ausgewählten Positionen bei dem Messschieber 42 auf dem Volumengerenderten Bild 38 werden verwendet, um eine Tiefe zu identifizieren (d. h. einen 3D-Punkt zu finden). Da der Kamerawinkel so eingestellt ist, dass der Benutzer den Ort von Interesse visualisiert, findet das Aufsuchen der Grenze entlang der Strahllinie die Tiefe von Interesse. Nach dem Positionieren von zwei Punkten mit oder ohne Neuausrichtung der Ansicht zwischen der Positionierung der Punkte, wird eine Entfernung berechnet. In dem Beispiel von 2 ist die Entfernung der Durchmesser des Mitralkranz AP (d. h. der Nebenachse). In dem Beispiel von 3 ist die Entfernung der LAA-Ostiumdurchmesser.
  • Die 4 und 5 zeigen das Berechnen basierend auf einer Grenze. Eine Dimension einer Fläche oder eines Volumens (z. B. ein Durchmesser), einer Fläche, eines Volumens und/oder eine andere Größe wird aus der Grenze berechnet. Die Grenze basiert zumindest teilweise auf der Identifizierung des Punktes in 2D oder 3D. Im Beispiel von 4 zeichnet der Benutzer eine Grenze in einem 2D-Bild auf, um Neben- und Hauptachsen zu berechnen. In dem Beispiel von 5 zeichnet der Benutzer eine Kontur einer nicht-planaren Struktur nach, die in einem Volumenrendering dargestellt ist. Die oberen zwei Reihen von Bildern und das linke Bild in der unteren Reihe zeigen Cursor-Positionierungen an, um Positionen auf dem virtuellen Rendering anzuzeigen. Das virtuelle Rendering kann zur Positionierung einiger der Positionen gedreht werden. Für jede Position wird ein 3D-Punkt basierend auf Intensitäten lokalisiert. Eine Kurve wird an die Punkte angepasst oder von den Punkten interpoliert. Zum Beispiel wird ein Hermite Spline gebildet. Die Kurve bildet die Kontur. In diesem Beispiel ist die Kontur für den Mitralkranz. Die Größe wird aus der Kontur berechnet, z. B. die Messung der Länge oder des Umfangs, der Fläche, des minimalen Durchmessers und/oder des maximalen Durchmessers der Kontur. In anderen Beispielen ist ein Netz geeignet, um eine 3D-Grenze zu definieren, die die Berechnung eines Volumens erlaubt.
  • In alternativen Ausführungsformen wird eine Größe nicht berechnet. Stattdessen wird ein Referenzpunkt oder eine Grenze für die visuelle Inspektion identifiziert.
  • In Schritt 74 von 1 gibt der Bildprozessor die Größe aus. Die Größe wird an eine Anzeige ausgegeben, beispielsweise indem die Größe zu einem Anzeigeebenenspeicher oder -puffer addiert wird, der von einer Anzeigevorrichtung gelesen wird. Andere Ausgaben umfassen die Ausgabe an einen Drucker, an einen Speicher oder über ein Netzwerk.
  • Die Größe wird benachbart zu, auf oder getrennt von dem Volumengerenderten oder dem medizinischen 2D-Bild angezeigt. Zum Beispiel wird die Entfernung zwischen zwei Messschiebern 42 über der Gewebedarstellung des Volumengerenderten Bildes oder im Hintergrund, aber nicht über der Gewebedarstellung angezeigt. Wenn eine Echtzeitsequenz von Bildern dargestellt wird, kann die Größe auf einem Bild oder Bildern angezeigt werden, die nach dem Bild erzeugt werden, das verwendet wird, um einen oder mehrere Orte anzuzeigen. Die Größe wird auf dem folgenden Bild angezeigt. Die entsprechenden Orte für diesen Datensatz können nachverfolgt oder unabhängig identifiziert werden.
  • Die Größe wird als Text- oder Zahlenwert ausgegeben. In anderen Ausführungsformen wird die Größe in einer Grafik, einem Diagramm, einer Wellenform, einem Tabellenblatt oder einem anderen Indikator für die Größe ausgegeben. Die Größe als eine Funktion der Zeit kann ausgegeben werden, um eine Variation über einen Herzzyklus oder eine andere Periode zu zeigen. Die Größe kann allein oder in Kombination mit anderen Werten ausgegeben werden. Zum Beispiel wird die Messung über die Zeit oder eine Sequenz von Volumendatensätzen durch einen Herz- oder Atemzyklus ausgegeben. Als ein weiteres Beispiel wird die Größe mit anderen Größen ausgegeben, die die Norm, Abweichung oder abnormale Ergebnisse repräsentieren. Andere Ausgaben auf dem medizinischen Bild können bereitgestellt werden, wie beispielsweise die grafische Darstellung der durchgeführten Messung (z. B. eine gestrichelte Linie zwischen Endpunkten für ein Entfernungsmaß oder eine Kontur oder ein Netz für flächen- oder volumenbezogene Messungen).
  • Eine andere Anzeigevariation kann durchgeführt werden. Zum Beispiel können nach dem Identifizieren des 3D-Punkts in einem Volumen orthogonale MPRs zu dem Punkt ausgerichtet werden. Die MPRs sind an dem Punkt zentriert, so dass der Benutzer verifizieren kann, dass der Bildprozessor den gewünschten Punkt aufgrund der allgemeinen oder ungenauen Messschieberpositionierung des Benutzers identifiziert hat.
  • Multimodalitäts-Bildgebungsführung kann einen verbesserten Arbeitsablauf sowie verbesserte Ergebnisse des Verfahrens bereitstellen. Im Falle des Einsatzes von MitraClip als minimalinvasive Therapie wird die Fluoroskopie zur Führung des Zuführkatheters und zur Vorrichtungszuführung verwendet, während Ultraschall-3D-TEE oder Volumen-ICE zur Durchführung einer transseptalen Punktion und Positionierung der Vorrichtung oder des Zuführkatheters vor der Implantation verwendet wird. Die Fluoroskopie ist eine 2D-Projektion, die eine gute Visualisierung des Zuführkatheters und der Vorrichtung ermöglicht.
  • Die Messung oder die Größe von einem Modus (z. B. Ultraschall) kann mit einem anderen Modus (z. B. Fluoroskopie) der medizinischen Bildgebung registriert werden. Zum Beispiel wird die Position und Orientierung des Ultraschallwandlers in einem Fluoroskopiebild detektiert. Diese Detektion wird verwendet, um die Koordinatensysteme räumlich auszurichten oder zu registrieren. Als ein Ergebnis kann ein Ort in der Fluoroskopieprojektion von dem Ort in dem Ultraschall bestimmt werden. Die Orte und/oder Größen können dann als Grafiken auf dem Fluoroskopiebild überlagert werden. Zum Beispiel werden eine Entfernung zur transseptalen Punktionsstelle von der Spitze des Zuführkatheters und der Ort der transseptalen Punktionsstelle, bestimmt aus Ultraschall, auf dem Fluoroskopiebild überlagert, um das Navigieren des Zuführkatheters zu unterstützen.
  • Nachdem die transseptale Punktion durchgeführt wurde, wird der Zuführkatheter in das linke Atrium vorgeschoben, wobei er auf die Zielanatomie zeigt. In einem nächsten Schritt wird die Verschlussvorrichtung eingeführt und in die Spitze des Zuführkatheters vorgeschoben. Die Entfernung zwischen der Verschlussvorrichtung und dem Einsatzort wird berechnet und ausgegeben. Sobald die Verschlussvorrichtung, wie vom Ultraschall ermittelt, ihre optimale Entfernung zur Punktionsstelle erreicht, zeigt das System eine entsprechende Meldung überlagert auf dem Fluoroskopiebild an. Die Entfernung kann farblich markiert sein, um den relativen Bereich oder die richtige Position anzuzeigen, z. B. grün, wenn er größer als 4 mm ist, ansonsten rot, wenn unter 3,5 mm ist, und gelb, wenn er zwischen 4 und 3,5 mm ist. Sobald die gewünschte Entfernung erreicht ist, kann die Verschlussvorrichtung dann vollständig unter Verwendung von Fluoroskopie oder einer Kombination von Fluoroskopie und 3D-TEE oder Volumen-ICE zugeführt werden.
  • 6 zeigt ein medizinisches diagnostisches Bildgebungssystem 10 zum Messen in der medizinischen Bildgebung. Das System 10 ist ein medizinisches diagnostisches Ultraschallbildgebungssystem, kann jedoch ein Computer, eine Arbeitsstation, eine Datenbank, ein Server oder ein anderes Bildgebungssystem sein. Andere medizinische Bildgebungssysteme können verwendet werden, wie zum Beispiel ein Computertomograph oder ein Magnetresonanzsystem.
  • Das System 10 implementiert das Verfahren von 1 oder ein anderes Verfahren. Das System 10 stellt ein Messwerkzeug auf dem medizinischen Bild bereit. Unter Verwendung des Systems 10 können Kliniker die Anatomie von Interesse messen und die relative Position der Strukturen mit genauen Messungen zwischen im dreidimensionalen oder zweidimensionalen Raum definierten Punkten auswerten, obwohl der Benutzer einen ungenauen Ort auf dem Bild oder eine Tiefenmehrdeutigkeit für die Eingabe auf Volumen gerenderten Bildern eingibt. Der Punkt oder die Punkte werden in Echtzeit oder schnell gefunden, indem der gewünschte Ort basierend auf der Benutzereingabe eines nahen Ortes gefunden wird.
  • Das System 10 umfasst einen Prozessor 12, einen Speicher 14, eine Anzeige 16, einen Wandler 18 und eine Benutzereingabe 22. Zusätzliche, andere oder weniger Komponenten können bereitgestellt werden. Zum Beispiel umfasst das System 10 einen Sendestrahlformer, einen Empfangsstrahlformer, einen B-Modus-Detektor, einen Dopplerdetektor, einen Oberwellenantwortdetektor, einen Kontrastmitteldetektor, einen Scanwandler, einen Filter, Kombinationen davon oder andere heute bekannte oder später entwickelte medizinische diagnostische Ultraschallsystemkomponenten. Als ein anderes Beispiel umfasst das System 10 den Wandler 18 nicht.
  • Der Wandler 18 ist eine piezoelektrische oder kapazitive Vorrichtung, die zur Umwandlung zwischen akustischer und elektrischer Energie betreibbar ist. Der Wandler 18 ist eine Anordnung von Elementen, wie beispielsweise eine eindimensionale, mehrdimensionale oder zweidimensionale Anordnung. Zum Beispiel ist der Wandler 18 eine TEE-, TTE- oder eine ICE-Sonde. Alternativ ist der Wandler 18 ein Wobbler zum mechanischen Scannen in einer Dimension und zum elektrischen Scannen in einer anderen Dimension. Bei anderen Alternativen ist der Wandler 18 eine eindimensionale Anordnung.
  • Das System 10 verwendet den Wandler 18, um ein Volumen oder eine Ebene zu scannen. Die elektrische und/oder mechanische Lenkung ermöglicht die Übertragung und den Empfang entlang verschiedener Scanlinien. Jedes Scanmuster kann verwendet werden. In einer Ausführungsform ist der Sendestrahl breit genug zum Empfang entlang einer Mehrzahl von Scanlinien, wie zum Beispiel zum Empfangen einer Gruppe von bis zu sechzehn oder mehr Empfangslinien für jede Übertragung. In einer anderen Ausführungsform ist eine ebene, kollimierte oder divergierende Sendewellenform zum Empfang entlang einer Mehrzahl, einer großen Anzahl oder aller Scanlinien vorgesehen.
  • Ultraschalldaten, die eine Ebene oder ein Volumen repräsentieren, werden als Reaktion auf das Scannen bereitgestellt. Die Ultraschalldaten werden von einem Strahlformer strahlgeformt, von einem Detektor detektiert und/oder durch einen Scanumwandler gewandelt. Die Ultraschalldaten können in einem beliebigen Format vorliegen, wie z. B. Polar- oder kartesische Koordinaten, kartesische Koordinaten mit Polarkoordinaten-Entfernung zwischen Ebenen oder ein anderes Format. In anderen Ausführungsformen werden die Ultraschalldaten durch Übertragung, beispielsweise von einem entfernbaren Medium oder über ein Netzwerk, erfasst. Andere Arten medizinischer Daten, die ein Volumen darstellen, können ebenfalls erfasst werden.
  • Der Speicher 14 ist ein Puffer, ein Cache, ein RAM, ein entfernbares Medium, ein Festplattenlaufwerk, ein magnetischer, optischer oder anderer jetzt bekannter oder später entwickelter Speicher. Der Speicher 14 kann eine einzelne Vorrichtung oder eine Gruppe von zwei oder mehr Vorrichtungen sein. Der Speicher 14 ist innerhalb des Systems 10 gezeigt, kann jedoch außerhalb oder entfernt von anderen Komponenten des Systems 10 sein.
  • Der Speicher 14 speichert die Ultraschalldaten und/oder die Ortsinformationen. Zum Beispiel speichert der Speicher 14 Strömungs- oder Gewebebewegungsschätzwerte (z. B. Geschwindigkeit, Energie oder beides) und/oder B-Modus-Ultraschalldaten. Die medizinischen Bilddaten sind ein zwei- oder dreidimensionaler Datensatz (z. B. Daten, die eine akustische Antwort von Orten darstellen, die in drei Dimensionen verteilt sind (nxmxo, wobei n, m und o ganze Zahlen größer als 1 sind)) oder eine Sequenz solcher Sätze. Zum Beispiel wird eine Sequenz von Sätzen über einen Teil, einen oder mehrere Herzzyklen des Herzens gespeichert. Eine Vielzahl von Sätzen kann bereitgestellt werden, wie z. B. assoziiert mit der Abbildung eines gleichen Patienten, Organs oder Bereichs aus unterschiedlichen Winkeln oder Orten. Die Daten stellen ein Volumen oder eine Ebene eines Patienten dar, wie beispielsweise die Darstellung eines Teils oder des gesamten Herzens.
  • Für die Echtzeit-Bildgebung umgehen die Ultraschalldaten den Speicher 14, werden vorübergehend im Speicher 14 gespeichert oder werden aus dem Speicher 14 geladen. Die Echtzeit-Bildgebung kann eine Verzögerung von Sekundenbruchteilen oder sogar Sekunden zwischen Datenerfassung und Bildgebung ermöglichen. Zum Beispiel wird eine Echtzeit-Bildgebung bereitgestellt, indem die Bilder im Wesentlichen gleichzeitig mit der Erfassung der Daten durch Scannen erzeugt werden. Während des Scannens zum Erfassen eines nächsten oder nachfolgenden Datensatzes, werden Bilder für einen vorherigen Datensatz erzeugt. Die Bildgebung erfolgt während derselben Bildgebungssitzung, die zum Erfassen der Daten verwendet wird. Das Ausmaß der Verzögerung zwischen der Erfassung und der Bildgebung für den Echtzeitbetrieb kann variieren. In alternativen Ausführungsformen werden die Ultraschalldaten in dem Speicher 14 von einer vorherigen Bildgebungssitzung gespeichert und zur Bildgebung ohne gleichzeitige Erfassung verwendet.
  • Für die Messung kann nur ein Datensatz verwendet werden. Es wird nur ein Datensatz oder Scan eines Volumens oder einer Ebene erfasst, oder einer wird aus einer Sequenz ausgewählt, z. B. mit einer „Freeze“ -Operation. Alternativ werden die Messungen durchgeführt, während eine Echtzeit-Bildgebung bereitgestellt wird. Die Messung über die Zeit wird bestimmt.
  • Der Speicher 14 ist zusätzlich oder alternativ ein computerlesbares Speichermedium mit Verarbeitungsanweisungen. Der Speicher 14 speichert Daten, die Anweisungen darstellen, die von dem programmierten Bildprozessor 12 zur Messpunktbestimmung ausführbar sind. Die Anweisungen zum Implementieren der Prozesse, Verfahren und/oder Techniken, die hier diskutiert werden, werden auf computerlesbaren Speichermedien oder Speichern bereitgestellt, wie einem Cache, einem Puffer, einem RAM, entfernbaren Medien, Festplatten oder anderen computerlesbaren Speichermedien. Computerlesbare Speichermedien umfassen verschiedene Arten von flüchtigen und nichtflüchtigen Speichermedien. Die Funktionen, Schritte oder Aufgaben, die in den Figuren dargestellt oder hierin beschrieben sind, werden als Antwort auf einen oder mehrere Sätze von Anweisungen ausgeführt, die in oder auf computerlesbaren Speichermedien gespeichert sind. Die Funktionen, Schritte oder Aufgaben sind unabhängig von dem bestimmten Typ eines Satzes von Anweisungen, eines Speichermedium, eines Prozessors oder einer Verarbeitungsstrategie und können durch Software, Hardware, integrierte Schaltungen, Firmware, Mikrocode und dergleichen ausgeführt werden, die alleine oder in Kombination arbeiten. In ähnlicher Weise können Verarbeitungsstrategien Multiverarbeitung, Multitasking, Parallelverarbeitung und dergleichen umfassen. In einer Ausführungsform werden die Anweisungen auf einer entfernbaren Medienvorrichtung zum Lesen durch lokale oder entfernte Systeme gespeichert. In anderen Ausführungsformen sind die Anweisungen an einem entfernten Ort zur Übertragung durch ein Computernetzwerk oder über Telefonleitungen gespeichert. In noch anderen Ausführungsformen sind die Anweisungen in einem gegebenen Computer, einer CPU, einer GPU oder einem System gespeichert.
  • Die Benutzereingabevorrichtung 22 ist eine Taste, ein Schieber, ein Knopf, eine Tastatur, eine Maus, ein Trackball, ein Touchscreen, ein Touchpad, Kombinationen davon oder andere jetzt bekannte oder später entwickelte Benutzereingabevorrichtungen. Der Benutzer kann die Benutzereingabevorrichtung 22 bedienen, um Rendering-Werte einzustellen (z. B. eine Clip-Ebene zu definieren, eine Art von Rendering auszuwählen oder einen Offset-Winkel einzustellen), MPR-Ebenenanordnungen auszuwählen, eine Position von einer oder mehreren Ebenen zu ändern, einen Messort auf einem medizinischen Bild auszuwählen und/oder das System 10 zu bedienen. Zum Beispiel empfängt die Benutzereingabevorrichtung 22 von dem Benutzer eine Anzeige einer Position auf einem medizinischen Bild, wie etwa einem Volumengerenderten Bild. Eine Vielzahl solcher Messorte kann empfangen werden. Als ein anderes Beispiel empfängt die Benutzereingabevorrichtung 22 eine Benutzerangabe einer Blickrichtung für das Volumenrendering und/oder die Position von einem oder mehreren MPRs.
  • Der Bildprozessor 12 ist ein allgemeiner Prozessor, ein digitaler Signalprozessor, ein dreidimensionaler Datenprozessor, eine Grafikverarbeitungseinheit, eine anwendungsspezifische integrierte Schaltung, ein feldprogrammierbares Gate-Array, eine digitale Schaltung, eine analoge Schaltung, Kombinationen davon oder eine andere jetzt bekannte oder später entwickelte Vorrichtung zur Verarbeitung von medizinischen Bilddaten. Der Bildprozessor 12 ist eine einzelne Vorrichtung, eine Vielzahl von Vorrichtungen oder ein Netzwerk. Für mehr als eine Vorrichtung kann eine parallele oder sequentielle Aufteilung der Verarbeitung verwendet werden. Verschiedene Vorrichtungen, die den Prozessor 12 bilden, können verschiedene Funktionen ausführen, wie zum Beispiel eine Volumenrendering-Graphikverarbeitungseinheit und einen Steuerungsprozessor zum Berechnen von getrennt arbeitenden Messungen. In einer Ausführungsform ist der Bildprozessor 12 ein Steuerungsprozessor oder ein anderer Prozessor eines medizinischen diagnostischen Bildgebungssystems, wie beispielsweise das medizinisch diagnostische Ultraschallbildgebungssystem 10. In einer anderen Ausführungsform ist der Bildprozessor 12 ein Prozessor einer Bildgebungs-Review-Arbeitsstation oder eines PACS System. In noch einer anderen Ausführungsform ist der Bildprozessor 12 ein Volumenrendering-Prozessor.
  • Der Bildprozessor 12 ist durch Hardware, Firmware und/oder Software konfiguriert. Zum Beispiel arbeitet der Bildprozessor 12 gemäß gespeicherten Anweisungen, um verschiedene hier beschriebene Schritte durchzuführen, wie die Schritte 62, 64, 66, 68, 70, 72 und 74 von 1.
  • In einer Ausführungsform ist der Bildprozessor 12 konfiguriert, ein medizinisches Bild anzuzeigen und eine Benutzereingabe eines Ortes auf dem medizinischen Bild basierend auf einer Benutzeroberfläche zu empfangen. Beispielsweise wird aus den Ultraschalldaten ein MPR und/oder ein Volumenrendering des Volumens des Patienten erzeugt. Es kann jede Art von Volumenrendering verwendet werden, wie etwa das Projizieren entlang von Strahlenlinien von einem Blickpunkt oder in einer Blickrichtung. Eine Beleuchtung, eine Übertragungsfunktion oder andere Volumenrendering-Operationen können bereitgestellt werden.
  • Der Bildprozessor 12 ist konfiguriert, um einen Strahl von der Position entlang einer Blickrichtung auszustrahlen oder Strahlen von der Position in einer Ebene auszustrahlen. Der Bildprozessor 12 ist konfiguriert, basierend auf Ultraschalldaten von dem Scan des Volumens oder der Ebene einen Ort entlang oder um den Strahl herum auszuwählen. Die Auswahl verwendet das Ausstrahlen von Strahlen, eine Rendering-Transfer-Funktion, eine Grenzwertbildung und/oder die Anwendung eines maschinell gelernten Klassifizierers. Zum Beispiel werden Ultraschalldaten in einem Teilvolumen, das durch den ausgestrahlten Strahl definiert ist, in einen maschinell gelernten Klassifizierer eingegeben, der darauf ansprechend den Ort innerhalb des Teilvolumens oder Orte ausgibt, die beschränkt sind, auf dem Strahl zu liegen.
  • Der Bildprozessor 12 ist konfiguriert, eine Grafik zu erzeugen, die einen Punkt anzeigt. Beispielsweise wird der 3D-Punkt an der Benutzereingabeposition und die vom Bildprozessor 12 bestimmte Tiefe oder der Ort im Bild markiert. Grafiken für berechnete Größen basierend auf dem ausgewählten Ort können erzeugt werden. Die Grafik ist eine Strich-Polylinie oder ein anderer Indikator der Messorte relativ zum medizinischen Bild.
  • Der Bildprozessor 12 ist konfiguriert, einen Wert als eine Funktion des 2D- oder 3D-Punktes zu berechnen. Unter Verwendung der Messorte berechnet der Prozessor 12 einen Wert, beispielsweise eine Entfernung. Die Größe kann mit dem Bild an die Anzeige 16 ausgegeben werden.
  • Die Anzeigevorrichtung 16 ist eine CRT-, eine LCD-, eine Plasma-, eine Monitor-, eine Projektor-, eine Drucker- oder andere jetzt bekannte oder später entwickelte Anzeigevorrichtung. Die Anzeige 16 wird konfiguriert, indem ein Bild von dem Prozessor in einen Anzeigepuffer geladen wird. Alternativ wird die Anzeige 16 konfiguriert, indem aus einem Anzeigepuffer ausgelesen wird oder Anzeigewerte für Pixel empfangen werden.
  • Die Anzeige 16 ist konfiguriert, um ein medizinisches Bild (z. B. ein Volumenrendering), eine Clip-Ebenen-Navigations-Benutzeroberfläche, MPR-Bilder, Ebenengrafiken, Messschieber, Messgrafiken und/oder Benutzeroberflächenwerkzeuge anzuzeigen. Das Volumenrendering wird allein oder in Kombination mit Bildern von Ebenen angezeigt. Mehrere Bilder können in unterschiedlichen Teilen eines Bildschirms der Anzeige 16 angezeigt werden, beispielsweise in unterschiedlichen Fenstern. Die Anzeige 16 ist konfiguriert, eine Grafik und/oder einen Wert anzuzeigen, beispielsweise eine Größe, die bei der Messung berechnet wird.
  • Während die Erfindung oben unter Bezugnahme auf verschiedene Ausführungsformen beschrieben wurde, sollte verstanden werden, dass viele Änderungen und Modifikationen vorgenommen werden können, ohne vom Umfang der Erfindung abzuweichen. Es ist daher beabsichtigt, dass die vorstehende detaillierte Beschreibung als veranschaulichend und nicht als beschränkend angesehen wird, und dass es klar ist, dass die folgenden Ansprüche, einschließlich aller Äquivalente, den Geist und den Umfang dieser Erfindung definieren sollen.

Claims (15)

  1. Verfahren zur Messpunktbestimmung bei der Bildgebung mit einem Ultraschallscanner, wobei das Verfahren umfasst: Anzeigen (62) eines Ultraschallbildes auf einer Anzeige, das dreidimensional aus Ultraschalldaten gerendert wird, die ein Gewebevolumen eines Patienten darstellen; Empfangen (64) einer Position eines Messschiebers auf dem Ultraschallbild von einer Benutzereingabevorrichtung; Definieren (66) eines Strahls entlang einer Blickrichtung von der Position des Messschiebers in das Volumen; Identifizieren (68) einer Tiefe entlang des Strahls mit einem maschinell gelernten Klassifizierer basierend auf der Eingabe von Ultraschalldaten von einem Teilbereich des Volumens, der um den Strahl herum und einschließlich des Strahls begrenzt ist; Berechnen (72) einer Größe als eine Funktion der Position des Messschiebers und der Tiefe durch einen Bildprozessor; und Ausgeben (74) der Größe.
  2. Verfahren nach Anspruch 1, wobei das Anzeigen (62) das Anzeigen (62) des Ultraschallbildes als ein Volumengerendertes kardiales Bild in einer Sequenz von Bildern umfasst; und ferner das Nachverfolgen (70) der Position und Tiefe durch Ultraschalldaten der Bilder der Sequenz umfasst.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Definieren (66) des Strahls das Ausstrahlen von Strahlen umfasst, wobei die Blickrichtung eine Blickrichtung von dem dreidimensionalen Rendering ist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Identifizieren (68) der Tiefe das Identifizieren (68) der Tiefe mit Intensitäten aus den Ultraschalldaten und Gradienten aus den Ultraschalldaten für den Teilbereich umfasst.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Identifizieren (68) der Tiefe das Identifizieren (68) der Tiefe mit dem maschinell gelernten Klassifizierer umfasst, der einen probabilistischen Verstärkungsbaum oder einen gelernten Klassifizierer eines tiefen neuronalen Netzwerkes umfasst.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Identifizieren (68) der Tiefe das Identifizieren (68) der Tiefe mit dem maschinell gelernten Klassifizierer umfasst, der aus Proben verschiedener Organe trainiert wurde.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Berechnen (72) das Berechnen (72) einer Entfernung als die Größe umfasst, wobei die Position und der Punkt ein Ende der Entfernung in dem Volumen definieren (66).
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Berechnen (72) das Berechnen (72) einer Fläche, eines Volumens oder einer Dimension der Fläche oder des Volumens umfasst, wobei die Position und der Punkt einen Punkt in drei Dimensionen einer Grenze der Fläche oder des Volumens definieren (66).
  9. Verfahren zur Messpunktbestimmung bei der Bildgebung mit einem medizinischen Scanner, wobei das Verfahren umfasst: Anzeigen (62) eines medizinischen Bildes auf einer Anzeige, abgebildet aus Intensitäten, die das Gewebe eines Patienten darstellen; Empfangen (64) einer Position eines Messschiebers auf dem medizinischen Bild von der Benutzereingabevorrichtung; Definieren (66) eines Strahls, der sich von der Position des Messschiebers erstreckt; Identifizieren (68) eines Ortes entlang des Strahls basierend auf den Intensitäten von einem Teilbereich, der um den Strahl herum und einschließlich des Strahls begrenzt ist; und Berechnen (72) einer Größe als Funktion des Ortes durch einen Bildprozessor; und Ausgeben (74) der Größe.
  10. Verfahren nach Anspruch 9, wobei das Anzeigen (62) das Anzeigen (62) eines medizinischen Bildes umfasst, das nur eine Ebene darstellt, wobei das Definieren (66) des Strahls das Definieren (66) des Strahls als einen einer Vielzahl von Strahlen in der Ebene umfasst, wobei der Strahl eine Grenze an dem Ort aufweist, der der Position am nächsten liegt.
  11. Verfahren nach Anspruch 9 oder 10, ferner umfassend das Wiederholen des Empfangens (64), des Definierens (66) und des Identifizierens (68) für andere Positionen beim Nachverfolgen einer Grenze, und wobei das Berechnen (72) das Berechnen (72) als eine Funktion der Grenze umfasst.
  12. Verfahren nach einem der vorhergehenden Ansprüche 9 bis 11, wobei das Identifizieren (68) des Ortes das Identifizieren (68) mit der Eingabe der Intensitäten des Teilbereichs an einen maschinell gelernten Klassifizierer umfasst.
  13. Verfahren nach einem der vorhergehenden Ansprüche 9 bis 12, wobei das Anzeigen (62) ein Volumenrendering umfasst, wobei die Intensitäten Ultraschalldaten umfassen, die einen dreidimensionalen Bereich des Gewebes des Patienten darstellen, wobei das Definieren (66) des Strahls das Definieren (66) des Strahls entlang einer Blickrichtung des Volumengerenderten medizinischen Bildes umfasst und wobei das Identifizieren (68) des Ortes das Identifizieren (68) des Ortes in drei Dimensionen wie an der Position in zwei Dimensionen und einer Tiefe basierend auf den Intensitäten von dem Teilbereich um den Strahl herum und einschließlich des Strahls umfasst.
  14. Medizinisches Ultraschallsystem, umfassend: einen Ultraschallscanner (10), der konfiguriert ist, ein Volumen eines Patienten zu scannen; eine Benutzereingabevorrichtung (22), die konfiguriert ist, eine Anzeige einer Position auf einem Volumengerenderten Bild des Volumens des Patienten zu empfangen; und einen Bildprozessor (12), der konfiguriert ist, einen Strahl von der Position entlang einer Blickrichtung auszustrahlen, basierend auf Ultraschalldaten von dem Scan des Volumens einen Ort entlang des Strahls auszuwählen und eine Grafik zu erzeugen, die einen Punkt an der Position und am Ort anzeigt.
  15. Medizinisches Ultraschallsystem nach Anspruch 14, wobei der Bildprozessor (12) konfiguriert ist, einen maschinell gelernten Klassifizierer durch Anwendung der Ultraschalldaten in einem Teilvolumen um den Strahl herum und einschließlich des Strahls auszuwählen.
DE102018216296.4A 2017-09-29 2018-09-25 Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung Pending DE102018216296A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/720,317 2017-09-29
US15/720,317 US10660613B2 (en) 2017-09-29 2017-09-29 Measurement point determination in medical diagnostic imaging

Publications (1)

Publication Number Publication Date
DE102018216296A1 true DE102018216296A1 (de) 2019-04-04

Family

ID=65727871

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018216296.4A Pending DE102018216296A1 (de) 2017-09-29 2018-09-25 Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung

Country Status (4)

Country Link
US (1) US10660613B2 (de)
KR (1) KR102269467B1 (de)
CN (1) CN109584350B (de)
DE (1) DE102018216296A1 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3293672A1 (de) * 2016-09-07 2018-03-14 Malvern Panalytical Limited Partikelgrenzenidentifizierung
US20190125302A1 (en) * 2017-10-31 2019-05-02 Koninklijke Philips N.V. Accelerometer in handle for ultrasound medical imaging device
US10909684B2 (en) * 2017-11-20 2021-02-02 University Of Iowa Research Foundation Systems and methods for airway tree segmentation
US11238197B1 (en) * 2018-04-03 2022-02-01 David Byron Douglas Generating a 3D dataset containing a simulated surgical device
US10956635B1 (en) * 2019-12-04 2021-03-23 David Byron Douglas Radiologist-assisted machine learning with interactive, volume subtending 3D cursor
GB201913832D0 (en) * 2019-09-25 2019-11-06 Guys And St Thomas Hospital Nhs Found Trust Method and apparatus for navigation and display of 3d image data
WO2021065750A1 (ja) * 2019-09-30 2021-04-08 テルモ株式会社 診断支援装置、診断支援システム、及び診断支援方法
US20230026942A1 (en) * 2019-11-22 2023-01-26 Koninklijke Philips N.V. Intelligent measurement assistance for ultrasound imaging and associated devices, systems, and methods
US20220133228A1 (en) * 2020-11-03 2022-05-05 Biosense Webster (Israel) Ltd. Identification and visualization of non-navigated objects in medical images
EP4092621A1 (de) 2021-05-21 2022-11-23 Siemens Healthcare GmbH Technik zur zuordnung einer perfusionsmetrik zu dce-mr-bildern
CN114241232B (zh) * 2021-11-23 2023-04-18 电子科技大学 基于多任务学习的摄影体位识别和体表解剖标志检测方法
EP4252670A1 (de) * 2022-03-31 2023-10-04 Koninklijke Philips N.V. Verfahren und systeme zur ultraschallbasierten strukturlokalisierung unter verwendung von bild- und benutzereingaben
WO2023186584A1 (en) 2022-03-31 2023-10-05 Koninklijke Philips N.V. Methods and systems for ultrasound-based structure localization using image and user inputs
KR102473828B1 (ko) * 2022-05-13 2022-12-05 주식회사 쓰리디오엔에스 의료 영상의 랜드마크 위치 설정 가이드 방법, 장치 및 컴퓨터프로그램
US20240023925A1 (en) * 2022-07-21 2024-01-25 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for fetus monitoring
KR20240019548A (ko) * 2022-08-04 2024-02-14 안가람 피부 시술 가이딩 및 피드백 시스템
CN116844697B (zh) * 2023-02-24 2024-01-09 萱闱(北京)生物科技有限公司 图像多维可视化方法、装置、介质和计算设备
CN116531089B (zh) * 2023-07-06 2023-10-20 中国人民解放军中部战区总医院 基于图像增强的阻滞麻醉超声引导数据处理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1264062C (zh) * 2002-12-31 2006-07-12 清华大学 一种多视角x射线立体成像的方法与系统
US20070053563A1 (en) 2005-03-09 2007-03-08 Zhuowen Tu Probabilistic boosting tree framework for learning discriminative models
US8343053B2 (en) * 2009-07-21 2013-01-01 Siemens Medical Solutions Usa, Inc. Detection of structure in ultrasound M-mode imaging
US8532352B2 (en) 2010-10-06 2013-09-10 Siemens Aktiengesellschaft Method and system for intraoperative guidance using physiological image fusion
US20150150460A1 (en) * 2012-06-07 2015-06-04 The Trustees Of Dartmouth College Methods And Systems For Intraoperative Tumor Margin Assessment In Surgical Cavities And Resected Tissue Specimens
BR112014031672A2 (pt) * 2012-06-20 2017-06-27 Koninklijke Philips Nv instrumento médico; aparelho médico; e produto de programa de computador
KR101468419B1 (ko) * 2012-12-04 2014-12-03 삼성메디슨 주식회사 3차원 캘리퍼를 이용하여 측정 정보를 제공하는 의료 시스템 및 방법
US9730643B2 (en) 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US10327666B2 (en) * 2014-12-10 2019-06-25 Elekta, Inc. Magnetic resonance projection imaging
US20160225180A1 (en) * 2015-01-29 2016-08-04 Siemens Medical Solutions Usa, Inc. Measurement tools with plane projection in rendered ultrasound volume imaging
US9569736B1 (en) 2015-09-16 2017-02-14 Siemens Healthcare Gmbh Intelligent medical image landmark detection
US10588605B2 (en) * 2015-10-27 2020-03-17 General Electric Company Methods and systems for segmenting a structure in medical images

Also Published As

Publication number Publication date
US20190099159A1 (en) 2019-04-04
CN109584350A (zh) 2019-04-05
KR20190038448A (ko) 2019-04-08
KR102269467B1 (ko) 2021-06-24
CN109584350B (zh) 2024-06-25
US10660613B2 (en) 2020-05-26

Similar Documents

Publication Publication Date Title
DE102018216296A1 (de) Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung
DE102013021729B4 (de) Verbesserung der Nadelvisualisierung in der diagnostischen Ultraschallbildgebung
DE60133044T2 (de) Datenerfassung , analyse und abbildung von ultraschall diagnostische herzbildern
CN101796544B (zh) 体素数据的可视化方法和系统
US7853304B2 (en) Method and device for reconstructing two-dimensional sectional images
US10499879B2 (en) Systems and methods for displaying intersections on ultrasound images
DE102006018348B4 (de) System und Verfahren für die verschmolzene PET-CT-Visualisierung zum Entfalten des Herzens
CN107427279B (zh) 使用具有用户控制的心脏模型腔室的心脏功能的超声诊断
EP1722333B1 (de) Verfahren und Vorrichtung für Rekonstruktion der zweidimensionalen Schnittbilder
DE102007019652A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem
DE102009026110A1 (de) Vorrichtung und Verfahren zur Darstellung eines Ultraschallmesskopfes relativ zu einem Objekt
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
JP2006061698A (ja) 関心領域を指示するためのユーザ対話式の方法
DE102018105034A1 (de) Verfahren und Systeme zur modellgetriebenen multimodalen medizinischen Bildgebung
US9196092B2 (en) Multiple volume renderings in three-dimensional medical imaging
DE102010015973A1 (de) System und Verfahren zur funktionellen Ultraschallbildgebung
DE102010015937A1 (de) System und Verfahren zur Anzeige von Ultraschallbewegungsverfolgungsinformationen
CN106030657B (zh) 医学4d成像中的运动自适应可视化
DE102014009733A1 (de) Animation zum Übertragen von räumlichen Beziehungen bei einer multiplanaren Rekonstruktion
CN108885797B (zh) 成像系统和方法
US20180049718A1 (en) Ultrasonic diagnosis of cardiac performance by single degree of freedom chamber segmentation
DE112021002345T5 (de) Unterstützung eines benutzers bei der durchführung einer medizinischen ultraschalluntersuchung
CN102498501A (zh) 用于确定模糊图像中模糊的性质的系统和方法
US11941754B2 (en) System and method for generating three dimensional geometric models of anatomical regions
US20210228187A1 (en) System and methods for contrast-enhanced ultrasound imaging

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: BALS & VOGEL PATENTANWAELTE PARTG MBB, DE

R016 Response to examination communication