DE102007021515A1 - Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden - Google Patents

Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden Download PDF

Info

Publication number
DE102007021515A1
DE102007021515A1 DE102007021515A DE102007021515A DE102007021515A1 DE 102007021515 A1 DE102007021515 A1 DE 102007021515A1 DE 102007021515 A DE102007021515 A DE 102007021515A DE 102007021515 A DE102007021515 A DE 102007021515A DE 102007021515 A1 DE102007021515 A1 DE 102007021515A1
Authority
DE
Germany
Prior art keywords
color
data
medical image
coded
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007021515A
Other languages
English (en)
Inventor
Zvi Friedman
Sergei Goldenberg
Peter Lysyansky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102007021515A1 publication Critical patent/DE102007021515A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Geschaffen ist eine Benutzerschnittstelle und ein Verfahren zum Identifizieren von miteinander in Beziehung stehenden Daten, die in einem Ultraschallsystem angezeigt sind. Eine medizinische Bildwiedergabevorrichtung (110) des Ultraschallsystems umfasst eine erste Region (152), die dazu eingerichtet ist, ein medizinisches Bild (126) anzuzeigen, das farbcodierte Abschnitte aufweist, und eine zweite Region (154), die dazu eingerichtet ist, Nicht-Bild-Daten anzuzeigen, die das medizinische Bild (126) betreffen, das in der ersten Region (152) angezeigt ist. Die Nicht-Bild-Daten werden farbcodiert, um die Nicht-Bild-Daten den farbcodierten Abschnitten des medizinischen Bildes (126) zuzuordnen.

Description

  • HINTERGRUND ZU DER ERFINDUNG
  • Ausführungsbeispiele der vorliegenden Erfindung beziehen sich allgemein auf medizinische Bildgebungssysteme, und insbesondere auf medizinische Bildgebungssysteme, die Daten in verschiedenen Abschnitten eines aufgeteilten Displaybildschirms anzeigen.
  • Ultraschallsysteme werden in einer Reihe unterschiedlicher Anwendungen und durch Personen unterschiedlicher Qualifikation verwendet. In vielen Untersuchungen geben Bediener des Ultraschallsystems Eingangssignale ein, die von dem System verwendet werden, um die Daten für eine spätere Analyse zu verarbeiten. Nach Verarbeitung der Daten können diese in unterschiedlichen Formaten angezeigt werden. Beispielsweise können die verarbeiteten Daten in Form unterschiedlicher Graphen oder Charts und/oder als statische oder bewegte Bilder angezeigt werden. Darüber hinaus können die Daten auf verschiedenen Bildschirmen oder auf demselben Bildschirm angezeigt werden. Weiter können die Daten beispielsweise als mehrere Schreibspuren in einem einzelnen Graphen und/oder als ein Datentyp, der einem anderen Datentyp oder Bild überlagert ist, kombiniert werden. Somit können auf einem Bildschirm oder innerhalb eines Abschnitts des Bildschirms mehrere Informationsinhalte zur Verfügung gestellt werden.
  • Die Menge von Daten, die angezeigt werden können, kann groß sein. Darüber hinaus kann die Darstellung der Daten auf dem Bildschirm, beispielsweise die Orientierung und Konfiguration der Daten, es erschweren, zwischen nahe beieinander dargestellten Daten, z.B. zwischen zwei in enger räumlicher Beziehung in einem Graph angezeigten Schreibspuren, zu unterscheiden. Darüber lassen sich Daten, die auf unterschiedlichen Abschnitten eines Bildschirms angezeigt sind, oft nur schwer zuordnen oder korrelieren.
  • Daher ist es für einen Benutzer möglicherweise schwierig, die in verschiedenen Abschnitten eines Bildschirms an gezeigten Daten zu durchzusehen und zu analysieren. Diese Probleme verlängern die Dauer des Durchsichts- und Analyseverfahrens und steigern entsprechend die Kosten des gesamten Bewertungsverfahrens. Darüber hinaus erfasst ein Benutzer Daten möglicherweise visuell falsch oder ordnet sie falsch zu, was zu einer fehlerhaften Analyse und Diagnose führen kann, mit der Folge einer Fehlbehandlung eines Patienten.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist eine medizinische Bildwiedergabevorrichtung geschaffen, zu der eine erste Region, die dazu eingerichtet ist, ein medizinisches Bild anzuzeigen, das farbcodierte Abschnitte aufweist, und eine zweite Region gehören, die dazu eingerichtet ist, Nicht-Bild-Daten anzuzeigen, die das in der ersten Region angezeigte medizinische Bild betreffen. Die Nicht-Bild-Daten sind farbcodiert, um die Nicht-Bild-Daten den farbcodierten Abschnitten des medizinischen Bildes zuzuordnen.
  • Gemäß noch einem Ausführungsbeispiel der vorliegenden Erfindung, ist eine medizinische Bildwiedergabevorrichtung geschaffen, die Daten, die einem angezeigten Bild entsprechen und die in Kombination mit dem angezeigten Bild angezeigt werden, und visuelle Indikationen umfasst, die Daten in einer ersten Region Daten in einer zweiten Region zuordnen. Die visuellen Indikationen sind basierend auf einer segmentierten räumlichen Ansicht des wiedergegebenen Bildes farbcodiert.
  • Gemäß noch einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist ein Verfahren geschaffen, um medi zinische Daten zuzuordnen, die in verschiedenen Regionen eines Displaybildschirms eines medizinischen Bildgebungssystems angezeigt sind. Zu dem Verfahren gehören die Schritte: Farbcodieren von Daten in verschiedenen Regionen des Displaybildschirms, Zuordnen von Daten in den verschiedenen Regionen basierend auf der Farbcodierung und Anzeigen wenigstens einer visuellen Indikation, die den farbcodierten Daten in den verschiedenen Regionen entspricht.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt in einem Blockschaltbild ein diagnostisches Ultraschallsystem, das gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufgebaut ist.
  • 2 zeigt in einem Blockschaltbild ein Ultraschall-Prozessormodul des diagnostischen Ultraschallsystems in 1, das gemäß einem Ausführungsbeispiel der Erfindung ausgebildet ist.
  • 3 veranschaulicht ein Fenster, das auf einem Display zum Wiedergegeben medizinischer Bildgebungsdaten gemäß einem Ausführungsbeispiel der Erfindung angezeigt wird und eine Überlagerung aufweist.
  • 4 veranschaulicht eine Mehrfachfensteranzeige, die dazu dient, medizinische Bildgebungsdaten gemäß einem Ausführungsbeispiel der Erfindung anzuzeigen.
  • 5 zeigt in einem Flussdiagramm gemäß einem Ausführungsbeispiel der Erfindung ein Verfahren, das dazu dient, Daten zu identifizieren und zuzuordnen, die in ver schiedenen Abschnitten eines Displaybildschirms eines medizinischen Bildgebungssystems angezeigt sind.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Ausführungsbeispiele von Ultraschallsystemen und Verfahren zum Identifizieren von miteinander in Beziehung stehenden Daten sind im Einzelnen weiter unten erläutert. Insbesondere wird zunächst eine detaillierte Beschreibung eines exemplarischen Ultraschallsystems unterbreitet, gefolgt von einer detaillierten Beschreibung vielfältiger Ausführungsbeispiele von Verfahren und Systemen zum Zuordnen und Korrelieren von Daten, die in verschiedenen Abschnitten eines Bildschirms angezeigt sind. Ein technischer Effekt der vielfältigen im Vorliegenden beschriebenen Ausführungsbeispiele der Systeme und Verfahren beinhaltet mindestens eine Erleichterung der Identifizierung und/oder Zuordnung unterschiedlicher entsprechender Daten, die in verschiedenen Abschnitten eines Displaybildschirms angezeigt sind.
  • Es ist zu beachten, dass, obwohl die vielfältigen Ausführungsbeispiele zwar in Verbindung mit einem Ultraschallsystem beschrieben sind, die im Vorliegenden beschriebenen Verfahren und Systeme nicht auf Ultraschallbildgebung beschränkt sind. Insbesondere können die vielfältigen Ausführungsbeispiele in Verbindung mit unterschiedlichen Arten medizinischer Bildgebung durchgeführt werden, beispielsweise Magnetresonanzbildgebung (MRI) und Computertomographie(CT)-Bildgebung. Darüber hinaus können die vielfältigen Ausführungsbeispiele in anderen, nicht medizinischen Bildgebungssystemen, beispielsweise zerstörungsfreien Testsystemen, durchgeführt werden.
  • 1 veranschaulicht in einem Blockschaltbild ein Ultraschallsystem 20, und insbesondere ein diagnostisches Ultraschallsystem 20, das gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufgebaut ist. Das Ultraschallsystem 20 enthält einen Sender 22, der eine Matrix von Elementen 24 (z.B. piezoelektrische Kristalle) in einem Wandler 26 dazu veranlasst, gepulste Ultraschallsignale in einen Körper oder in ein Volumen zu emittieren. Vielfältige Geometrien können verwendet werden, und der Wandler 26 kann als ein Teil beispielsweise unterschiedlicher Arten von Ultraschallsonden vorgesehen sein. Die Ultraschallsignale werden von Strukturen in dem Körper, wie Blutzellen oder Muskelgewebe rückgestreut, um Echos zu erzeugen, die zu den Elementen 24 zurückkehren. Die Echos werden durch einen Empfänger 28 empfangen. Die empfangenen Echos werden einem Strahlformer 30 bereitgestellt, der Strahlformung ausführt und ein HF-Signal ausgibt. Das HF-Signal wird anschließend an einen HF-Prozessor 32 ausgegeben, der das HF-Signal verarbeitet. Alternativ kann der HF-Prozessor 32 einen (nicht gezeigten) Komplex-Demodulator enthalten, der das HF-Signal demoduliert, um I,Q-Datenpaare zu bilden, die die Echosignale repräsentieren. Die HF- oder IQ-Signaldaten können anschließend unmittelbar an einen Arbeitsspeicher 34 zur Speicherung (z.B. zur temporären Speicherung) ausgegeben werden.
  • Das Ultraschallsystem 20 enthält ferner ein Prozessormodul 36, um die akquirierten Ultraschalldaten (beispielsweise HF-Signaldaten oder I,Q-Datenpaare) zu verarbeiten und Frames von Ultraschalldaten für eine Wiedergabe auf einem Display 38 vorzubereiten. Das Prozessormodul 36 ist eingerichtet, um gemäß einer Vielzahl von auswählbaren Ult raschallbetriebsarten ein oder mehrere Verarbeitungsschritte an den akquirieten Ultraschalldaten durchzuführen. Akquirierte Ultraschalldaten können während des Empfangs der Echosignale in einem Scandurchlauf in Echtzeit verarbeitet werden. Darüber hinaus oder alternativ können die Ultraschalldaten während eines Scandurchlaufs vorübergehend in dem Speicher 34 gespeichert und in einem Live- oder Offlinebetrieb in weniger als Echtzeit verarbeitet werden. Ein Bildarbeitsspeicher 40 ist vorhanden, um verarbeitete Frames akquirierter Ultraschalldaten zu speichern, die nicht für eine unmittelbare Wiedergabe bestimmt sind. Der Bildarbeitsspeicher 40 kann ein beliebiges bekanntes Datenspeichermedium sein, beispielsweise ein Permanentspeichermedium, Wechselspeichermedium, usw.
  • Das Prozessormodul 36 ist mit einer Benutzerschnittstelle 42 verbunden, die den Betrieb des Prozessormoduls 36, wie weiter unten im Einzelnen erläutert, steuert, und ist dazu eingerichtet, Eingangssignale von einem Anwender aufzunehmen. Das Display 38 umfasst einen oder mehrere Monitore, die Patientendaten, beispielsweise diagnostische Ultraschallbilder, für den Benutzer zur Durchsicht, Diagnose und Analyse, wiedergeben. Das Display 38 kann beispielsweise mehrere Ebenen aus einem in dem Speicher 34 oder 40 gespeicherten dreidimensionalen (3D-) Ultraschalldatensatz automatisch anzeigen. Einer der Arbeitsspeicher 34 und 40 oder beide können dreidimensionale Datensätze der Ultraschalldaten speichern, wobei auf solche dreidimensionalen Datensätze zugegriffen wird, um zweidimensionale und dreidimensionale Bilder wiederzugeben. Beispielsweise können ein dreidimensionaler Ultraschalldatensatz sowie eine oder mehrere Referenzebenen auf den entsprechenden Arbeitsspeicher 34 oder 40 abgebildet sein. Die Verarbeitung der Daten, einschließlich der Datensätze, basiert zum Teil auf Anwendereingaben, beispielsweise auf an der Benutzerschnittstelle 42 entgegengenommenen Benutzerwahlen.
  • Im Betrieb akquiriert das System 20 Daten, beispielsweise volumetrische Datensätze, mittels vielfältiger Techniken (z.B. durch dreidimensionales Scannen, 3D-Bildgebung in Echtzeit, Volumenscanner, 2D-Scannen mit Wandlern, die Positionierungssensoren aufweisen, Freihandscannen unter Verwendung eines Voxelkorrelationsverfahrens, Scannen mittels zweidimensionalen oder Matrix-Array-Wandlern, usw.). Die Daten werden akquiriert, indem der Wandler 26 während des Scannens eines interessierenden Bereichs (ROI) beispielsweise entlang einem geraden oder gekrümmten Pfad bewegt wird. An jeder Position auf der Geraden oder Kurve gewinnt der Wandler 26 Scanebenen, die in dem Speicher 34 gespeichert werden.
  • 2 veranschaulicht ein exemplarisches Blockschaltbild des Ultraschall-Prozessormoduls 36 nach 1, das gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufgebaut ist. Das Ultraschall-Prozessormodul 36 ist basierend auf einer Zusammenstellung von Submodulen veranschaulicht, kann jedoch unter Verwendung einer beliebigen Kombination von speziell entworfenen Hardwareplatinen, DSPs, Prozessoren, usw. verwirklicht sein. In einer Abwandlung können die Submodule nach 2 unter Verwendung eines im Handel erhältlichen PC verwirklicht sein, der einen einzigen Prozessor enthält oder mehrere Prozessoren enthält, wobei die funktionalen Arbeitsschritte auf die Prozessoren verteilt sind. Als weitere Option können die Submodule nach 2 unter Verwendung einer hybriden Konfiguration verwirklicht sein, in der gewisse modulare Funktionen mittels speziell konstruierter Hardware durchgeführt werden, während die übrigen modularen Funktionen mittels eines serienmäßig hergestellten PC und dergleichen durchgeführt werden. Die Submodule können auch als Softwaremodule in einer Prozessoreinheit verwirklicht sein.
  • Die Arbeitsschritte der in 2 veranschaulichten Submodule können durch einen lokalen Ultraschallcontroller 50 oder durch das Prozessormodul 36 gesteuert werden. Die Submodule 5268 führen Mittenprozessorarbeitsschritte aus. Das Ultraschall-Prozessormodul 36 kann Ultraschalldaten 70 in einem von mehreren Formaten empfangen. In dem Ausführungsbeispiel nach 2 basieren die empfangenen Ultraschalldaten 70 auf I,Q-Datenpaaren, die die reale und imaginäre Komponente jedes zugeordneten Datenabtastwerts repräsentieren. Die I,Q-Datenpaare werden an ein Farbfluss-Submodul 52, ein Power-Doppler-Submodul 54, ein B-Mode-Submodul 56, ein Spektral-Doppler-Submodul 58 und/oder ein M-Mode-Submodul 60 ausgegeben. Optional können sonstige Submodule einbezogen werden, beispielsweise unter anderem ein Schallstrahlintensitätsimpuls-(ARFI = Acoustic Radiati on Force Impulse)-Submodul 62, ein Belastungsmodul 64, ein Belastungsrate-Submodul 66, ein Gewebe-Doppler-(TDE = Tissue Doppler)-Submodul 68. Das Belastungs-Submodul 62, Belastungsrate-Submodul 66 und TDE-Submodul 68 können gemeinsam einen Abschnitt zur echokardiographischen Verarbeitung bilden.
  • Jedes der Submodule 5268 ist dazu eingerichtet, die I,Q-Datenpaare in einer entsprechenden Weise zu verarbeiten, um Farbflussdaten 72, Power-Doppler-Daten 74, B-Mode-Daten 76, Spektral-Doppler-Daten 78, M-Mode-Daten 80, ARFI-Daten 82, echokardiographische Belastungsdaten 82, echokar diographische Belastungsraten-Daten 86 bzw. Gewebe-Doppler-Daten 88 zu erzeugen, die sämtliche vor einer nachfolgenden Verarbeitung temporär in einem Arbeitsspeicher 90 (oder in einem in 1 gezeigten Arbeitsspeicher 34 oder Bildarbeitsspeicher 40) gespeichert werden können. Die Daten 7288 können beispielsweise als Sätze von Vektordatenwerten gespeichert werden, wobei jeder Satz einen einzelnen Ultraschallbildframe definiert. Die Vektordatenwerte sind im Allgemeinen auf der Grundlage eines polaren Koordinatensystems strukturiert.
  • Ein Abtastkonverter-Submodul 92 greift auf den Arbeitsspeicher 90 zu und empfängt von diesem die einem Bildframe zugeordneten Vektordatenwerte und wandelt den Satz von Vektordatenwerten in kartesische Koordinaten um, um einen Ultraschallbildframe 94 zu erzeugen, der formatiert ist, um auf dem Display angezeigt zu werden. Die durch das Scan-Wandler-Modul 92 erzeugten Ultraschallbildframes 94 können wiederum an den Arbeitsspeicher 90 ausgegeben werden, um anschließend verarbeitet zu werden, oder sie können an den Arbeitsspeicher 34 oder den Bildarbeitsspeicher 40 ausgegeben werden.
  • Nachdem das Abtastkonverter-Submodul 92 die Ultraschallbildframes 94 erzeugt hat, die beispielsweise den Belastungsdaten, Belastungsraten-Daten und dergleichen zugeordnet sind, können die Bildframes erneut in dem Speicher 90 gespeichert oder über einen Bus 96 an eine (nicht gezeigte) Datenbank, den Arbeitsspeicher 34, den Bildarbeitsspeicher 40 und/oder sonstige (nicht gezeigte) Prozessoren übertragen werden.
  • Beispielsweise kann es gewünscht sein, verschiedene Arten von Ultraschallbildern zu beobachten, die sich auf echokardiographische Funktionen beziehen, die in Echtzeit auf dem (in 1 gezeigten) Display 38 wiedergegeben werden. Um dies durchzuführen, gewinnt das Abtastkonverter-Submodul 92 Belastungs- oder Belastungsrate-Vektordatensätze für in dem Speicher 90 gespeicherte Bilder. Die Vektordaten werden erforderlichenfalls interpoliert und für eine Videowiedergabe in ein X,Y-Format umgewandelt, um Ultraschallbildframes hervorzubringen. Die abtastkonvertierten Ultraschallbildframes werden an einen (nicht gezeigten) Bildschirmcontroller ausgegeben, der einen Videoprozessor enthalten kann, der das Video für eine Videowiedergabe in eine Grauskalenabbildung transformiert. Die Grauskalenwertabbildung kann eine Übertragungsfunktion der unverarbeiteten Bilddaten zu angezeigten Graustufen repräsentieren. Wenn die Videodaten auf die Grauskalenwerte abgebildet werden, veranlasst der Display-Controller die Anzeigeeinrichtung 38, die einen oder mehrere Monitore oder Fenster des Displaybildschirms enthalten kann, die Bildframes auf dem Schirm wiederzugeben. Das auf dem Displaybild schirm 38 angezeigte echokardiographische Bild wird basierend auf einem Datenbildframe erzeugt, in dem jedes Datenelement die Intensität oder Helligkeit eines entsprechenden Pixels auf dem Displaybildschirm angibt. In diesem Beispiel repräsentiert das Displaybild eine Muskelbewegung in einem bildgebend aufgenommenen interessierenden Bereich.
  • Indem nochmals auf 2 Bezug genommen wird, führt ein 2D-Videoprozessor-Submodul 94 einen oder mehrere der anhand der verschiedene Arten von Ultraschalldaten erzeugten Frames zusammen. Beispielsweise kann das zweidimensionale Videoprozessor-Submodul 94 einen anderen Bildframe durch Abbilden eines Datentyps auf eine Grauskalenabbildung und Abbilden des anderen Datentyps auf eine Farbabbildung für eine Videowiedergabe zusammenführen. In dem endgültigen angezeigten Bild werden die Farbpixeldaten den Grauskala-Pixeldaten überlagert, um einen einzelnen Multimodus-Bildframe 98 zu bilden, der wiederum in dem Speicher 90 abgespeichert oder über den Bus 96 übertragen wird. Aufeinanderfolgende Frames von Bildern können in dem Speicher 90 oder in dem (in 1 gezeigten) Arbeitsspeicher 40 als eine Cine-Schleife gespeichert werden. Die Cine-Schleife repräsentiert einen FIFO-Umlaufpufferbildspeicher, der dazu dient, Bilddaten aufzunehmen, die dem Benutzer in Echtzeit angezeigt werden. Der Benutzer kann die Cine-Schleife durch Eingeben eines Standbild-Befehls an der Benutzerschnittstelle 42 "einfrieren". Die Benutzerschnittstelle 42 kann beispielsweise eine Tastatur und Maus und sämtliche sonstigen Eingabebedienungselemente enthalten, die einer Eingabe von Daten in das (in 1 gezeigte) Ultraschallsystem 20 zugeordnet sind.
  • Ein 3D-Prozessor-Submodul 100 wird auch über die Benutzerschnittstelle 42 gesteuert und greift auf den Arbeitsspeicher 90 zu, um räumlich aufeinanderfolgende Gruppen von Ultraschallbildframes zu erhalten, und um daraus dreidimensionale bildliche Darstellungen zu erzeugen, z.B. durch Algorithmen zum Volumenrendern oder Flächenrendern, wie sie bekannt sind. Die dreidimensionalen Bilder können mittels vielfältiger Bildgebungstechniken erzeugt werden, beispielsweise Strahlprojektion, Maximalintensitätspixelprojektion und dergleichen.
  • Vielfältige Ausführungsbeispiele der vorliegenden Erfindung stellen Indikationen auf einer Bildschirmanzeige bereit, um Daten in verschiedenen Abschnitten des Bildschirms zuzuordnen oder zu korrelieren, beispielsweise für eine visuelle Korrelation durch einen Benutzer, wenn dieser beispielsweise Punkte/Regionen auswählt und Bilder auf dem (in 1 gezeigten) Display 38 betrachtet. 3 zeigt ein exemplarisches Fenster 110 (oder Bildschirmpaneel), das auf dem Display 38 oder einem Abschnitt davon angezeigt und über die (in 1 gezeigte) Benutzerschnittstelle 42 gesteuert werden kann. Beispielsweise können auf einem unterteilten einzelnen Bildschirm mehrere Fenster vorgesehen sein. Der Benutzer kann auf verschiedene Eingabemittel zugreifen, die Bestandteil der Benutzerschnittstelle 42 sind, beispielsweise unter anderem auf eine Maus, einen Trackball und eine Tastatur, um z.B. einen Cursor oder Markierungsmittel in dem Fenster 110 zu bewegen, um gewisse Punkte oder Regionen in dem Fenster 110 (z.B. durch Zeigen und Klicken mit einer Maus) auszuwählen.
  • Das Fenster 110 weist im Allgemeinen einen Bildabschnitt 112 und einen Nicht-Bild-Abschnitt 114 auf, der un terschiedliche Daten bereitstellen kann, die sich auf das gerade angezeigte Bild, den Zustand des Systems, usw. beziehen. Beispielsweise kann der Nicht-Bild-Abschnitt 112 Uhrzeit- und Datumsdaten 116, eine Bildtypkennzeichnung 118 und einen Statusindikator 120 enthalten. Insbesondere können die Uhrzeit- und Datumsdaten 116 die aktuelle Zeit und das aktuelle Datum, oder die Zeit und das Datum angeben, zu dem das in dem Bildabschnitt 112 gerade angezeigte Bild akquiriert wurde. Die Bildtypkennzeichnung 118 stellt eine Indikation beispielsweise über die Ansicht des gerade angezeigten Bildes zur Verfügung, das in dem exemplarischen Fenster 110 eine apikale Längsachsen-(APLAX = Apical Long Axis)-Ansicht ist. Der Statusindikator 120 stellt eine Indikation über den Status der aktuellen Systemverarbeitung und der Gesamtsystemverarbeitung zur Verfügung, beispielsweise durch die Schattierung unterschiedlicher Segmente 140 des Statusindikators, wie in der an den Inhaber der vorliegenden Erfindung abgetretenen parallelen US-Patentanmeldung mit dem Titel "USER INTERFACE AND METHOD FOR DISPLAYING INFORMATION IN AN ULTRASOUND SYSTEM" und dem Anwaltsaktenzeichen NR. SPLG 12553-1289, beschrieben.
  • Zusätzliche oder alternative Daten können bereitgestellt werden, beispielsweise Framezahldaten 130, die den in dem Bildabschnitt 112 betrachteten Bildframe identifizieren und eine Beschriftung 132, die Abschnitte eines Bildes 126 identifiziert, beispielsweise Abschnitte einer segmentierten Überlagerung 122, die mehrere Segmente 124 aufweist. Beispielsweise können, wie in 3 gezeigt, im Falle der Anzeige eines Bildes 126 eines Herzens sechs Segmente vorgesehen sein, um einen Umriss, der eine endokardiale Grenze und eine epikardiale Grenze des Myokardium definiert, in verschiedene Regionen zu unterteilen. Insbesonde re kann die Beschriftung 132 eine Anzahl Kennzeichnungen 134 beinhalten, die verschiedenen Segmenten 124 der segmentierten Überlagerung 122 entsprechen. Die Kennzeichnungen 134 können eine abgekürzte Beschreibung der Region des Bildes 126 beinhalten, die durch das entsprechende Segment 124 identifiziert ist. Jede der Kennzeichnungen 134 kann in einem eigenen Textkasten vorgesehen sein, der farbcodiert ist, wobei das entsprechende Segment 124 einen Umriss in derselbe Farbe aufweist. Im Wesentlichen ist jede Kennzeichnung 134 ein Feldname für ein entsprechendes Segment 124. Es können somit, wie in 3 gezeigt, sechs verschiedene Farben genutzt werden, um die Kennzeichnungen 134 der Beschriftung 132 mit dem entsprechenden Segment 124 farbzucodieren und zu identifizieren.
  • Das Fenster 110 veranschaulicht lediglich exemplarisch einen Displaybildschirm, der vorgesehen sei kann, um medizinische Bilddaten gemäß vielfältigen Ausführungsbeispielen der Erfindung auf dem Schirm wiederzugeben. Allerdings können verschiedene Fenster, die verschiedene Daten enthalten, auf vielen Displays oder in verschiedenen Abschnitten eines einzigen Displays 38 vorgesehen sein. Beispielsweise kann ein Display 38, wie in 4 gezeigt, mehrere Fenster aufweisen, beispielsweise ein erstes Fenster 150, ein zweites Fenster 152, ein drittes Fenster 154 und ein viertes Fenster 156. Die Fenster 150156 können dazu eingerichtet sein, eine Vierfachansicht zu definieren, wobei der Displayschirm 38 in vier im Allgemeinen übereinstimmend bemessene Regionen aufgeteilt ist. In diesem Ausführungsbeispiel kann, wenn beispielsweise ein Bild eines Herzens angezeigt wird, das erste Fenster 150 dazu eingerichtet sein, ein bewegtes Bild 160, beispielsweise einer fortlaufend ablaufende Cine-Schleife des Herzens in einer speziellen Ansicht (z.B. ei ner apikalen Längsachsen-Ansicht, Zweikammeransicht oder Vierkammeransicht) anzuzeigen. Das erste Fenster 150 kann das bewegte Bild 160 des Herzens als eine Grauwerteskala-Cine-Schleife eines vollen Herzzyklus oder eines Abschnitts davon wiedergeben. In einer Abwandlung kann das Bild angehalten werden, um einen einzelnen Bildframe des dargestellten Herzens wiederzugeben.
  • Das erste Fenster 150 kann ferner Daten beinhalten, die dem bewegten Bild 160 überlagert sind, beispielsweise eine farbcodierte Überlagerung 162, die als Funktion der Zeit angezeigt ist und durch eine farbcodierte Beschriftung 164 definiert ist, die eine farbcodierte Skala zeigt, die verschiedene Belastungswerte oder Pegel, beispielsweise prozentuale Pegel, darstellt. In einem Ausführungsbeispiel ist die überlagerte Information ein örtlicher momentaner Belastungswert, der als Funktion der Zeit angezeigt ist. Beispielsweise kann der örtliche momentane Belastungswert ein auf einer Veränderung der Länge des Herzmuskels an einer speziellen Stelle basierender prozentualer Wert sein, beispielsweise basierend auf einer prozentualen Muskelkontraktion. Der Belastungswert kann auf eine beliebige bekannte Weise, beispielsweise mittels des (in 2 gezeigten) Belastungs-Submoduls 64 berechnet werden. Die berechneten Belastungswerte können in einer Datenbank gespeichert werden, die den Belastungswert einem Abschnitt des bewegten Bildes 160 zuordnet, das die farbcodierte Überlagerung 162 aufweist und beispielsweise durch eine Pixelposition in dem ersten Fenster 150 zugeordnet und identifiziert ist. Beispielsweise können berechnete Belastungswerte in einer adressierbaren Tabelle gespeichert werden, in der jede Adresse einem anderen angezeigten Pixel oder einer anderen Region der farbcodierten Überlagerung 162 entspricht. Dement sprechend wird, wenn ein Abschnitt der farbcodierten Überlagerung beispielsweise mit einem Markierungsmittel 166 (z.B. einem virtuellen Kreiselement) ausgewählt ist, indem das Markierungsmittel mit einer Maus der (in 1 gezeigten) Benutzerschnittstelle 42 zu jenem Abschnitt bewegt ist, der momentane Belastungswert für jene Region, wie durch die gespeicherten Belastungswerte bestimmt, als Belastungswertdaten 168 angezeigt. Die Belastungswertdaten 168 können beispielsweise einen globalen Belastungs-(GS = Global Strain)-Wert über die gesamte Region hinweg repräsentieren, die durch die farbcodierte Überlagerung 162 repräsentiert ist (z.B. die prozentuale Änderung der Gesamt länge der durch die farbcodierte Überlagerung 162 repräsentierten Region). Somit kann die farbcodierte Überlagerung 162 eine virtuelle Karte sein, die einem Muskelabschnitt eines Bildes des Herzens überlagert ist, wobei die Färbung den Farben der farbcodierten Beschriftung 164 entspricht.
  • Das zweite Fenster 152 kann dazu eingerichtet sein, die segmentierte Überlagerung 122, die die Anzahl farbcodierter Segmente 124 aufweist, wie oben in Verbindung mit 3 näher erläutert, anzuzeigen. Jedes der Segmente 124 kann durch eine andersfarbige durchgezogene Linie definiert sein, die im Allgemeinen eine Fläche (z.B. eine rechtwinklige Fläche) definiert. Die farbcodierte Beschriftung 164 kann ebenfalls dem ersten Fenster 150 ähnelnd vorgesehen sein. In diesem Ausführungsbeispiel ist ein Belastungsmittelwert 170 innerhalb jedes der Segmente 124 vorgesehen. Insbesondere ist ein Belastungsmittelwert 170 als Funktion der Zeit für die von dem Segment 124 gebildete Region in dem entsprechenden Segment 124 angezeigt. Beispielsweise wird der zu einem speziellen Zeitpunkt vorhandene Belastungsmittelwert berechnet. Der Belastungsmittelwert 170 kann durch Mittelung der momentanen Belastungswerte berechnet werden, die in der Datenbank gespeichert sind. Darüber hinaus wird, wenn ein Abschnitt der farbcodierten Überlagerung 162 in dem ersten Fenster 150 beispielsweise mit dem Markierungsmittel 166 (z.B. einem virtuellen Kreiselement) ausgewählt ist, indem das Markierungsmittel mit einer Maus der Benutzerschnittstelle 42 zu jenem Abschnitt bewegt ist, ein systolischer Spitzenbelastungswert 172 in dem zweiten Fenster 152 entsprechend dem Punkt oder der Region angezeigt, an dem bzw. in der das Markierungsmittel 166 in dem ersten Fenster 150 positioniert ist. Auf diese Weise wird, wenn das Markierungsmittel 166 an einen beliebigen Punkt in dem ersten Fenster 150 in der farbcodierten Überlagerung 162 platziert ist, der jenem Punkt entsprechende systolische Scheitelwert 172 in dem zweiten Fenster 152 angezeigt. In einer Abwandlung kann der systolische Scheitelwert 172 in anderen Regionen des Displaybildschirms 38, beispielsweise in dem ersten Fenster 150, angezeigt werden. Es ist zu beachten, dass in einem Ausführungsbeispiel der systolische Scheitelwert 172 der Scheitelpunkt systolischer Belastung ist, und im Besonderen der Scheitelpunkt negativer Belastung, falls der Scheitelpunkt während der Systole oder dem Ende systolischer Belastung auftritt, falls der Scheitelpunkt später auftritt. Dieser Wert kann im Allgemeinen der Belastungswert in Abhängigkeit von einem beliebigen Zeitpunkt während des Herzzyklus sein.
  • Es ist zu beachten, dass auch andere physiologische Parameter als Funktion der Zeit abgebildet und entweder in dem ersten und/oder in dem zweiten Fenster 150 und 152 angezeigt werden können, beispielsweise ein parametrisches systolisches Scheitelpunktbelastungsbild mit entsprechenden numerischen werten. Darüber hinaus ist zu beachten, dass, wenn entweder in dem ersten und/oder in dem zweiten Fenster 150 und 152 eine neue oder andere Ansicht oder ein neues oder anderes Bild angezeigt wird, basierend auf der neuen Ansicht bzw. des neuen Bildes auch eine neue Überlagerung oder entsprechende Werte angezeigt werden. Darüber hinaus wird, falls das angezeigte Bild modifiziert ist, beispielsweise invertiert ist, auch die Überlagerung, Farbcodierung und entsprechende Beschriftung invertiert. Die Invertierung kann verwirklicht werden, indem die Pixel erneut auf das erste und/oder das zweite Fenster 150 und 152 abgebildet werden.
  • Das dritte Fenster 154 kann dazu eingerichtet sein, Nicht-Bild-Daten, beispielsweise einen Graph 180 mehrerer Belastungskurven 182 aufgetragen als Funktion der Zeit anzuzeigen. Beispielsweise können die mehreren Belastungskurven 182 eine mittlere Belastung als Funktion der Zeit repräsentieren, wobei jede Kurvenschreibspur einem anderen Segment 124 der in dem zweiten Fenster 152 angezeigten segmentierten Überlagerung 122 entspricht. In diesem Beispiel werden somit sechs Kurvenschreibspuren erzeugt, die den sechs Segmenten 124 entsprechen, und in einer beliebigen bekannten Weise angezeigt. In einem Ausführungsbeispiel wird jede der Kurvenschreibspuren der Anzahl von Belastungskurven 182 in einer anderen Farbe dargestellt, die der Farbe des Segments 124 (z.B. der Farbe des Umrisses des Segments 124) in dem zweiten Fenster 152 entspricht, auf das sich die Kurvenschreibspur bezieht.
  • Im Betrieb wird, wenn ein Abschnitt der segmentierten Überlagerung 122 in dem zweiten Fenster 152 beispielsweise ausgewählt wird, wenn das Markierungsmittel 166 (z.B. ein virtuelles Kreiselement) mittels einer Maus der Benutzer schnittstelle 42 in eines der Segmente 124 bewegt wird, die Kurvenschreibspur in dem dritten Fenster 154, die dem ausgewählten Segment 124 entspricht, hervorgehoben. Beispielsweise wird eine einzelne der Anzahl von Belastungskurven 182, die dem ausgewählten Segment 124 entspricht, hervorgehoben, was beispielsweise durch Aufhellen der Farbe der Schreibspur, Fettdarstellung der Schreibspurlinie, Änderung der Farbe der Schreibspur in eine andere, hellere Farbe (z.B. in ein aufgehelltes Rot), usw. geschehen kann. Ganz allgemein ist eine visuelle Indikation der einzelnen aus der Anzahl von Belastungskurven 182, die dem ausgewählten Segment 124 entspricht, vorgesehen. Falls das Markierungsmittel 166 auf eine aus der Anzahl von Belastungskurven 182 platziert wird, kann die ausgewählte Kurvenschreibspur darüber hinaus aufgehellt und das entsprechende Segment 124 in dem zweiten Fenster 152 hervorgehoben oder ein Belastungsmittelwert angezeigt werden.
  • Das vierte Fenster 156 kann dazu eingerichtet sein, Daten oder ein Bild anzuzeigen, das den Bildern in dem ersten und dem zweiten Fenster 150 und 152, beispielsweise einem Farb-M-Mode-Bild 184, entspricht. Das Farb-M-Mode-Bild 184 kann ebenfalls so angezeigt werden, dass Farben in dem Bild den farbigen Indikationen und der Farbcodierung in dem ersten, zweiten und dritten Fenster 150, 152 und 154 entsprechen.
  • Vielfältige Ausführungsbeispiele schaffen ein Verfahren 200, wie in 5 gezeigt, um Daten, die in verschiedenen Regionen eines Displays eines medizinischen Bildgebungssystems, und im Besonderen eines Ultraschallsystems angezeigt sind, zu identifizieren und zuzuordnen. Insbesondere wird in Schritt 202 eine Region auf dem Displaybild schirm identifiziert, die ausgewählt ist. Beispielsweise wird die Region identifiziert, in die ein Benutzer ein Markierungsmittel oder einen sonstigen visuellen Selektor positioniert hat. Dies kann beispielsweise beinhalten, zu identifizieren, welches aus einer Anzahl von Fenstern auf einem Bildschirm das Markierungsmittel enthält. Ferner kann eine Bestimmung hinsichtlich der in den vielfältigen Regionen angezeigten verschiedene Daten, beispielsweise der angezeigten unterschiedlichen Bilder oder Ansichten durchgeführt werden. Danach wird in Schritt 204 eine Entscheidung getroffen, ob die Region innerhalb eines definierten Bereichs liegt. Dies kann beispielsweise beinhalten, zu ermitteln, ob die Region innerhalb eines Segments 124 der segmentierten Überlagerung 124 in dem zweiten Fenster 152 liegt, beispielsweise, ob Pixel des Displaybildschirms 28 sich innerhalb eines Segments 124 befinden (insgesamt in 4 gezeigt). Als weiteres Beispiel kann die Bestimmung in Schritt 204 beinhalten, zu ermitteln, ob sich die Region innerhalb eines Abschnitts der farbcodierten Überlagerung 162 befindet, beispielsweise, ob Pixel des Displaybildschirms 28 sich innerhalb eines speziellen Abschnitts der farbcodierten Überlagerung 162 befinden (insgesamt in 4 gezeigt). Die Identifizierung ausgewählter Regionen oder Pixel in Schritt 202 und/oder 204 kann unter Verwendung eines beliebigen bekannten Verfahrens ausgeführt werden, beispielsweise durch Zuordnen eines virtuellen Markierungsmittels zu entsprechenden Pixeln, die sich innerhalb des virtuellen Markierungsmittels befinden oder von diesem umfasst werden.
  • Falls in Schritt 204 ermittelt wird, dass sich die Region nicht in einem definierten Bereich befindet, wird die aktuelle Anzeige in Schritt 206 fortgesetzt. Beispielsweise werden die Bilder und Indikationen auf dem Display nicht verändert, und das Verfahren identifiziert von neuem eine ausgewählte Region des Displaybildschirms. Beispielsweise kann das Display auf einer kontinuierlichen oder periodischen Grundlage abgetastet werden, um die Position beispielsweise eines virtuellen Markierungsmittels zu identifizieren. Das Display kann auch abgetastet werden, wenn eine Bewegung des virtuellen Markierungsmittels erfasst wird.
  • Falls in Schritt 204 ermittelt wird, dass die Region innerhalb eines definierten Bereichs liegt, werden in Schritt 206 die Eigenschaften und zugeordnete Daten für den definierten Bereich identifiziert. Beispielsweise können Eigenschaften und zugeordnete Daten vorgesehen sein, die jedem Pixel oder einer Gruppe von Pixeln in einem definierten Bereich entsprechen. Diese Daten können beispielsweise berechnete Daten für den definierten Bereich beinhalten. In dem Ausführungsbeispiel, in dem myokardiale Bilder, usw. abgebildet werden, können die Daten örtliche momentane Belastungswerte, mittlere/Scheitelpunkt-Belastungswerte für ein Segment und/oder einen prozentualen Belastungswert für das Segment beinhalten. Der definierte Bereich kann ferner Eigenschaften umfassen, beispielsweise, dass der Bereich mit einer weiteren Region des Displaybildschirms, beispielsweise mit einem weiteren Fenster, verknüpft oder dieser zugeordnet ist. Beispielsweise können Daten innerhalb eines einzelnen Segments in einer segmentierten Überlagerung in einem Fenster mit einer einzelnen Kurvenschreibspur in einem anderen Fenster verknüpft sein. Als weiteres Beispiel können Daten in einem einzelnen Segment in der segmentierten Überlagerung Daten einer Beschriftung oder eines numerischen Wertes zugeordnet sein, die in einem oder mehreren der Fenster angezeigt sind. Daten, die korreliert o der zugeordnet sind, können durch die übereinstimmende Farbe in verschiedenen Fenstern identifiziert werden.
  • Die Eigenschaften und zugeordneten Daten, beispielsweise berechnete und gemessene Werte, können in einer Datenbank gespeichert sein, die die Eigenschaften und Daten dem definierten Bereich, beispielsweise einem Abschnitt einer segmentierten Karte oder einem Abschnitt eines angezeigten Bildes zuordnet. Die Daten können in der Datenbank basierend auf einer Pixelzuordnung auf dem Displaybildschirm, beispielsweise basierend auf in jedem der Fenster vorhandenen Pixeln, gespeichert sein. Die Eigenschaften, z.B. Verknüpfungen und zugeordneten Daten, einschließlich Datenwerte, können in einer adressierbaren Tabelle gespeichert sein, in der jede Adresse einem anderen angezeigten Pixel oder einer anderen Region des definierten Bereichs entspricht. Die bereitzustellenden visuellen Indikationen, die Verknüpfungen, usw. können vorgegeben und/oder benutzerdefiniert sein.
  • Auf eine Identifizierung der Eigenschaften und zugeordneten Daten hin wird in Schritt 208 basierend auf ausgewählten Pixeln in dem definierten Bereich, die den identifizierten Eigenschaften und zugeordneten Daten entsprechen, hinsichtlich bereitzustellender visueller Indikationen entschieden. Die bereitzustellenden visuellen Indikationen können auf ausgewählten Pixel basieren, wobei die entsprechenden visuellen Indikationen in der Datenbank durch die gespeicherten Eigenschaften und zugeordneten Daten definiert sind. Die visuellen Indikationen können beispielsweise eine Anzeige eines Datenwerts in einem Displaybildschirmabschnitt, der dem ausgewählten Region entspricht, und/oder ein aufhellendes Hervorheben eines anderen Ab schnitts des Displaybildschirms (z.B. in einem anderen Fenster) beinhalten, der der ausgewählten Region entspricht. Die visuellen Indikationen können ein Bereitstellen der visuellen Indikationen beinhalten, die in Beziehung stehende Daten anzeigen, wie oben mit Bezug auf 4 beschrieben. Beispielsweise kann der definierte Bereich ein Segment der segmentierten Überlagerung sein, die einer Einzelschreibspurkurve entspricht. Die ermittelte visuelle Indikation kann darauf basieren, dass die dem ausgewählten Segment entsprechende Kurvenschreibspur aufgehellt hervorgehoben wird. Als weiteres Beispiel können zugeordnete Daten, beispielsweise ein prozentualer Belastungswert, ange zeigt werden, falls der definierte Bereich innerhalb einer momentanen Belastungsüberlagerung liegt. Die Daten können in demselben Fenster oder in einem anderen Fenster als die ausgewählte Region angezeigt werden. Die Daten können beispielsweise basierend auf einer Abbildung der Pixeldaten verknüpft und zugeordnet sein.
  • Es ist zu beachten, dass es möglich ist, einige der Daten fortlaufend anzuzeigen und einige der Daten lediglich dann anzuzeigen, wenn sie ausgewählt sind. Beispielsweise können Belastungsmittelwerte in jedem Segment 124 einer segmentierten Überlagerung 122 in der segmentierten Überlagerung 122 fortlaufend angezeigt sein, oder es kann, wie in 4 gezeigt, eine Farbcodierung angezeigt sein, um Segmenten 124 in einer räumlichen Ansicht über der Zeit graphisch aufgetragene physiologische Parameter zuzuordnen. Als weiteres Beispiel werden prozentuale Belastungswerte und ein aufhellendes Hervorheben von Kurvenschreibspuren möglicherweise lediglich dann angezeigt, wenn eine entsprechende Region ausgewählt ist und eine visuelle Indikation bereitgestellt werden soll.
  • Die visuelle Indikation wird dann in Schritt 210 angezeigt. Danach wird in Schritt 212 ermittelt, ob, beispielsweise durch Bewegung des virtuellen Markierungsmittels zu einer anderen Region des Displaybildschirms, eine andere Region ausgewählt ist. Falls keine anderer Region ausgewählt ist, wird in Schritt 214 die Anzeige der aktuellen visuellen Indikationen fortgesetzt. Falls eine andere Region ausgewählt ist, wird in Schritt 204 ermittelt, ob die Region innerhalb eines definierten Bereichs liegt, und das Verfahren schreitet wie oben beschrieben fort.
  • Auf diese Weise schaffen vielfältige Ausführungsbeispiele eine Displayanzeige, die visuelle Indikationen aufweist, die in verschiedenen Abschnitten des Displaybildschirms angezeigte Daten zuordnen. Die visuellen Indikationen (z.B. eine Farbcodierung) können fortlaufend oder auf eine Auswahl einer speziellen interessierenden Region hin vorgesehen werden, die ein Verknüpfen oder Zuordnen von Daten einschließt, die mit der ausgewählten interessierenden Region in Beziehung stehen.
  • Während die Erfindung anhand vielfältiger spezieller Ausführungsbeispiele beschrieben wurde, wird der Fachmann erkennen, dass es möglich ist, die Erfindung mit Abwandlungen zu verwirklichen, ohne von dem Schutzbereich der Ansprüche abzuweichen.
  • ELEMENTELISTE
    Figure 00250001
  • Figure 00260001
  • Figure 00270001

Claims (10)

  1. Medizinische Bildwiedergabevorrichtung (110), zu der gehören: eine erste Region (152), die dazu eingerichtet ist, ein medizinisches Bild (126) anzuzeigen, das farbcodierte Abschnitte aufweist; und eine zweite Region (154), die dazu eingerichtet ist, Nicht-Bild-Daten anzuzeigen, die das medizinische Bild (126) betreffen, das in der ersten Region (152) angezeigt ist, wobei die Nicht-Bild-Daten farbcodiert sind, um die Nicht-Bild-Daten den farbcodierten Abschnitten des medizinischen Bilds (126) zuzuordnen.
  2. Medizinische Bildwiedergabevorrichtung (110) nach Anspruch 1, bei der das medizinische Bild segmentiert ist, wobei jedes Segment (124) eine andere entsprechende Farbe aufweist.
  3. Medizinische Bildwiedergabevorrichtung nach Anspruch 1, die ferner eine farbcodierte Segmentüberlagerung (122) umfasst, die dem angezeigten medizinischen Bild überlagert ist.
  4. Medizinische Bildwiedergabevorrichtung (110) nach Anspruch 1, wobei die Nicht-Bild-Daten eine Einzelschreibspurkurve (182) beinhalten, die jedem farbcodierten Abschnitt (124) des dargestellten medizinischen Bildes (126) entspricht, wobei jede Einzelschreibspurkurve jeweils mit derselben Farbe versehen ist, wie der entsprechende farbcodierte Abschnitt des dargestellten medizinischen Bildes.
  5. Medizinische Bildwiedergabevorrichtung (110) nach Anspruch 4, wobei die Einzelschreibspurkurve (182), die einem farbcodierten Abschnitt (124) des dargestellten medizinischen Bildes (126) entspricht, aufhellend hervorgehoben wird, wenn ein Benutzer den entsprechenden farbcodierten Abschnitts (124) auswählt.
  6. Medizinische Bildwiedergabevorrichtung (110) nach Anspruch 1, wobei das angezeigte medizinische Bild (126) in einer farbcodierten Segmentansicht (122) konfiguriert ist, und die Nicht-Bild-Daten mehrere Kurven (182) beinhalten, die einen Graph physiologischer Parameter definieren, der in Farbbänder segmentiert ist, die den Segmenten (124) der farbcodierten Segmentansicht (122) entsprechen.
  7. Medizinische Bildwiedergabevorrichtung (110) nach Anspruch 1, die ferner eine dritte Region (150) umfasst, die dazu eingerichtet ist, das medizinische Bild (126) anzuzeigen, wobei dem medizinischen Bild (126) eine farbcodierte Überlagerung (162) überlagert ist, die einen örtlichen momentanen Belastungswert definiert, der als Funktion der Zeit angezeigt wird.
  8. Medizinische Bildwiedergabevorrichtung (110) nach Anspruch 7, die ferner einen Belastungswert (168) umfasst, der angezeigt wird und einer ausgewählten Region in der farbcodierten Überlagerung (162) in der dritten Region (150) und/oder den farbcodierten Abschnitten (124) in der ersten Region (152) zugeordnet ist.
  9. Verfahren (200), um medizinische Daten zuzuordnen, die in verschiedenen Regionen eines Displaybildschirms (110) eines medizinischen Bildgebungssystems angezeigt werden, wobei das Verfahren die Schritte aufweist: Farbcodieren von Daten (206) in verschiedenen Regionen des Displaybildschirms (110); Zuordnen von Daten (206) in den verschiedenen Regionen basierend auf der Farbcodierung; und Anzeigen (210) wenigstens einer visuellen Indikation, die den farbcodierten Daten in den verschiedenen Regionen entspricht.
  10. Verfahren (210) nach Anspruch 9, wobei das Anzeigen (210) wenigstens einer visuellen Indikation ein Anzeigen eines dynamischen Wertes aufweist, der einer ausgewählten Region entspricht.
DE102007021515A 2006-05-05 2007-05-04 Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden Withdrawn DE102007021515A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/429,546 US8471866B2 (en) 2006-05-05 2006-05-05 User interface and method for identifying related information displayed in an ultrasound system
US11/429,546 2006-05-05

Publications (1)

Publication Number Publication Date
DE102007021515A1 true DE102007021515A1 (de) 2007-11-08

Family

ID=38565083

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007021515A Withdrawn DE102007021515A1 (de) 2006-05-05 2007-05-04 Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden

Country Status (4)

Country Link
US (3) US8471866B2 (de)
JP (1) JP2007296335A (de)
CN (1) CN101066212B (de)
DE (1) DE102007021515A1 (de)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7542034B2 (en) * 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
ES2524303T3 (es) 2006-05-08 2014-12-05 C.R. Bard, Inc. Interfaz de usuario y métodos para un dispositivo de presentación ecográfica
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
US8816959B2 (en) * 2007-04-03 2014-08-26 General Electric Company Method and apparatus for obtaining and/or analyzing anatomical images
JP5454844B2 (ja) * 2008-08-13 2014-03-26 株式会社東芝 超音波診断装置、超音波画像表示装置及び超音波画像表示プログラム
US20100249591A1 (en) * 2009-03-24 2010-09-30 Andreas Heimdal System and method for displaying ultrasound motion tracking information
JP5484809B2 (ja) * 2009-07-16 2014-05-07 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
EP2512360B1 (de) 2009-12-14 2022-08-24 Smith&Nephew, Inc. Visualisierungsgeführtes acl-ortungssystem
JP2012040216A (ja) * 2010-08-20 2012-03-01 Fujifilm Corp 放射線画像信号の暗号化処理方法、復号化処理方法、放射線画像検出装置および放射線画像信号生成装置
KR101511084B1 (ko) 2012-10-11 2015-04-10 삼성메디슨 주식회사 의료 화상 표시 방법, 장치 및 사용자 인터페이스 화면 생성 방법
US20120310074A1 (en) * 2010-10-25 2012-12-06 Toshiba Medical Systems Corporation Medical image processing apparatus, a medical imaging apparatus, and a medical image processing program
US20120197123A1 (en) * 2011-01-31 2012-08-02 General Electric Company Systems and Methods for Determining Global Circumferential Strain in Cardiology
CN102860836B (zh) 2011-07-04 2015-01-07 株式会社东芝 图像处理装置、图像处理方法以及医用图像诊断装置
US20130088511A1 (en) * 2011-10-10 2013-04-11 Sanjit K. Mitra E-book reader with overlays
JP6253296B2 (ja) * 2012-08-28 2017-12-27 キヤノン株式会社 被検体情報取得装置、表示方法、及びプログラム
JP6021520B2 (ja) * 2012-08-28 2016-11-09 キヤノン株式会社 被検体情報取得装置、表示方法、及びプログラム
US10568586B2 (en) * 2012-10-05 2020-02-25 Volcano Corporation Systems for indicating parameters in an imaging data set and methods of use
CN103845076B (zh) * 2012-12-03 2019-07-23 深圳迈瑞生物医疗电子股份有限公司 超声系统及其检测信息的关联方法和装置
US9983905B2 (en) 2012-12-06 2018-05-29 White Eagle Sonic Technologies, Inc. Apparatus and system for real-time execution of ultrasound system actions
US9529080B2 (en) 2012-12-06 2016-12-27 White Eagle Sonic Technologies, Inc. System and apparatus having an application programming interface for flexible control of execution ultrasound actions
US10499884B2 (en) 2012-12-06 2019-12-10 White Eagle Sonic Technologies, Inc. System and method for scanning for a second object within a first object using an adaptive scheduler
US9773496B2 (en) 2012-12-06 2017-09-26 White Eagle Sonic Technologies, Inc. Apparatus and system for adaptively scheduling ultrasound system actions
US10076313B2 (en) 2012-12-06 2018-09-18 White Eagle Sonic Technologies, Inc. System and method for automatically adjusting beams to scan an object in a body
CN105120761B (zh) * 2013-03-13 2020-02-07 B-K医疗公司 具有曲线描迹的超声矢量流成像(vfi)
EP2967473B1 (de) * 2013-03-15 2020-02-19 Hologic, Inc. System und verfahren zum navigieren eines tomosynthesestapels mit automatischer fokussierung
CN103558291B (zh) * 2013-11-13 2017-01-04 北京安铁软件技术有限公司 一种车轮检测数据的显示方法及装置
KR20150086717A (ko) * 2014-01-20 2015-07-29 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
JP2015159945A (ja) * 2014-02-27 2015-09-07 富士フイルム株式会社 画像表示装置、方法およびプログラム
KR102268668B1 (ko) 2014-03-12 2021-06-24 삼성메디슨 주식회사 대상체에 대한 복수의 상이한 영상들을 디스플레이하는 방법 및 장치
CN107205725B (zh) * 2015-01-29 2020-06-30 皇家飞利浦有限公司 通过实时超声应变成像对心肌梗塞的评估
CN109310362B (zh) * 2016-04-27 2023-03-10 心肌解决方案股份有限公司 通过来自磁共振成像的应变测量值快速定量评估心脏功能
JP6828585B2 (ja) 2016-11-30 2021-02-10 株式会社リコー 情報表示システム、情報表示プログラム、及び情報表示方法
JP7277053B2 (ja) 2017-03-30 2023-05-18 ホロジック, インコーポレイテッド 階層式マルチレベル特徴画像合成および提示のためのシステムおよび方法
EP3600051B1 (de) 2017-03-30 2024-05-01 Hologic, Inc. Verfahren zur synthese von niedrigdimensionalen bilddaten aus hochdimensionalen bilddaten unter verwendung einer objektgittererweiterung
US11138774B2 (en) 2017-10-03 2021-10-05 Intel Corporation Visual inspection method for graphs pictures in internet browser
US11006926B2 (en) * 2018-02-27 2021-05-18 Siemens Medical Solutions Usa, Inc. Region of interest placement for quantitative ultrasound imaging
US10685439B2 (en) * 2018-06-27 2020-06-16 General Electric Company Imaging system and method providing scalable resolution in multi-dimensional image data
CN109753528A (zh) * 2018-12-08 2019-05-14 深圳科安达电子科技股份有限公司 一种基于大数据的提速道岔可视化分析方法
CN109557856A (zh) * 2018-12-08 2019-04-02 深圳科安达电子科技股份有限公司 一种提速道岔运行数据可视化展示系统
US11478222B2 (en) * 2019-05-22 2022-10-25 GE Precision Healthcare LLC Method and system for ultrasound imaging multiple anatomical zones
US11872019B2 (en) 2019-06-05 2024-01-16 Myocardial Solutions, Inc. MRI-derived strain-based measurements and related image data acquisitions, image data processing, patient evaluations and monitoring methods and systems
CN111105414A (zh) * 2019-12-31 2020-05-05 杭州依图医疗技术有限公司 处理方法、交互方法、显示方法及存储介质
CN111462282B (zh) * 2020-04-02 2023-01-03 哈尔滨工程大学 一种场景图生成方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1103188A (zh) * 1993-11-20 1995-05-31 南京航空航天大学 医用图象处理系统
EP0912137A4 (de) * 1996-07-17 2001-04-11 Cambridge Heart Inc Erzeugung von lokalen kardialen eingriffen
JP4116122B2 (ja) 1997-11-28 2008-07-09 株式会社東芝 超音波診断装置及び超音波画像処理装置
DE19801240A1 (de) * 1998-01-12 1999-07-29 Cybernetic Vision Ag Verfahren und Vorrichtung zur Darstellung und Überwachung von Funktionsparametern eines physiologischen Systems
US6674879B1 (en) 1998-03-30 2004-01-06 Echovision, Inc. Echocardiography workstation
WO1999049775A2 (en) 1998-03-30 1999-10-07 Echovision, Inc. Echocardiography workstation
US20040015079A1 (en) 1999-06-22 2004-01-22 Teratech Corporation Ultrasound probe with integrated electronics
US9402601B1 (en) 1999-06-22 2016-08-02 Teratech Corporation Methods for controlling an ultrasound imaging procedure and providing ultrasound images to an external non-ultrasound application via a network
US6574503B2 (en) * 2000-04-26 2003-06-03 Medtronic, Inc. GUI coding for identification of displayable data quality from medical devices
GB0109720D0 (en) * 2001-04-20 2001-06-13 Koninkl Philips Electronics Nv Display apparatus and image encoded for display by such an apparatus
JP3802462B2 (ja) * 2001-08-06 2006-07-26 アロカ株式会社 超音波診断装置
US7155043B2 (en) * 2001-11-21 2006-12-26 Confirma, Incorporated User interface having analysis status indicators
US6694175B1 (en) * 2002-02-19 2004-02-17 Eurica Califorrniaa Method of monitoring the body temperature of human embryos and hatchlings
JP4060615B2 (ja) * 2002-03-05 2008-03-12 株式会社東芝 画像処理装置及び超音波診断装置
US6778852B2 (en) * 2002-03-14 2004-08-17 Inovise Medical, Inc. Color-coded ECG
US8401255B2 (en) * 2002-12-18 2013-03-19 General Electric Company Computer-assisted reconciliation of multiple image reads
WO2004070350A2 (en) 2003-01-29 2004-08-19 Mayo Foundation For Medical Education And Reserch New parametric imaging solution
JP2006521146A (ja) * 2003-03-27 2006-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 広いビューの三次元超音波イメージングにより侵襲的医療装置を案内する方法及び装置
US20050113680A1 (en) * 2003-10-29 2005-05-26 Yoshihiro Ikeda Cerebral ischemia diagnosis assisting apparatus, X-ray computer tomography apparatus, and apparatus for aiding diagnosis and treatment of acute cerebral infarct
US20050114175A1 (en) 2003-11-25 2005-05-26 O'dea Paul J. Method and apparatus for managing ultrasound examination information
WO2005122906A1 (ja) * 2004-06-18 2005-12-29 Hitachi Medical Corporation 超音波診断装置
JP4314166B2 (ja) 2004-07-15 2009-08-12 アロカ株式会社 超音波診断装置
JP4733938B2 (ja) * 2004-07-16 2011-07-27 株式会社東芝 超音波診断装置および超音波画像処理装置
DE102004036726A1 (de) * 2004-07-29 2006-03-16 Siemens Ag Verfahren und Vorrichtung zur Visualisierung von Ablagerungen in Blutgefäßen, insbesondere in Herzkranzgefäßen
US8734351B2 (en) * 2004-08-05 2014-05-27 Hitachi Medical Corporation Method of displaying elastic image and diagnostic ultrasound system
US7715608B2 (en) * 2004-08-10 2010-05-11 Siemens Medical Solutions Usa, Inc. System and method for 3D visualization of lung perfusion or density and statistical analysis thereof
DE102005002949A1 (de) * 2005-01-21 2006-08-03 Siemens Ag Verfahren zur Visualisierung von Schädigungen im Myokard
US7813535B2 (en) * 2005-04-19 2010-10-12 Siemens Medical Solutions Usa, Inc. System and method for fused PET-CT visualization for heart unfolding
US7751874B2 (en) * 2005-04-25 2010-07-06 Charles Olson Display for ECG diagnostics
US20070016016A1 (en) * 2005-05-31 2007-01-18 Gabriel Haras Interactive user assistant for imaging processes

Also Published As

Publication number Publication date
US8471866B2 (en) 2013-06-25
US20140347388A1 (en) 2014-11-27
US8823737B2 (en) 2014-09-02
US20130286023A1 (en) 2013-10-31
US20070258632A1 (en) 2007-11-08
JP2007296335A (ja) 2007-11-15
CN101066212B (zh) 2013-09-11
CN101066212A (zh) 2007-11-07
US9024971B2 (en) 2015-05-05

Similar Documents

Publication Publication Date Title
DE102007021515A1 (de) Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden
DE102007019652A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem
DE102007015527B4 (de) Querverweis-Messung für die diagnostische medizinische Bildgebung
DE102009033286B4 (de) Scherwellenbildgebung
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE102007020862A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen in einem Ultraschallsystem
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE102011001819A1 (de) Verfahren und System zur Bestimmung eines interessierenden Bereichs in Ultraschalldaten
DE60012310T2 (de) Ultraschallbildverarbeitungsverfahren und -system zur darstellung einer farbkodierten ultraschallbilsequenz eines körpers mit beweglichen teilen
DE102007019859A1 (de) Benutzerschnittstelle für Ultraschallsystem mit automatischer Mehrfachebenenbildung
DE102018216296A1 (de) Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung
DE102005025835A1 (de) Verfahren und Vorrichtung zur Nebeneinanderdarstellung von Inversmodus-Ultraschallbildern und Histogrammen
DE102009026110A1 (de) Vorrichtung und Verfahren zur Darstellung eines Ultraschallmesskopfes relativ zu einem Objekt
DE102010015973A1 (de) System und Verfahren zur funktionellen Ultraschallbildgebung
DE102018218751A1 (de) Machinengestützter arbeitsablauf bei der ultraschallbildgebung
DE102010015937A1 (de) System und Verfahren zur Anzeige von Ultraschallbewegungsverfolgungsinformationen
US20120245465A1 (en) Method and system for displaying intersection information on a volumetric ultrasound image
DE102010061577A1 (de) Verfahren und System zur Verarbeitung von Ultraschalldaten
DE112006002162T5 (de) Verfahren und System zur Kartierung von pysiologischen Informationen auf anatomische Strukturen, welche auf Ultraschall beruhen
DE102016104263A1 (de) Kontinuierlich ausgerichtete verbesserte Ultraschallbildgebung eines Teilvolumens
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
DE102013021729A1 (de) Verbesserung der nadelvisualisierung in der diagnostischen ultraschallbildgebung
DE112004000607T5 (de) Verfahren und Vorrichtung für eine wissensbasierte diagnostische Bildgebung
DE102010049324A1 (de) Fötus-Rendering in der medizinischen diagnostischen Ultraschallbildgebung
DE102007020317A1 (de) Vorrichtung und Verfahren zur 3D-Visualisierung von Strömungsflüssen

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20140325

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee