DE112012002671T5 - Anzeigen einer Vielzahl von registrierten Bildern - Google Patents

Anzeigen einer Vielzahl von registrierten Bildern Download PDF

Info

Publication number
DE112012002671T5
DE112012002671T5 DE112012002671.3T DE112012002671T DE112012002671T5 DE 112012002671 T5 DE112012002671 T5 DE 112012002671T5 DE 112012002671 T DE112012002671 T DE 112012002671T DE 112012002671 T5 DE112012002671 T5 DE 112012002671T5
Authority
DE
Germany
Prior art keywords
image data
viewport
data set
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112012002671.3T
Other languages
English (en)
Inventor
Kirsten Regina Meetz
lngwer-Curt Carlsen
Rafael Wiemker
Thomas Buelow
Martin Bergtholdt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips GmbH
Original Assignee
Philips Intellectual Property and Standards GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Intellectual Property and Standards GmbH filed Critical Philips Intellectual Property and Standards GmbH
Publication of DE112012002671T5 publication Critical patent/DE112012002671T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

Es wird ein System zum Anzeigen einer Vielzahl von registrierten Bildern beschrieben. Eine erste Ansichtsfenstereinheit (1) zeigt eine Darstellung eines ersten Bilddatensatzes (4) in einem ersten Ansichtsfenster (201) an. Eine zweite Ansichtsfenstereinheit (2) zeigt eine Darstellung eines zweiten Bilddatensatzes (5) in einem zweiten Ansichtsfenster (202) an. Eine Positionsangabeeinheit (7) befähigt einen Benutzer, eine Position in dem im ersten Ansichtsfenster (201) angezeigten ersten Bilddatensatz (4) anzugeben, um eine vom Benutzer angegebene Position zu erhalten. Eine Übereinstimmungspositionsermittlungseinheit (8) ermittelt eine mit der vom Benutzer angegebenen Position übereinstimmende Position in dem zweiten Bilddatensatz (5) basierend auf Übereinstimmungsinformationen (9), die Positionen in dem ersten Bilddatensatz (4) auf hiermit übereinstimmende Positionen in dem zweiten Bilddatensatz (5) abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz (5) zu erhalten. Die zweite Ansichtsfenstereinheit (2) zeigt eine Angabe der übereinstimmenden Position im zweiten Ansichtsfenster (202) an.

Description

  • ANWENDUNGSGEBIET DER ERFINDUNG
  • Die Erfindung bezieht sich auf das Anzeigen einer Vielzahl von registrierten Bildern.
  • HINTERGRUND DER ERFINDUNG
  • Der Erfolg der chemotherapeutischen Behandlung von Krebs ist nicht bei jedem Patienten, jeder Krebsart oder jeder Behandlungsart gleich. Falls die Behandlung kein optimales Ergebnis liefert, werden möglicherweise Maßnahmen getroffen, um die Situation zu verbessern, zum Beispiel indem das Behandlungsprotokoll angepasst wird. Zu diesem Zweck kann während der Therapie die Therapieresponse eines Tumors überwacht werden. Die medizinische Bildgebung, zum Beispiel die Magnetresonanz(MR)-Bildgebung, liefert Daten, von denen die Therapieresponse eines Tumors abgeleitet werden kann. Zum Beispiel können MR-Scans vor der Behandlung und nach zumindest einem Teil der Behandlung durchgeführt werden. Auf diese Weise kann der Tumor über die Zeit verfolgt werden und das Ansprechen auf die Behandlung beurteilt werden. Zum Beispiel kann die Größe eines Tumors mit Hilfe einer medizinischen Workstation gemessen werden. Allerdings sind die aktuell verwendeten manuellen Messungen von begrenzter Belastbarkeit und Reproduzierbarkeit. Das Verfolgen eines Tumors über die Zeit setzt voraus, dass er in den Bilddaten gefunden und gekennzeichnet wird, was ein zeitaufwändiger Prozess ist.
  • In der Abhandlung ”Quantitative imaging to assess tumor response to therapy: common themes of measurement, truth data, and error sources” von C. R. Meyer et al., Translational Oncology, Band 2, Nr. 4, Dezember 2009, S. 198–210, werden mehrere, von der Bildgebungsmodalität unabhängige Mittel zur Beurteilung der relativen Leistungsfähigkeit von Algorithmen für die Messung der Tumorveränderung in Reaktion auf die Therapie beschrieben.
  • In der Patentschrift US 7.708.682 B2 werden ein Verfahren und ein Gerät zur Planung der Strahlentherapie beschrieben. Eine Strahlendosisverteilung wird auf der Basis von Form- und Positionsveränderungen der interessierenden Organe angepasst, die anhand eines Vergleichs eines ersten und eines zweiten Bildes ermittelt werden, welche zu verschiedenen Zeitpunkten während des Strahlungsbehandlungsprozesses aufgenommen wurden. Zuerst wird ein Oberflächenmesh an die Oberfläche des interessierenden Objekts in dem ersten Bild angepasst und dann an die interessierende Oberfläche in dem zweiten Bild. Anschließend wird eine Differenz zwischen den beiden angepassten Oberflächenmeshes ermittelt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es wäre vorteilhaft, eine verbesserte Anzeige einer Vielzahl von registrierten Bildern zu haben. Um diesem Anliegen Rechnung zu tragen, liefert ein erster Aspekt der Erfindung ein System, das Folgendes umfasst:
    ein erstes Ansichtsfenster zum Anzeigen einer Darstellung eines ersten Bilddatensatzes;
    ein zweites Ansichtsfenster zum Anzeigen einer Darstellung eines zweiten Bilddatensatzes;
    eine Positionsangabeeinheit, um einen Benutzer zu befähigen, eine Position in dem im ersten Ansichtsfenster angezeigten ersten Bilddatensatz anzugeben, um eine vom Benutzer angegebene Position zu erhalten; und
    eine Übereinstimmungspositionsermittlungseinheit zum Ermitteln einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem ersten Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten;
    wobei das zweite Ansichtsfenster vorgesehen ist, um eine Angabe der übereinstimmenden Position im zweiten Ansichtsfenster anzuzeigen.
  • Dieses System ermöglicht einen einfacheren und schnelleren Vergleich des ersten Bildes mit dem zweiten Bild, weil der Benutzer nur eine interessierende Struktur anzugeben braucht, z. B. einen Tumor in dem ersten Bild, und die übereinstimmende Struktur automatisch im zweiten Ansichtsfenster angegeben wird. Mit Hilfe eines einzelnen Klicks kann eine automatische Quantifizierung des Tumors in beiden Bildern aktiviert werden. Es ist nicht erforderlich, die Anzeige von entweder dem ersten oder dem zweiten Bild zu verformen oder zu verwinden, wie dies oft bei bestehenden Systemen geschieht, um elastische Registrierungsergebnisse anzuzeigen, so dass der Benutzer nachvollziehen kann, welche Positionen der Bilder einander entsprechen. Stattdessen wird für jegliche vom Benutzer angegebene Position die übereinstimmende Position in dem anderen Bild angezeigt. Dies ist wichtig, weil der Benutzer bei der Beurteilung der Therapieresponse Veränderungen des interessierenden Tumors identifiziert. Wenn ein Verwinden angewendet wird, würden diese Veränderungen mit den künstlichen Verformungen vermischt.
  • Das erste Bild kann ein Objekt darstellen und kann einer ersten Erfassungszeit zugeordnet sein, und das zweite Bild kann das gleiche Objekt darstellen und einer anderen Erfassungszeit zugeordnet sein. Die Übereinstimmungsinformationen können eine Verformung des Objekts zwischen den Erfassungszeiten darstellen. Diese Art von Bilddaten und Übereinstimmungsinformationen stellt eine wichtige Anwendung der beschriebenen Techniken dar. Durch Angeben einer Position in dem ersten Ansichtsfenster kann der Benutzer gleichzeitig die Position in dem zweiten Ansichtsfenster angeben, weil diese Angabe automatisch basierend auf den Übereinstimmungsinformationen geliefert wird. Da sich beide Bilder auf das gleiche Objekt beziehen, ist es möglich, zum Beispiel Verarbeitungsschritte basierend auf den Positionen in beiden Bildern gleichzeitig einzuleiten.
  • Das zweite Ansichtsfenster kann vorgesehen sein, um einen Umriss von mindestens einem Teil des Objekts, der der ersten Erfassungszeit zugeordnet ist, basierend auf dem ersten Bild und/oder den Übereinstimmungsinformationen anzuzeigen. Dies erleichtert den Vergleich der Form des Objekts bei der ersten und der zweiten Erfassungszeit.
  • Das zweite Ansichtsfenster kann vorgesehen sein, um eine Schicht des zweiten Bildes anzuzeigen. Das System kann weiterhin eine Schichtauswahleinheit zum Auswählen einer Schicht umfassen, die die übereinstimmende Position enthält. Dies ist vor allem von Interesse, wenn mindestens einer der Bilddatensätze dreidimensionale (oder höherdimensionale) Bilder darstellt. Eine Schichtansicht kann erzeugt werden, um eine Schicht des drei- oder höherdimensionalen Bildes anzuzeigen. Die vom Benutzer angegebene Position und die übereinstimmende Position liegen jedoch nicht unbedingt in der gleichen Schicht, so dass es schwierig ist, übereinstimmende Strukturen in beiden Ansichtsfenstern darzustellen. Aus diesem Grund kann das zweite Ansichtsfenster vorgesehen sein, um die angezeigte Schicht entsprechend der übereinstimmenden Position anzupassen.
  • Die Übereinstimmungsinformationen können starre Registrierungsinformationen umfassen, um eine Rotation oder Translation von mindestens einem Teil des durch die Bilder dargestellten Objekts zu berücksichtigen, und nicht-starre Registrierungsinformationen, um eine Verformung des Objekts zu berücksichtigen, wobei das zweite Ansichtsfenster vorgesehen ist, um das zweite Bild basierend auf den starren Registrierungsinformationen zu drehen oder zu verschieben, und wobei die Anzeige der Angabe der übereinstimmenden Position auf den nicht-starren Registrierungsinformationen beruht. Dies ist eine vorteilhafte Kombination aus dem Anpassen der Anzeige des Objekts in dem zweiten Ansichtsfenster (basierend nur auf Rotation/Translation) und dem Bereitstellen der Angabe der übereinstimmenden Position, um einen weiteren Vergleich zwischen den Bildern zu ermöglichen. Die Rotation/Translation erleichtert den Vergleich des Objekts zwischen den beiden Ansichtsfenstern, ohne irgendwelche Unterschiede in der Form zu entfernen. Das System kann weiterhin ein genaues visuelles Vergleichen des ersten Bildes mit dem zweiten Bild ermöglichen, indem es lokal eine starre Transformation anwendet, zum Beispiel eine Rotation der interessierenden Struktur in dem zweiten Ansichtsfenster, so dass einander anatomisch entsprechende Querschnitte der interessierenden Struktur angezeigt werden und ein aussagekräftiger Vergleich möglich ist.
  • Die Übereinstimmungsinformationen können ein erstes Formmodell, das an den ersten Bilddatensatz angepasst ist, und ein zweites Formmodell, das an den zweiten Bilddatensatz angepasst ist, umfassen. Dies ist eine effektive Möglichkeit zum Erzeugen der Übereinstimmungsinformationen. Alternativ oder zusätzlich können die Übereinstimmungsinformationen zum Beispiel durch einen starren oder elastischen Registrierungsalgorithmus abgeleitet werden.
  • Die Positionsangabeeinheit kann dafür ausgelegt sein, dem Benutzer das Angeben der vom Benutzer angegebenen Position durch Positionieren eines Mauscursors auf dem ersten Ansichtsfenster zu ermöglichen. Hierdurch wird ein einfaches Angeben der vom Benutzer angegebenen Position möglich.
  • Die Positionsangabeeinheit kann dafür ausgelegt sein, dem Benutzer das Angeben der vom Benutzer angegebenen Position mit Hilfe eines Berührungsbildschirms zu ermöglichen. Hierdurch wird ein einfaches Angeben der vom Benutzer angegebenen Position möglich.
  • Die Positionsangabeeinheit kann dafür ausgelegt sein, dem Benutzer das Eingeben einer Sequenz von aufeinanderfolgenden vom Benutzer angegebenen Positionen zu ermöglichen, indem er einen Zeiger über das erste Ansichtsfenster bewegt, wobei die Übereinstimmungsermittlungseinheit dafür ausgelegt ist, die übereinstimmende Position zu aktualisieren, während der Zeiger über das erste Ansichtsfenster bewegt wird, und wobei das zweite Ansichtsfenster dafür ausgelegt ist, die Anzeige der Angabe der übereinstimmenden Position zu aktualisieren, während die übereinstimmende Position aktualisiert wird. Dies schafft einen besonders angenehmen Effekt, weil hierdurch auf einfache Weise eine große Anzahl von übereinstimmenden Positionen in kurzer Zeit betrachtet werden kann.
  • Das System kann eine Vielzahl von zweiten Ansichtsfenster umfassen, um die Anzeige einer Vielzahl von jeweiligen zweiten Bilddatensätzen mit zugehörigen Übereinstimmungsinformationen zu ermöglichen. Die Übereinstimmungsermittlungseinheit kann dafür ausgelegt sein, die jeweiligen übereinstimmenden Positionen in der Vielzahl von zweiten Bildern basierend auf der angegebenen Position und den Übereinstimmungsinformationen zu ermitteln. Die Vielzahl von zweiten Ansichtsfenstern kann dafür vorgesehen sein, jeweilige Angaben der jeweiligen übereinstimmenden Positionen in den jeweiligen Ansichtsfenstern anzuzeigen. Auf diese Weise kann eine Position in einer Struktur in einer beliebigen Anzahl von Bildern angegeben werden, indem die Position in nur einem der Bilder angegeben wird.
  • Der erste Bilddatensatz und die jeweiligen zweiten Bilddatensätze können Teil einer Zeitsequenz der erfassten Bilder eines Objekts sein. Dies ermöglicht das Betrachten der Angabe der übereinstimmenden Positionen in einer Zeitsequenz der Bilder eines Objekts.
  • Das System kann eine manuelle Korrektureinheit umfassen, um einem Benutzer zu ermöglichen, zumindest einen Teil der Übereinstimmungsinformationen durch Angeben einer Merkpunktposition in mindestens einem der Bilder zu korrigieren. Hierdurch wird es dem Benutzer möglich, jegliche automatisch erzeugte Übereinstimmungsinformationen zu umgehen.
  • In einem weiteren Aspekt schafft die Erfindung eine Workstation mit einem beschriebenen System. In noch einem weiteren Aspekt schafft die Erfindung ein Bilderfassungsgerät mit einem Scanner zum Erfassen von einem oder mehreren oder allen Bilddatensätzen und mit einem beschriebenen System zur Anzeige einer Vielzahl von registrierten Bildern.
  • In einem weiteren Aspekt schafft die Erfindung ein Verfahren zur Anzeige einer Vielzahl von registrierten Bildern, das folgende Schritte umfasst:
    Anzeigen einer Darstellung eines ersten Bilddatensatzes;
    Anzeigen einer Darstellung eines zweiten Bilddatensatzes;
    Befähigen eines Benutzers, eine Position in dem im ersten Ansichtsfenster angezeigten ersten Datensatz anzugeben, um eine vom Benutzer angegebene Position zu erhalten;
    Ermitteln einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem ersten Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten; und
    Anzeigen einer Angabe der übereinstimmenden Position im zweiten Ansichtsfenster.
  • In einem weiteren Aspekt schafft die Erfindung ein Computerprogrammprodukt mit Anweisungen zum Veranlassen eines Prozessorsystems, ein hier beschriebenes Verfahren auszuführen.
  • Der Fachkundige wird erkennen, dass zwei oder mehrere der oben genannten Ausführungsformen, Implementierungen und/oder Aspekte der Erfindung in jeglicher für nützlich gehaltenen Weise kombiniert werden können. Es versteht sich, dass sich die hier beschriebenen Techniken auf zweidimensionale, dreidimensionale, vierdimensionale und höherdimensionale Bilddatensätze beziehen. Diese Bilddatensätze können mit Hilfe eines beliebigen geeigneten Bilderfassungsgeräts erfasst werden, zum Beispiel mit einer Digitalkamera, einem Röntgengerät, einem Computertomographiegerät, einem Magnetresonanzgerät, einem auf der Nuklearmedizin basierendem Scanner oder einem Ultraschallgerät.
  • Abwandlungen und Variationen des Bilderfassungsgeräts, der Workstation, des Systems, des Verfahrens und/oder des Computerprogrammprodukts, die den beschriebenen Abwandlungen und Variationen des Systems entsprechen, können durch einen Fachkundigen auf der Grundlage der vorliegenden Beschreibung vorgenommen werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese und andere Aspekte der Erfindung sind aus der obigen Beschreibung ersichtlich und werden im Folgenden unter Bezugnahme auf die Zeichnungen erläutert. Es zeigen:
  • 1 ein Blockschaltbild eines Systems zur Anzeige einer Vielzahl von registrierten Bildern;
  • 2 eine Skizze eines durch das hier beschriebene System oder Verfahren erzeugten Screenshots;
  • 3 einen Ablaufplan mit den Schritten eines Verfahrens zur Anzeige einer Vielzahl von registrierten Bildern.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • 1 zeigt ein Beispiel eines Systems zur Anzeige einer Vielzahl von registrierten Bildern. Es ist zu beachten, dass viele der in der Zeichnung dargestellten Elemente optional sind oder durch eine gleichwertige Einheit ersetzt werden können. Das System kann zum Beispiel auf einem Computersystem mit Hilfe eines geeigneten Computerprogramms implementiert werden. Das Computersystem kann aus einer Workstation bestehen. Das Computersystem kann auch Teil eines verteilten Computersystems sein, das zahlreiche Funktionalitäten haben kann, zum Beispiel Speicherung und Verteilung von Bildern und/oder anderen Informationen. Ein Beispiel eines derartigen verteilten Systems ist ein Bildarchivierungs- und Kommunikationssystem (Picture Archiving and Communication System, PACS). Das System kann eine Anzeigeeinheit zum Anzeigen der Bilder und anderer Informationen sowie ein Benutzereingabegerät wie zum Beispiel eine Maus oder Tastatur umfassen. Die Anzeige und das Benutzereingabegerät können in einen berührungsempfindlichen Bildschirm integriert sein.
  • 2 zeigt eine Anzeigeeinheit 200, die eine Vielzahl von Ansichtsfenstern 201206 darstellt. Die Anzahl von sechs Ansichtsfenstern in der Zeichnung ist nur ein willkürliches Beispiel. Es kann jegliche Anzahl von zwei oder mehr Ansichtsfenstern benutzt werden. Ein Ansichtsfenster ist als ein Bereich der Anzeige zu verstehen, in dem ein bestimmtes Element angezeigt wird. In der folgenden Beschreibung wird das System unter Bezugnahme auf die 1 und 2 beschrieben.
  • Das System kann eine erste Ansichtsfenstereinheit 1 zum Steuern des ersten Ansichtsfensters 201 umfassen. Das System kann eine zweite Ansichtsfenstereinheit 2 zum Steuern des zweiten Ansichtsfensters 202 umfassen. Auf ähnliche Weise kann das System eine Vielzahl von zweiten Ansichtsfenstereinheiten 2, 3 umfassen, die dafür ausgelegt sind, eine Vielzahl von zweiten Ansichtsfenstern 202206 zu steuern. Beispielsweise können die zweiten Ansichtsfenstereinheiten 2, 3 unter Verwendung des gleichen Softwarecodes oder unter Verwendung von Kopien des gleichen Softwarecodes mit unterschiedlichen Parametern wie unterschiedlichen Bilddatensätzen und unterschiedlichen Ansichtsfensterkoordinaten, mit denen gearbeitet werden soll, implementiert werden.
  • Die erste Ansichtsfenstereinheit 1 kann vorgesehen sein, um eine Darstellung eines ersten Bilddatensatzes 4 in dem ersten Ansichtsfenster 201 anzuzeigen. Zum Beispiel kann im Fall eines mindestens dreidimensionalen Bilddatensatzes eine Maximumintensitätsprojektion, ein Surface Rendering oder eine Schichtansicht angezeigt werden. Im Fall eines zweidimensionalen Bilddatensatzes kann der Bilddatensatz auf eine in der Technik an sich bekannten Weise visualisiert werden. Die zweite Ansichtsfenstereinheit 2 kann vorgesehen sein, um eine Darstellung eines zweiten Bilddatensatzes 5 in dem zweiten Ansichtsfenster 202 anzuzeigen. Die zweite Ansichtsfenstereinheit kann das gleiche Rendering-Verfahren nutzen wie die erste Ansichtsfenstereinheit oder ein anderes Rendering-Verfahren.
  • Das System kann eine Positionsangabeeinheit 7 umfassen, die dafür vorgesehen ist, dem Benutzer zu ermöglichen, eine Position in dem ersten Datensatz 4 anzugeben, der in dem ersten Ansichtsfenster 201 angezeigt wird. Die Angabe kann auf eine in der Technik an sich bekannten Weise erfolgen, um eine vom Benutzer angegebene Position in dem ersten Bilddatensatz zu erhalten. Im Fall einer Schichtansicht zum Beispiel kann die Position in einem dreidimensionalen Raum von der in dem Ansichtsfenster angegebenen Position und den Parametern der Schicht, zum Beispiel der Schichtzahl, abgeleitet werden.
  • Das System kann eine Übereinstimmungspositionsermittlungseinheit 8 umfassen, die dafür vorgesehen ist, eine Position in dem zweiten Bilddatensatz 5 zu ermitteln, die mit der vom Benutzer angegebenen Position übereinstimmt. Auf diese Weise wird eine übereinstimmende Position in dem zweiten Bilddatensatz 5 erlangt. Zu diesem Zweck werden Übereinstimmungsinformationen 9 verwendet, die Positionen in dem ersten Bilddatensatz 4 auf übereinstimmende Positionen in dem zweiten Bilddatensatz 5 abbilden. Die Übereinstimmungsinformationen 9 können bei Bedarf interpoliert werden, um die übereinstimmende Position für die vom Benutzer angegebene Position zu finden.
  • Die zweite Ansichtsfenstereinheit 2 kann vorgesehen sein, um eine Angabe der übereinstimmenden Position in dem zweiten Ansichtsfenster 202 anzuzeigen. Zum Beispiel kann ein Pfeil gezeigt werden, der auf die übereinstimmende Position in dem zweiten Bilddatensatz 5 weist, wie er in dem zweiten Ansichtsfenster 202 dargestellt ist. Alternativ kann ein Punkt oder ein anderes Symbol angezeigt werden. Alternativ kann die Position durch Verwenden einer anderen Farbe hervorgehoben werden.
  • Der erste Bilddatensatz 4 kann ein Objekt 207 darstellen. Zum Beispiel kann der erste Bilddatensatz eine Fotografie des Objekts 207 sein oder ein medizinisches Bild eines Patienten mit dem Objekt 207 als ein Organ. Der erste Bilddatensatz 4 kann einer ersten Erfassungszeit zugeordnet sein. Auf ähnliche Weise kann der zweite Bilddatensatz 5 das gleiche Objekt darstellen, wobei der zweite Bilddatensatz 5 einer anderen Erfassungszeit zugeordnet sein kann. Zum Beispiel kann der zweite Bilddatensatz 5 mit der gleichen Bildgebungsmodalität gewonnen werden wie der erste Bilddatensatz 4 oder mit einer anderen Bildgebungsmodalität. Die Übereinstimmungsinformationen 9 können eine Verformung des Objekts 207 zwischen den Erfassungszeiten darstellen. 2 veranschaulicht, wie das in den Datensätzen dargestellte Objekt 207212 in den jeweiligen verschiedenen Ansichtsfenstern 201206 mit unterschiedlichen Formen gezeigt wird. Als veranschaulichendes Beispiel wurde eine kubische Form verwendet. In der Praxis kann das Objekt 207212 ein Organ oder ein Tumor sein, dessen Form sich aufgrund von zum Beispiel einer Behandlung verändert.
  • Die zweite Ansichtsfenstereinheit 2 kann vorgesehen sein, um einen Umriss 207' in dem zweiten Ansichtsfenster anzuzeigen. Dieser Umriss 207' ist der Umriss von mindestens einem Teil des Objekts 207, der einer ersten Erfassungszeit zugeordnet ist, basierend auf dem ersten Bild. Demzufolge kann in dem zweiten Ansichtsfenster 202 beobachtet werden, wie sich das Objekt verändert hat.
  • Wie oben beschrieben, kann die zweite Ansichtsfenstereinheit 2 dafür vorgesehen sein, eine Schicht des zweiten Bilddatensatzes anzuzeigen. Das System kann eine Schichtauswahleinheit 16 zum Auswählen einer Schicht umfassen, die die übereinstimmende Position umfasst. Die zweite Ansichtsfenstereinheit 2 kann dafür vorgesehen sein, die ausgewählte Schicht anzuzeigen. Die zweite Ansichtsfenstereinheit 2 kann optional dafür vorgesehen sein, eine weitere graphische Angabe der übereinstimmenden Position aufzuweisen.
  • Die Übereinstimmungsinformationen 9 können starre Registrierungsinformationen 10 umfassen, um eine Rotation oder eine Translation von mindestens einem Teil des durch die Bilddatensätze dargestellten Objekts zu berücksichtigen. Außerdem können die Übereinstimmungsinformationen nicht-starre Registrierungsinformationen 11 umfassen, um eine Verformung des Objekts, einschließlich einer Veränderung der Größe, zu berücksichtigen. Die zweite Ansichtsfenstereinheit 2 kann vorgesehen sein, um den zweiten Bilddatensatz basierend auf den starren Registrierungsinformationen 10 zu drehen oder zu verschieben. Auf diese Weise wird das Objekt so ähnlich wie möglich in dem ersten und dem zweiten Ansichtsfenster gezeigt, ohne irgendeine Verformung des Objekts zu verdecken. Um eine einfache Angabe von anatomisch übereinstimmenden Punkten in der Vielzahl von Ansichtsfenstern zu ermöglichen, basiert die Anzeige der Angabe der übereinstimmenden Position auf den nicht-starren Registrierungsinformationen 11.
  • Die Übereinstimmungsinformationen 9 können ein oder mehrere Formmodelle 12 umfassen. Ein erstes Formmodell kann an den ersten Bilddatensatz 4 angepasst sein und ein zweites Formmodell kann an den zweiten Bilddatensatz 5 angepasst sein. Die übereinstimmenden Positionen können auf eine in der Technik an sich bekannten Weise mit Hilfe dieser Formmodelle codiert werden.
  • Die Positionsangabeeinheit 7 kann vorgesehen sein, um dem Benutzer zu ermöglichen, die vom Benutzer angegebene Position anzugeben, indem er einen Mauscursor in dem ersten Ansichtsfenster positioniert. Zu diesem Zweck kann die Positionsangabeeinheit betriebsfähig mit einem Mausgerät 13 oder einer Rollkugel oder einem Touchpad oder anderen Positioniermitteln verbunden sein. Alternativ kann es dem Benutzer ermöglicht werden, einen berührungsempfindlichen Bildschirm 14, der das erste Ansichtsfenster zeigt, an der gewünschten Position zu berühren.
  • Die Positionsangabeeinheit 7 kann vorgesehen sein, um dem Benutzer zu ermöglichen, eine Sequenz von aufeinanderfolgenden vom Benutzer angegebenen Positionen einzugeben, indem er einen Zeiger über ein erstes Ansichtsfenster bewegt. Die Übereinstimmungsermittlungseinheit 8 kann vorgesehen sein, um die übereinstimmende Position zu aktualisieren, während der Zeiger über das erste Ansichtsfenster bewegt wird. Die zweite Ansichtsfenstereinheit 2 kann vorgesehen sein, um die Anzeige der Angabe der übereinstimmenden Position zu aktualisieren, während die übereinstimmende Position aktualisiert wird. Auf diese Weise kann eine Echtzeitreaktion implementiert. werden. Außerdem kann die Anzeige fließend aktualisiert werden, während der Benutzer den Zeiger über das erste Ansichtsfenster führt.
  • Wie oben beschrieben, kann eine Vielzahl von zweiten Ansichtsfenstereinheiten 2, 3 unterstützt werden. Dies ermöglicht die Anzeige von einer Vielzahl von jeweiligen zweiten Bilddatensätzen 5, 6, denen Übereinstimmungsinformationen 9 zugeordnet sind. Die Übereinstimmungsermittlungseinheit 8 kann vorgesehen sein, um die übereinstimmenden Positionen in jedem der Vielzahl von zweiten Bilddatensätzen 5, 6, basierend auf der angegebenen Position und den Übereinstimmungsinformationen 9 zu ermitteln. Die Vielzahl von zweiten Ansichtsfenstereinheiten 2, 3 kann vorgesehen sein, um jeweilige Angaben der jeweiligen übereinstimmenden Positionen in den jeweiligen zweiten Ansichtsfenstern 202206 anzuzeigen. Diese Positionen können auch fließend aktualisiert werden, wie oben beschrieben.
  • Der erste Bilddatensatz 4 und die jeweiligen zweiten Bilddatensätze 5, 6 können Teil einer Zeitsequenz von erfassten Bildern eines Objekts sein.
  • Das System kann eine manuelle Korrektureinheit 15 umfassen, um einem Benutzer zu ermöglichen, zumindest einen Teil der Übereinstimmungsinformationen durch Angeben einer Merkpunktposition in mindestens einem der Bilder auf eine in der Technik an sich bekannten Weise zu korrigieren.
  • Das System kann in den Bildansichtteil eines Bilderfassungsgeräts integriert sein. Ein derartiges Gerät kann den Bildscanner umfassen (zum Beispiel einen CT-Scanner oder ein Röntgengerät), der zum Erfassen des ersten Bilddatensatzes und/oder des zweiten Bilddatensatzes verwendet wird.
  • 3 zeigt ein Verfahren zum Anzeigen einer Vielzahl von registrierten Bildern. Das Verfahren umfasst einen Schritt 301, in dem eine Darstellung eines ersten Bilddatensatzes angezeigt wird. Das Verfahren kann weiterhin einen Schritt 302 umfassen, in dem eine Darstellung eines zweiten Bilddatensatzes angezeigt wird. Das Verfahren kann weiterhin einen Schritt 303 umfassen, der es einem Benutzer ermöglicht, eine Position in dem ersten Bilddatensatz anzugeben, der in dem ersten Ansichtsfenster angezeigt wird, um eine vom Benutzer angegebene Position zu erhalten. Das Verfahren kann weiterhin einen Schritt 304 umfassen, in dem eine mit der vom Benutzer angegebenen Position übereinstimmende Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem ersten Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, ermittelt wird, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten. Das Verfahren kann weiterhin einen Schritt 305 umfassen, in dem eine Angabe der übereinstimmenden Position in dem zweiten Ansichtsfenster angezeigt wird. Das Verfahren kann durch den Fachkundigen in Hinblick auf diese Beschreibung angepasst werden. Das Verfahren kann mit Hilfe eines Computerprogramms implementiert werden.
  • Der Erfolg einer chemotherapeutischen Behandlung von Krebs ist nicht bei jedem Patienten, jeder Krebsart oder jeder Behandlungsart gleich. Um im Fall einer nicht erfolgreichen Behandlung reagieren zu können (zum Beispiel, indem das Behandlungsprotokoll angepasst wird), ist es nützlich, während der Therapie die Therapieresponse eines Tumors zu überwachen. Medizinische Bildgebung, zum Beispiel MR-Bildgebung, liefert Daten, von denen die Therapieresponse eines Tumors abgeleitet werden kann. Derzeit verwendete manuelle Messungen sind von begrenzter Belastbarkeit und Reproduzierbarkeit. Das Verfolgen eines Tumors über die Zeit setzt voraus, dass er in den Bilddaten gefunden und gekennzeichnet wird, was ein zeitaufwändiger Prozess ist.
  • Es kann eine graphische Benutzeroberfläche geschaffen werden, die eine Vielzahl von Ansichtsfenstern wie oben beschrieben umfasst und das Inspizieren eines Basisbildes und einer Reihe von Folgebildern nebeneinander erlaubt. Es können ein Algorithmus zum automatischen Identifizieren von anatomisch übereinstimmenden Positionen in dem Basisbild und den Folgebildern (zum Beispiel ein elastischer Registrierungsalgorithmus) und eine Benutzeroberfläche, die die übereinstimmenden Mauszeigerpositionen in Echtzeit aktualisiert, geschaffen werden. Eine zugrundeliegende Datenbank kann verwendet werden, um übereinstimmende Bildinformationen zusammen mit Informationen über die geometrische Verformung zwischen dem Bildinhalt von übereinstimmenden Bildern zu speichern. Es kann ein Interaktionsschema zur manuellen Justierung von fehlplatzierten Läsionsorten bereitgestellt werden. Es können Algorithmen zur quantitativen Merkmalsextraktion aus den Tumorbildern bereitgestellt werden.
  • Wenn das System in Betrieb ist, können neue Bilddaten in eine PACS-artige Datenbank importiert und auf Bildvolumenpaare geprüft werden, die sinnvoll miteinander verknüpft werden können, zum Beispiel zwei Bildvolumina von zwei unterschiedlichen MR-Untersuchungen des selben Patienten, die beide zu einer dynamischen, kontrastmittelangereicherten Serie gehören und zu ungefähr dem gleichen Zeitpunkt in der dynamischen Erfassung aufgenommen wurden. Abhängig von den verfügbaren Algorithmen für die geometrische Verknüpfung der Bilddaten können weitere Bildvolumenpaare ebenfalls als übereinstimmende Volumina einbezogen werden.
  • Eine Benutzeroberfläche kann es dem Benutzer ermöglichen, auf die Datenbank zuzugreifen und eine Untersuchung als Basisuntersuchung auszuwählen sowie ein Bildvolumen aus dieser Untersuchung als Basisvolumen zu identifizieren, und bietet übereinstimmende Volumina aus späteren Untersuchungen (entsprechend den Datenbankinformationen) als mögliche Folgebildvolumina an.
  • Nach dem Laden der ausgewählten Bildvolumina werden die Bilder in separaten Ansichtsfenstern angezeigt, zum Beispiel wie in 2 dargestellt. Der Benutzer kann dann einen Tumor in dem Basisbild auswählen. Die anatomisch übereinstimmenden Positionen können in den Folgebildern gezeigt und in Echtzeit aktualisiert werden, während der Benutzer eine andere Position angibt. Die Übereinstimmungsinformationen können zum Beispiel durch Anwenden eines elastischen Registrierungsalgorithmus auf ein Basisbild/Folgebild-Paar abgeleitet werden. Der Benutzer kann den Tumor in einem Bild markieren und die Tumorpositionen können unter Verwendung der Registrierungsinformationen an die anderen Bildern weitergegeben werden, und anschließend in der Bilddatenbank gespeichert werden. Unter Verwendung des Tumororts kann eine automatische Tumorsegmentierung angewendet werden, und die Veränderung des Tumorwertes kann über die Zeit aufgetragen werden, um einen Trend der Tumorreaktion auf die Behandlung darzustellen. Eine derartige automatische Tumorsegmentierung ist zum Beispiel aus Buelow, T., Meinel, L. A., Wiemker, R., Kose, U., Shimauchi, A. und Newstead, G., ”Segmentation of suspicious lesions in dynamic contrast-enhanced breast MR images,” in SPIE Medical Imaging: CAD, 6514, 27 (2007), bekannt.
  • Der Tumor kann in allen übereinstimmenden Untersuchungen markiert werden. Es kann ein automatischer Segmentierungsalgorithmus angewendet werden, um den Tumor abzugrenzen. Die berechneten Tumorvolumina können graphisch dargestellt werden. Bei gegebenem Tumorort (und Tumorsegmentierung) können weitere Merkmale, zum Beispiel kinetische Merkmale, basierend auf dynamischen kontrastmittelangereicherten Bildgebungsstudien, augenscheinlichen Diffusionskoeffizienten, die von diffusionsgewichteten Bildern abgeleitet wurden, oder morphologische Merkmale berechnet werden. Optional kann das Verformungsvektorfeld, das durch die elastische Registrierung abgeleitet wurde, verwendet werden, um die Tumor-Teilvolumina auszurichten (die aufgrund von Veränderungen der Patientenpositionierung gekippt oder gedreht sein könnten). Dies ermöglicht es dem Benutzer, übereinstimmende Querschnitte des Tumors visuell zu vergleichen. Tumor-Teilvolumina können auf die Orientierung des Tumors in dem Basisbild ausgerichtet werden, um übereinstimmende Tumorquerschnittbilder zu erhalten. Die Tumorabgrenzung kann anhand des Basisbildes berechnet werden und der übereinstimmenden Position der Folgebilder überlagert werden. Optional kann die Tumorkontur, wie sie durch die Segmentierung des Tumors in dem Basisbildvolumen abgeleitet wurden, graphisch an der übereinstimmenden Position der Folgebilder gezeigt werden, um einen visuellen Vergleich der Tumorveränderung im Laufe der Zeit zu ermöglichen.
  • Das System kann in jeder Radiologie-Workstation, jedem PACS-System oder einer Scanner-Konsole verwendet werden.
  • Es ist zu beachten, dass sich die Erfindung auch auf Computerprogramme, insbesondere Computerprogramme auf oder in einem Träger, bezieht, die dafür ausgelegt sind, die Erfindung in die Praxis umzusetzen. Das Programm kann in Form eines Quellcodes, eines Objektcodes, einer Zwischencodequelle und eines Objektcodes, wie in einer partiell kompilierten Form, oder in jeder anderen Form vorliegen, die für die Verwendung bei der Implementierung des erfindungsgemäßen Verfahrens geeignet ist. Es ist auch zu beachten, dass ein derartiges Programm viele verschiedene Architekturkonzepte haben kann. Zum Beispiel kann ein Programmcode, der die Funktionalität des erfindungsgemäßen Verfahrens oder Systems implementiert, in eine oder mehrere Subroutinen unterteilt sein. Dem Fachkundigen werden viele verschiedene Arten der Aufteilung der Funktionalität auf diese Subroutinen offensichtlich sein. Die Subroutinen können zusammen in einer ausführbaren Datei gespeichert werden, um ein eigenständiges Programm zu bilden. Eine derartige ausführbare Datei kann vom Computer ausführbare Anweisungen umfassen, zum Beispiel Prozessoranweisungen und/oder Interpreter-Anweisungen (zum Beispiel Java Interpreter-Anweisungen). Alternativ können eine oder mehrere oder alle Subroutinen in mindestens einer externen Bibliothekdatei gespeichert und entweder statisch oder dynamisch, zum Beispiel mit Laufzeit, mit einem Hauptprogramm verknüpft werden. Das Hauptprogramm enthält mindestens einen Aufruf von mindestens einer der Subroutinen. Die Subroutinen können auch Aufrufe voneinander umfassen. Eine Ausführungsform, die sich auf ein Computerprogrammprodukt bezieht, umfasst durch einen Computer ausführbare Anweisungen, die jedem Verarbeitungsschritt von mindestens einem der hier beschriebenen Verfahren entsprechen. Diese Anweisungen können in Subroutinen unterteilt und/oder in einer oder mehreren Dateien gespeichert werden, die statisch oder dynamisch verknüpft werden können. Eine weitere Ausführungsform, die sich auf ein Computerprogrammprodukt bezieht, umfasst durch einen Computer ausführbare Anweisungen, die jedem Mittel von dem mindestens einem der Systeme und/oder Produkte entsprechen, die hier beschrieben wurden. Diese Anweisungen können in Subroutinen unterteilt und/oder in einer oder mehreren Dateien gespeichert werden, die statisch oder dynamisch verknüpft werden können.
  • Der Träger eines Computerprogramms kann eine Einheit oder eine Vorrichtung sein, in der das Programm untergebracht werden kann. Zum Beispiel kann der Träger ein Speichermedium, wie zum Beispiel einen ROM (Festwertspeicher), beispielsweise eine CD-ROM oder einen Halbleiter-ROM, oder ein magnetisches Aufnahmemedium, beispielsweise ein Flash-Laufwerk oder eine Festplatte, umfassen. Ferner kann der Träger ein übertragbarer Träger sein, beispielsweise ein elektrisches oder optisches Signal, das über ein elektrisches oder optisches Kabel oder per Funk oder auf andere Weise übermittelt werden kann. Wenn das Programm in einem derartigen Signal verkörpert ist, kann der Träger durch ein derartiges Kabel oder eine andere Vorrichtung oder ein anderes Mittel gebildet werden. Alternativ kann der Träger eine integrierte Schaltung sein, in die das Programm eingebettet ist, wobei die integrierte Schaltung dafür ausgelegt ist, das relevante Verfahren auszuführen oder bei seiner Ausführung verwendet zu werden.
  • Es ist anzumerken, dass die oben erwähnten Ausführungsbeispiele die Erfindung erläutern und sie nicht einschränken, und dass der Fachkundige in der Lage sein wird, viele alternative Ausführungsbeispiele zu konstruieren, ohne vom Rahmen der anhängenden Ansprüche abzuweichen. In den Ansprüchen sind in Klammern gesetzte Bezugszeichen nicht als den Anspruch einschränkend anzusehen. Die Verwendung des Verbs ”umfassen” und seiner Konjugationen schließt das Vorhandensein von anderen als den in einem Anspruch erwähnten Elementen oder Schritten nicht aus. Der Artikel ”a” oder ”eine” vor einem Element schließt das Vorhandensein mehrerer derartiger Elemente nicht aus. Die Erfindung kann mittels Hardware ausgeführt werden, die mehrere verschiedene Elemente umfasst, und mittels eines in geeigneter Weise programmierten Computers. In dem Anspruch zur Vorrichtung werden mehrere Mittel aufgezählt, von denen einige in einem und demselben Hardwareteil ausgeführt werden können. Die alleinige Tatsache, dass gewisse Maßnahmen in verschiedenen abhängigen Ansprüchen aufgeführt sind, bedeutet nicht, dass eine Kombination dieser Maßnahmen nicht vorteilhaft eingesetzt werden kann.

Claims (15)

  1. System zum Anzeigen einer Vielzahl von registrierten Bildern, wobei das System Folgendes umfasst: eine erste Ansichtsfenstereinheit (1) zum Anzeigen einer Darstellung eines ersten Bilddatensatzes (4) in einem ersten Ansichtsfenster (201); eine zweite Ansichtsfenstereinheit (2) zum Anzeigen einer Darstellung eines zweiten Bilddatensatzes (5) in einem zweiten Ansichtsfenster (202); eine Positionsangabeeinheit (7), um einen Benutzer zu befähigen, eine Position in dem im ersten Ansichtsfenster (201) angezeigten ersten Bilddatensatz (4) anzugeben, um eine vom Benutzer angegebene Position zu erhalten; und eine Übereinstimmungspositionsermittlungseinheit (8) zum Ermitteln einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz (5) basierend auf Übereinstimmungsinformationen (9), die Positionen in dem ersten Bilddatensatz (4) auf hiermit übereinstimmende Positionen in dem zweiten Bilddatensatz (5) abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz (5) zu erhalten; wobei die zweite Ansichtsfenstereinheit (2) vorgesehen ist, um eine Angabe der übereinstimmenden Position im zweiten Ansichtsfenster (202) anzuzeigen.
  2. System nach Anspruch 1, wobei der erste Bilddatensatz (4) ein Objekt (207) darstellt und einer ersten Erfassungszeit zugeordnet ist, und der zweite Bilddatensatz (5) das gleiche Objekt (208) darstellt und einer anderen Erfassungszeit zugeordnet ist, und wobei die Übereinstimmungsinformationen (9) eine Verformung des Objekts (207) zwischen den Erfassungszeiten darstellen.
  3. System nach Anspruch 2, wobei die zweite Ansichtsfenstereinheit (2) vorgesehen ist, um einen Umriss (207') von mindestens einem Teil des Objekts (207), der der ersten Erfassungszeit zugeordnet ist, basierend auf dem ersten Bild und/oder den Übereinstimmungsinformationen anzuzeigen.
  4. System nach Anspruch 1, wobei die zweite Ansichtsfenstereinheit (2) vorgesehen ist, um eine Schicht des zweiten Bilddatensatzes anzuzeigen, und eine Schichtauswahleinheit (16) zum Auswählen einer Schicht umfasst, die die übereinstimmende Position enthält.
  5. System nach Anspruch 2, wobei die Übereinstimmungsinformationen (9) starre Registrierungsinformationen (10) umfassen, um eine Rotation oder eine Translation von mindestens einem Teil des durch die Bilddatensätze dargestellten Objekts zu berücksichtigen, und nicht-starre Registrierungsinformationen (11), um eine Verformung des Objekts zu berücksichtigen, wobei die zweite Ansichtsfenstereinheit (2) vorgesehen ist, um den zweiten Bilddatensatz basierend auf den starren Registrierungsinformationen (10) zu drehen oder zu verschieben, und wobei die Anzeige der Angabe der übereinstimmenden Position auf den nicht-starren Registrierungsinformationen (11) beruht.
  6. System nach Anspruch 1, wobei die Übereinstimmungsinformationen (9) ein erstes Formmodell, das an den ersten Bilddatensatz (4) angepasst ist, und ein zweites Formmodell, das an den zweiten Bilddatensatz (5) angepasst ist, umfassen.
  7. System nach Anspruch 1, wobei die Positionsangabeeinheit (7) dafür ausgelegt ist, dem Benutzer das Angeben der vom Benutzer angegebenen Position durch Positionieren eines Mauscursors auf dem ersten Ansichtsfenster oder durch Berühren der Position auf einem berührungsempfindlichen Bildschirm (14), der das erste Ansichtsfenster anzeigt, zu ermöglichen.
  8. System nach Anspruch 1, wobei die Positionsangabeeinheit (7) dafür ausgelegt ist, dem Benutzer das Eingeben einer Sequenz von aufeinanderfolgenden vom Benutzer angegebenen Positionen zu ermöglichen, indem er einen Zeiger über das erste Ansichtsfenster bewegt, und wobei die Übereinstimmungsermittlungseinheit (8) dafür ausgelegt ist, die übereinstimmende Position zu aktualisieren, während der Zeiger über das erste Ansichtsfenster bewegt wird, und wobei die zweite Ansichtsfenstereinheit (2) dafür ausgelegt ist, die Anzeige der Angabe der übereinstimmenden Position zu aktualisieren, während die übereinstimmende Position aktualisiert wird.
  9. System nach Anspruch 1, mit einer Vielzahl von zweiten Ansichtsfenstereinheiten (2, 3), die dafür ausgelegt sind, eine Vielzahl von zweiten Ansichtsfenstern (202206) zu steuern, um die Anzeige einer Vielzahl von jeweiligen zweiten Bilddatensätzen (5, 6) mit zugehörigen Übereinstimmungsinformationen (9) zu ermöglichen, wobei die Übereinstimmungsermittlungseinheit (8) dafür ausgelegt ist, die übereinstimmenden Positionen in der Vielzahl von zweiten Bilddatensätzen (5, 6) basierend auf der angegebenen Position und den Übereinstimmungsinformationen (9) zu ermitteln, und wobei die Vielzahl von zweiten Ansichtsfenstereinheiten (2, 3) dafür ausgelegt ist, jeweilige Angaben der jeweiligen übereinstimmenden Positionen in den jeweiligen zweiten Ansichtsfenstern (202206) anzuzeigen.
  10. System nach Anspruch 9, wobei der erste Bilddatensatz (4) und die jeweiligen zweiten Bilddatensätze (5, 6) Teil einer Zeitsequenz von erfassten Bildern eines Objekts sind.
  11. System nach Anspruch 1, wobei das System eine manuelle Korrektureinheit (15) umfasst, um einem Benutzer zu ermöglichen, zumindest einen Teil der Übereinstimmungsinformationen durch Angeben einer Merkpunktposition in mindestens einem der Bilder zu korrigieren.
  12. Workstation mit einem System nach Anspruch 1.
  13. Bilderfassungsgerät mit einem Bildscanner zum Erfassen des ersten Bilddatensatzes und/oder des zweiten Bilddatensatzes und mit einem System nach Anspruch 1.
  14. Verfahren zur Anzeige einer Vielzahl von registrierten Bildern, wobei das Verfahren die folgenden Schritte umfasst: Anzeigen (301) einer Darstellung eines ersten Bilddatensatzes; Anzeigen (302) einer Darstellung eines zweiten Bilddatensatzes; Befähigen (303) eines Benutzers, eine Position in dem im ersten Ansichtsfenster angezeigten ersten Datensatz anzugeben, um eine vom Benutzer angegebene Position zu erhalten; Ermitteln (304) einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem erste Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten; und Anzeigen (305) einer Angabe der übereinstimmenden Position im zweiten Ansichtsfenster.
  15. Computerprogrammprodukt mit Anweisungen zum Veranlassen eines Prozessorsystems, das Verfahren nach Anspruch 14 auszuführen.
DE112012002671.3T 2011-06-29 2012-06-27 Anzeigen einer Vielzahl von registrierten Bildern Pending DE112012002671T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11171859 2011-06-29
EP11171859.9 2011-06-29
PCT/IB2012/053259 WO2013001471A2 (en) 2011-06-29 2012-06-27 Displaying a plurality of registered images

Publications (1)

Publication Number Publication Date
DE112012002671T5 true DE112012002671T5 (de) 2014-04-03

Family

ID=46704973

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012002671.3T Pending DE112012002671T5 (de) 2011-06-29 2012-06-27 Anzeigen einer Vielzahl von registrierten Bildern

Country Status (4)

Country Link
US (1) US9678644B2 (de)
CN (1) CN103635936B (de)
DE (1) DE112012002671T5 (de)
WO (1) WO2013001471A2 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019680A1 (en) * 2013-03-29 2016-01-21 Koninklijke Philips N.V. Image registration
JP6200249B2 (ja) * 2013-09-11 2017-09-20 キヤノン株式会社 情報処理装置、情報処理方法
KR102205906B1 (ko) * 2013-12-09 2021-01-22 삼성전자주식회사 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템
US20150317071A1 (en) * 2014-05-05 2015-11-05 Peter N. Moore Method and Computer-Readable Medium for Cueing the Display of Active Content to an Audience
US10650537B2 (en) * 2014-08-22 2020-05-12 B-K Medical Aps Updating reference imaging data with update 2D and/or 3D imaging data
JP6711715B2 (ja) * 2016-07-19 2020-06-17 キヤノン株式会社 画像処理装置および画像処理方法
CN106845068B (zh) * 2016-12-13 2020-05-22 海纳医信(北京)软件科技有限责任公司 图片标注方法和装置
US10918885B2 (en) 2018-09-27 2021-02-16 Varian Medical Systems International Ag Systems, methods and devices for automated target volume generation
FR3139650B3 (fr) 2022-09-09 2024-09-13 Hera Mi Systeme et procede pour le positionnement synchronise d’un pointeur de reperage dans differentes images d’un meme objet deformable

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613013A (en) * 1994-05-13 1997-03-18 Reticula Corporation Glass patterns in image alignment and analysis
JP4509115B2 (ja) * 2003-09-29 2010-07-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 放射線治療を計画するための方法及び装置
US20070100223A1 (en) * 2005-10-14 2007-05-03 Rui Liao Method and system for cardiac imaging and catheter guidance for radio frequency (RF) ablation
CN1846616A (zh) * 2006-03-13 2006-10-18 华中科技大学 一种计算机辅助预测乳腺癌风险的方法
US7693349B2 (en) 2006-08-15 2010-04-06 General Electric Company Systems and methods for interactive image registration
JP2010516301A (ja) 2007-01-03 2010-05-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ コンピュータ支援治療モニタリング装置及び方法
US8121362B2 (en) * 2007-04-30 2012-02-21 Siemens Medical Solutions Usa, Inc. Registration of medical images using learned-based matching functions
US8165425B2 (en) 2008-07-24 2012-04-24 Siemens Medical Solutions Usa, Inc. Interactive manual deformable registration of images
WO2010073178A1 (en) * 2008-12-23 2010-07-01 Koninklijke Philips Electronics N.V. System for monitoring medical abnormalities and method of operation thereof
CN102361594B (zh) * 2009-03-26 2014-10-29 皇家飞利浦电子股份有限公司 由临床指南导航器支持的基于pet/ct的治疗监测系统
US20110200227A1 (en) * 2010-02-17 2011-08-18 Siemens Medical Solutions Usa, Inc. Analysis of data from multiple time-points
DE102010022266A1 (de) * 2010-05-31 2011-12-01 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Registrierung von medizinischen Bilddaten

Also Published As

Publication number Publication date
US20150363080A1 (en) 2015-12-17
WO2013001471A3 (en) 2013-04-11
CN103635936B (zh) 2018-02-13
WO2013001471A2 (en) 2013-01-03
CN103635936A (zh) 2014-03-12
US9678644B2 (en) 2017-06-13

Similar Documents

Publication Publication Date Title
DE112012002671T5 (de) Anzeigen einer Vielzahl von registrierten Bildern
DE112014004211B4 (de) Radiotherapiesystem mit erweiterter graphischer Benutzeroberfläche
DE102010009295B4 (de) Verfahren zur Darstellung eines zu untersuchenden und/oder behandelnden Bereichs
DE102007034911A1 (de) Vorrichtung und Verfahren zur On-Demand visuellen Verbesserung von klinischen Zuständen in Bildern
DE102006012015A1 (de) Verfahren und Systeme zur Überwachung einer Tumorbelastung
DE102016221684B4 (de) Verfahren und Bilddatenverarbeitungseinrichtung zum Verarbei-ten eines Multi-Energie-Computertomographie-Bilddatensatzes mit Basismaterialzerlegung und Bildwerte-Tupel-Abbildung
DE102007046250A1 (de) Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild
DE202009019204U1 (de) Röntgenerfassungssystem zur Erzeugung eines synthetisierten 2D-Mammogramms aus durch Tomosynthese rekonstruierten Bildern
DE102007057096A1 (de) Verfahren und Vorrichtung zur automatischen Registrierung von Läsionen zwischen Untersuchungen
DE102004056783A1 (de) Verfahren und Vorrichtung zum Segmentieren von Strukturen in einer CT-Angiographie
DE10353883A1 (de) Verfahren und Einrichtung zum Messen Krankheits-relevanter Gewebeveränderungen
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
DE102011003137A1 (de) Bildgebungsverfahren mit einer verbesserten Darstellung eines Gewebebereichs
DE102011052842A1 (de) Bildverarbeitungsverfahren zur Bestimmung verdächtiger Regionen in einer Gewebematrix und dessen Verwendung zur 3D-Navigation durch die Gewebematrix
DE102011053044A1 (de) System und Verfahren zur Analyse und sichtbaren Darstellung lokaler klinischer Merkmale
DE102009043868A1 (de) Halbautomatische Registrierung von Daten auf der Basis eines hyrarchischen Netzes
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102006058941A1 (de) Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems
DE112018005199T5 (de) Erzeugung von zusammengesetzten Bildern auf Basis von Livebildern
DE102020124527A1 (de) Anzeigesteuergerät, verfahren zum betreiben eines anzeigesteuergeräts und programm zum betreiben eines anzeigesteuergeräts
DE102016208647A1 (de) Verfahren und Vorrichtung zur Überwachung einer Brustuntersuchung
DE10338145B4 (de) Verfahren zur Darstellung von 3D Bilddaten
DE102012100067A1 (de) Verfahren und System zur verbesserten medizinischen Bildanalyse
DE102015210912A1 (de) Rekonstruktion eines Ergebnisbildes unter Berücksichtigung von Kontur-Signifikanz-Daten
DE112004001691T5 (de) Verfahren und System zur automatischen Ausrichtung von lokalen Visualisierungstechniken für vaskuläre Strukturen

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE

R082 Change of representative

Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE

R081 Change of applicant/patentee

Owner name: PHILIPS DEUTSCHLAND GMBH, DE

Free format text: FORMER OWNER: PHILIPS INTELLECTUAL PROPERTY & STANDARDS GMBH, 20099 HAMBURG, DE

Effective date: 20140331

Owner name: PHILIPS DEUTSCHLAND GMBH, DE

Free format text: FORMER OWNER: KONINKLIJKE PHILIPS N.V., EINDHOVEN, NL

Effective date: 20140129

Owner name: PHILIPS GMBH, DE

Free format text: FORMER OWNER: KONINKLIJKE PHILIPS N.V., EINDHOVEN, NL

Effective date: 20140129

Owner name: PHILIPS GMBH, DE

Free format text: FORMER OWNER: PHILIPS INTELLECTUAL PROPERTY & STANDARDS GMBH, 20099 HAMBURG, DE

Effective date: 20140331

R082 Change of representative

Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE

Effective date: 20140331

Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE

Effective date: 20140129

Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE

Effective date: 20140331

Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE

Effective date: 20140129

R081 Change of applicant/patentee

Owner name: PHILIPS GMBH, DE

Free format text: FORMER OWNER: PHILIPS DEUTSCHLAND GMBH, 20099 HAMBURG, DE

R082 Change of representative

Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE

Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PHILIPS GMBH, DE

Free format text: FORMER OWNER: PHILIPS GMBH, 20099 HAMBURG, DE

R082 Change of representative

Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE

R016 Response to examination communication