DE112012002671T5 - Anzeigen einer Vielzahl von registrierten Bildern - Google Patents
Anzeigen einer Vielzahl von registrierten Bildern Download PDFInfo
- Publication number
- DE112012002671T5 DE112012002671T5 DE112012002671.3T DE112012002671T DE112012002671T5 DE 112012002671 T5 DE112012002671 T5 DE 112012002671T5 DE 112012002671 T DE112012002671 T DE 112012002671T DE 112012002671 T5 DE112012002671 T5 DE 112012002671T5
- Authority
- DE
- Germany
- Prior art keywords
- image data
- viewport
- data set
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Epidemiology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
Abstract
Description
- ANWENDUNGSGEBIET DER ERFINDUNG
- Die Erfindung bezieht sich auf das Anzeigen einer Vielzahl von registrierten Bildern.
- HINTERGRUND DER ERFINDUNG
- Der Erfolg der chemotherapeutischen Behandlung von Krebs ist nicht bei jedem Patienten, jeder Krebsart oder jeder Behandlungsart gleich. Falls die Behandlung kein optimales Ergebnis liefert, werden möglicherweise Maßnahmen getroffen, um die Situation zu verbessern, zum Beispiel indem das Behandlungsprotokoll angepasst wird. Zu diesem Zweck kann während der Therapie die Therapieresponse eines Tumors überwacht werden. Die medizinische Bildgebung, zum Beispiel die Magnetresonanz(MR)-Bildgebung, liefert Daten, von denen die Therapieresponse eines Tumors abgeleitet werden kann. Zum Beispiel können MR-Scans vor der Behandlung und nach zumindest einem Teil der Behandlung durchgeführt werden. Auf diese Weise kann der Tumor über die Zeit verfolgt werden und das Ansprechen auf die Behandlung beurteilt werden. Zum Beispiel kann die Größe eines Tumors mit Hilfe einer medizinischen Workstation gemessen werden. Allerdings sind die aktuell verwendeten manuellen Messungen von begrenzter Belastbarkeit und Reproduzierbarkeit. Das Verfolgen eines Tumors über die Zeit setzt voraus, dass er in den Bilddaten gefunden und gekennzeichnet wird, was ein zeitaufwändiger Prozess ist.
- In der Abhandlung ”Quantitative imaging to assess tumor response to therapy: common themes of measurement, truth data, and error sources” von C. R. Meyer et al., Translational Oncology, Band 2, Nr. 4, Dezember 2009, S. 198–210, werden mehrere, von der Bildgebungsmodalität unabhängige Mittel zur Beurteilung der relativen Leistungsfähigkeit von Algorithmen für die Messung der Tumorveränderung in Reaktion auf die Therapie beschrieben.
- In der Patentschrift
US 7.708.682 B2 werden ein Verfahren und ein Gerät zur Planung der Strahlentherapie beschrieben. Eine Strahlendosisverteilung wird auf der Basis von Form- und Positionsveränderungen der interessierenden Organe angepasst, die anhand eines Vergleichs eines ersten und eines zweiten Bildes ermittelt werden, welche zu verschiedenen Zeitpunkten während des Strahlungsbehandlungsprozesses aufgenommen wurden. Zuerst wird ein Oberflächenmesh an die Oberfläche des interessierenden Objekts in dem ersten Bild angepasst und dann an die interessierende Oberfläche in dem zweiten Bild. Anschließend wird eine Differenz zwischen den beiden angepassten Oberflächenmeshes ermittelt. - ZUSAMMENFASSUNG DER ERFINDUNG
- Es wäre vorteilhaft, eine verbesserte Anzeige einer Vielzahl von registrierten Bildern zu haben. Um diesem Anliegen Rechnung zu tragen, liefert ein erster Aspekt der Erfindung ein System, das Folgendes umfasst:
ein erstes Ansichtsfenster zum Anzeigen einer Darstellung eines ersten Bilddatensatzes;
ein zweites Ansichtsfenster zum Anzeigen einer Darstellung eines zweiten Bilddatensatzes;
eine Positionsangabeeinheit, um einen Benutzer zu befähigen, eine Position in dem im ersten Ansichtsfenster angezeigten ersten Bilddatensatz anzugeben, um eine vom Benutzer angegebene Position zu erhalten; und
eine Übereinstimmungspositionsermittlungseinheit zum Ermitteln einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem ersten Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten;
wobei das zweite Ansichtsfenster vorgesehen ist, um eine Angabe der übereinstimmenden Position im zweiten Ansichtsfenster anzuzeigen. - Dieses System ermöglicht einen einfacheren und schnelleren Vergleich des ersten Bildes mit dem zweiten Bild, weil der Benutzer nur eine interessierende Struktur anzugeben braucht, z. B. einen Tumor in dem ersten Bild, und die übereinstimmende Struktur automatisch im zweiten Ansichtsfenster angegeben wird. Mit Hilfe eines einzelnen Klicks kann eine automatische Quantifizierung des Tumors in beiden Bildern aktiviert werden. Es ist nicht erforderlich, die Anzeige von entweder dem ersten oder dem zweiten Bild zu verformen oder zu verwinden, wie dies oft bei bestehenden Systemen geschieht, um elastische Registrierungsergebnisse anzuzeigen, so dass der Benutzer nachvollziehen kann, welche Positionen der Bilder einander entsprechen. Stattdessen wird für jegliche vom Benutzer angegebene Position die übereinstimmende Position in dem anderen Bild angezeigt. Dies ist wichtig, weil der Benutzer bei der Beurteilung der Therapieresponse Veränderungen des interessierenden Tumors identifiziert. Wenn ein Verwinden angewendet wird, würden diese Veränderungen mit den künstlichen Verformungen vermischt.
- Das erste Bild kann ein Objekt darstellen und kann einer ersten Erfassungszeit zugeordnet sein, und das zweite Bild kann das gleiche Objekt darstellen und einer anderen Erfassungszeit zugeordnet sein. Die Übereinstimmungsinformationen können eine Verformung des Objekts zwischen den Erfassungszeiten darstellen. Diese Art von Bilddaten und Übereinstimmungsinformationen stellt eine wichtige Anwendung der beschriebenen Techniken dar. Durch Angeben einer Position in dem ersten Ansichtsfenster kann der Benutzer gleichzeitig die Position in dem zweiten Ansichtsfenster angeben, weil diese Angabe automatisch basierend auf den Übereinstimmungsinformationen geliefert wird. Da sich beide Bilder auf das gleiche Objekt beziehen, ist es möglich, zum Beispiel Verarbeitungsschritte basierend auf den Positionen in beiden Bildern gleichzeitig einzuleiten.
- Das zweite Ansichtsfenster kann vorgesehen sein, um einen Umriss von mindestens einem Teil des Objekts, der der ersten Erfassungszeit zugeordnet ist, basierend auf dem ersten Bild und/oder den Übereinstimmungsinformationen anzuzeigen. Dies erleichtert den Vergleich der Form des Objekts bei der ersten und der zweiten Erfassungszeit.
- Das zweite Ansichtsfenster kann vorgesehen sein, um eine Schicht des zweiten Bildes anzuzeigen. Das System kann weiterhin eine Schichtauswahleinheit zum Auswählen einer Schicht umfassen, die die übereinstimmende Position enthält. Dies ist vor allem von Interesse, wenn mindestens einer der Bilddatensätze dreidimensionale (oder höherdimensionale) Bilder darstellt. Eine Schichtansicht kann erzeugt werden, um eine Schicht des drei- oder höherdimensionalen Bildes anzuzeigen. Die vom Benutzer angegebene Position und die übereinstimmende Position liegen jedoch nicht unbedingt in der gleichen Schicht, so dass es schwierig ist, übereinstimmende Strukturen in beiden Ansichtsfenstern darzustellen. Aus diesem Grund kann das zweite Ansichtsfenster vorgesehen sein, um die angezeigte Schicht entsprechend der übereinstimmenden Position anzupassen.
- Die Übereinstimmungsinformationen können starre Registrierungsinformationen umfassen, um eine Rotation oder Translation von mindestens einem Teil des durch die Bilder dargestellten Objekts zu berücksichtigen, und nicht-starre Registrierungsinformationen, um eine Verformung des Objekts zu berücksichtigen, wobei das zweite Ansichtsfenster vorgesehen ist, um das zweite Bild basierend auf den starren Registrierungsinformationen zu drehen oder zu verschieben, und wobei die Anzeige der Angabe der übereinstimmenden Position auf den nicht-starren Registrierungsinformationen beruht. Dies ist eine vorteilhafte Kombination aus dem Anpassen der Anzeige des Objekts in dem zweiten Ansichtsfenster (basierend nur auf Rotation/Translation) und dem Bereitstellen der Angabe der übereinstimmenden Position, um einen weiteren Vergleich zwischen den Bildern zu ermöglichen. Die Rotation/Translation erleichtert den Vergleich des Objekts zwischen den beiden Ansichtsfenstern, ohne irgendwelche Unterschiede in der Form zu entfernen. Das System kann weiterhin ein genaues visuelles Vergleichen des ersten Bildes mit dem zweiten Bild ermöglichen, indem es lokal eine starre Transformation anwendet, zum Beispiel eine Rotation der interessierenden Struktur in dem zweiten Ansichtsfenster, so dass einander anatomisch entsprechende Querschnitte der interessierenden Struktur angezeigt werden und ein aussagekräftiger Vergleich möglich ist.
- Die Übereinstimmungsinformationen können ein erstes Formmodell, das an den ersten Bilddatensatz angepasst ist, und ein zweites Formmodell, das an den zweiten Bilddatensatz angepasst ist, umfassen. Dies ist eine effektive Möglichkeit zum Erzeugen der Übereinstimmungsinformationen. Alternativ oder zusätzlich können die Übereinstimmungsinformationen zum Beispiel durch einen starren oder elastischen Registrierungsalgorithmus abgeleitet werden.
- Die Positionsangabeeinheit kann dafür ausgelegt sein, dem Benutzer das Angeben der vom Benutzer angegebenen Position durch Positionieren eines Mauscursors auf dem ersten Ansichtsfenster zu ermöglichen. Hierdurch wird ein einfaches Angeben der vom Benutzer angegebenen Position möglich.
- Die Positionsangabeeinheit kann dafür ausgelegt sein, dem Benutzer das Angeben der vom Benutzer angegebenen Position mit Hilfe eines Berührungsbildschirms zu ermöglichen. Hierdurch wird ein einfaches Angeben der vom Benutzer angegebenen Position möglich.
- Die Positionsangabeeinheit kann dafür ausgelegt sein, dem Benutzer das Eingeben einer Sequenz von aufeinanderfolgenden vom Benutzer angegebenen Positionen zu ermöglichen, indem er einen Zeiger über das erste Ansichtsfenster bewegt, wobei die Übereinstimmungsermittlungseinheit dafür ausgelegt ist, die übereinstimmende Position zu aktualisieren, während der Zeiger über das erste Ansichtsfenster bewegt wird, und wobei das zweite Ansichtsfenster dafür ausgelegt ist, die Anzeige der Angabe der übereinstimmenden Position zu aktualisieren, während die übereinstimmende Position aktualisiert wird. Dies schafft einen besonders angenehmen Effekt, weil hierdurch auf einfache Weise eine große Anzahl von übereinstimmenden Positionen in kurzer Zeit betrachtet werden kann.
- Das System kann eine Vielzahl von zweiten Ansichtsfenster umfassen, um die Anzeige einer Vielzahl von jeweiligen zweiten Bilddatensätzen mit zugehörigen Übereinstimmungsinformationen zu ermöglichen. Die Übereinstimmungsermittlungseinheit kann dafür ausgelegt sein, die jeweiligen übereinstimmenden Positionen in der Vielzahl von zweiten Bildern basierend auf der angegebenen Position und den Übereinstimmungsinformationen zu ermitteln. Die Vielzahl von zweiten Ansichtsfenstern kann dafür vorgesehen sein, jeweilige Angaben der jeweiligen übereinstimmenden Positionen in den jeweiligen Ansichtsfenstern anzuzeigen. Auf diese Weise kann eine Position in einer Struktur in einer beliebigen Anzahl von Bildern angegeben werden, indem die Position in nur einem der Bilder angegeben wird.
- Der erste Bilddatensatz und die jeweiligen zweiten Bilddatensätze können Teil einer Zeitsequenz der erfassten Bilder eines Objekts sein. Dies ermöglicht das Betrachten der Angabe der übereinstimmenden Positionen in einer Zeitsequenz der Bilder eines Objekts.
- Das System kann eine manuelle Korrektureinheit umfassen, um einem Benutzer zu ermöglichen, zumindest einen Teil der Übereinstimmungsinformationen durch Angeben einer Merkpunktposition in mindestens einem der Bilder zu korrigieren. Hierdurch wird es dem Benutzer möglich, jegliche automatisch erzeugte Übereinstimmungsinformationen zu umgehen.
- In einem weiteren Aspekt schafft die Erfindung eine Workstation mit einem beschriebenen System. In noch einem weiteren Aspekt schafft die Erfindung ein Bilderfassungsgerät mit einem Scanner zum Erfassen von einem oder mehreren oder allen Bilddatensätzen und mit einem beschriebenen System zur Anzeige einer Vielzahl von registrierten Bildern.
- In einem weiteren Aspekt schafft die Erfindung ein Verfahren zur Anzeige einer Vielzahl von registrierten Bildern, das folgende Schritte umfasst:
Anzeigen einer Darstellung eines ersten Bilddatensatzes;
Anzeigen einer Darstellung eines zweiten Bilddatensatzes;
Befähigen eines Benutzers, eine Position in dem im ersten Ansichtsfenster angezeigten ersten Datensatz anzugeben, um eine vom Benutzer angegebene Position zu erhalten;
Ermitteln einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem ersten Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten; und
Anzeigen einer Angabe der übereinstimmenden Position im zweiten Ansichtsfenster. - In einem weiteren Aspekt schafft die Erfindung ein Computerprogrammprodukt mit Anweisungen zum Veranlassen eines Prozessorsystems, ein hier beschriebenes Verfahren auszuführen.
- Der Fachkundige wird erkennen, dass zwei oder mehrere der oben genannten Ausführungsformen, Implementierungen und/oder Aspekte der Erfindung in jeglicher für nützlich gehaltenen Weise kombiniert werden können. Es versteht sich, dass sich die hier beschriebenen Techniken auf zweidimensionale, dreidimensionale, vierdimensionale und höherdimensionale Bilddatensätze beziehen. Diese Bilddatensätze können mit Hilfe eines beliebigen geeigneten Bilderfassungsgeräts erfasst werden, zum Beispiel mit einer Digitalkamera, einem Röntgengerät, einem Computertomographiegerät, einem Magnetresonanzgerät, einem auf der Nuklearmedizin basierendem Scanner oder einem Ultraschallgerät.
- Abwandlungen und Variationen des Bilderfassungsgeräts, der Workstation, des Systems, des Verfahrens und/oder des Computerprogrammprodukts, die den beschriebenen Abwandlungen und Variationen des Systems entsprechen, können durch einen Fachkundigen auf der Grundlage der vorliegenden Beschreibung vorgenommen werden.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Diese und andere Aspekte der Erfindung sind aus der obigen Beschreibung ersichtlich und werden im Folgenden unter Bezugnahme auf die Zeichnungen erläutert. Es zeigen:
-
1 ein Blockschaltbild eines Systems zur Anzeige einer Vielzahl von registrierten Bildern; -
2 eine Skizze eines durch das hier beschriebene System oder Verfahren erzeugten Screenshots; -
3 einen Ablaufplan mit den Schritten eines Verfahrens zur Anzeige einer Vielzahl von registrierten Bildern. - AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
1 zeigt ein Beispiel eines Systems zur Anzeige einer Vielzahl von registrierten Bildern. Es ist zu beachten, dass viele der in der Zeichnung dargestellten Elemente optional sind oder durch eine gleichwertige Einheit ersetzt werden können. Das System kann zum Beispiel auf einem Computersystem mit Hilfe eines geeigneten Computerprogramms implementiert werden. Das Computersystem kann aus einer Workstation bestehen. Das Computersystem kann auch Teil eines verteilten Computersystems sein, das zahlreiche Funktionalitäten haben kann, zum Beispiel Speicherung und Verteilung von Bildern und/oder anderen Informationen. Ein Beispiel eines derartigen verteilten Systems ist ein Bildarchivierungs- und Kommunikationssystem (Picture Archiving and Communication System, PACS). Das System kann eine Anzeigeeinheit zum Anzeigen der Bilder und anderer Informationen sowie ein Benutzereingabegerät wie zum Beispiel eine Maus oder Tastatur umfassen. Die Anzeige und das Benutzereingabegerät können in einen berührungsempfindlichen Bildschirm integriert sein. -
2 zeigt eine Anzeigeeinheit200 , die eine Vielzahl von Ansichtsfenstern201 –206 darstellt. Die Anzahl von sechs Ansichtsfenstern in der Zeichnung ist nur ein willkürliches Beispiel. Es kann jegliche Anzahl von zwei oder mehr Ansichtsfenstern benutzt werden. Ein Ansichtsfenster ist als ein Bereich der Anzeige zu verstehen, in dem ein bestimmtes Element angezeigt wird. In der folgenden Beschreibung wird das System unter Bezugnahme auf die1 und2 beschrieben. - Das System kann eine erste Ansichtsfenstereinheit
1 zum Steuern des ersten Ansichtsfensters201 umfassen. Das System kann eine zweite Ansichtsfenstereinheit2 zum Steuern des zweiten Ansichtsfensters202 umfassen. Auf ähnliche Weise kann das System eine Vielzahl von zweiten Ansichtsfenstereinheiten2 ,3 umfassen, die dafür ausgelegt sind, eine Vielzahl von zweiten Ansichtsfenstern202 –206 zu steuern. Beispielsweise können die zweiten Ansichtsfenstereinheiten2 ,3 unter Verwendung des gleichen Softwarecodes oder unter Verwendung von Kopien des gleichen Softwarecodes mit unterschiedlichen Parametern wie unterschiedlichen Bilddatensätzen und unterschiedlichen Ansichtsfensterkoordinaten, mit denen gearbeitet werden soll, implementiert werden. - Die erste Ansichtsfenstereinheit
1 kann vorgesehen sein, um eine Darstellung eines ersten Bilddatensatzes4 in dem ersten Ansichtsfenster201 anzuzeigen. Zum Beispiel kann im Fall eines mindestens dreidimensionalen Bilddatensatzes eine Maximumintensitätsprojektion, ein Surface Rendering oder eine Schichtansicht angezeigt werden. Im Fall eines zweidimensionalen Bilddatensatzes kann der Bilddatensatz auf eine in der Technik an sich bekannten Weise visualisiert werden. Die zweite Ansichtsfenstereinheit2 kann vorgesehen sein, um eine Darstellung eines zweiten Bilddatensatzes5 in dem zweiten Ansichtsfenster202 anzuzeigen. Die zweite Ansichtsfenstereinheit kann das gleiche Rendering-Verfahren nutzen wie die erste Ansichtsfenstereinheit oder ein anderes Rendering-Verfahren. - Das System kann eine Positionsangabeeinheit
7 umfassen, die dafür vorgesehen ist, dem Benutzer zu ermöglichen, eine Position in dem ersten Datensatz4 anzugeben, der in dem ersten Ansichtsfenster201 angezeigt wird. Die Angabe kann auf eine in der Technik an sich bekannten Weise erfolgen, um eine vom Benutzer angegebene Position in dem ersten Bilddatensatz zu erhalten. Im Fall einer Schichtansicht zum Beispiel kann die Position in einem dreidimensionalen Raum von der in dem Ansichtsfenster angegebenen Position und den Parametern der Schicht, zum Beispiel der Schichtzahl, abgeleitet werden. - Das System kann eine Übereinstimmungspositionsermittlungseinheit
8 umfassen, die dafür vorgesehen ist, eine Position in dem zweiten Bilddatensatz5 zu ermitteln, die mit der vom Benutzer angegebenen Position übereinstimmt. Auf diese Weise wird eine übereinstimmende Position in dem zweiten Bilddatensatz5 erlangt. Zu diesem Zweck werden Übereinstimmungsinformationen9 verwendet, die Positionen in dem ersten Bilddatensatz4 auf übereinstimmende Positionen in dem zweiten Bilddatensatz5 abbilden. Die Übereinstimmungsinformationen9 können bei Bedarf interpoliert werden, um die übereinstimmende Position für die vom Benutzer angegebene Position zu finden. - Die zweite Ansichtsfenstereinheit
2 kann vorgesehen sein, um eine Angabe der übereinstimmenden Position in dem zweiten Ansichtsfenster202 anzuzeigen. Zum Beispiel kann ein Pfeil gezeigt werden, der auf die übereinstimmende Position in dem zweiten Bilddatensatz5 weist, wie er in dem zweiten Ansichtsfenster202 dargestellt ist. Alternativ kann ein Punkt oder ein anderes Symbol angezeigt werden. Alternativ kann die Position durch Verwenden einer anderen Farbe hervorgehoben werden. - Der erste Bilddatensatz
4 kann ein Objekt207 darstellen. Zum Beispiel kann der erste Bilddatensatz eine Fotografie des Objekts207 sein oder ein medizinisches Bild eines Patienten mit dem Objekt207 als ein Organ. Der erste Bilddatensatz4 kann einer ersten Erfassungszeit zugeordnet sein. Auf ähnliche Weise kann der zweite Bilddatensatz5 das gleiche Objekt darstellen, wobei der zweite Bilddatensatz5 einer anderen Erfassungszeit zugeordnet sein kann. Zum Beispiel kann der zweite Bilddatensatz5 mit der gleichen Bildgebungsmodalität gewonnen werden wie der erste Bilddatensatz4 oder mit einer anderen Bildgebungsmodalität. Die Übereinstimmungsinformationen9 können eine Verformung des Objekts207 zwischen den Erfassungszeiten darstellen.2 veranschaulicht, wie das in den Datensätzen dargestellte Objekt207 –212 in den jeweiligen verschiedenen Ansichtsfenstern201 –206 mit unterschiedlichen Formen gezeigt wird. Als veranschaulichendes Beispiel wurde eine kubische Form verwendet. In der Praxis kann das Objekt207 –212 ein Organ oder ein Tumor sein, dessen Form sich aufgrund von zum Beispiel einer Behandlung verändert. - Die zweite Ansichtsfenstereinheit
2 kann vorgesehen sein, um einen Umriss207' in dem zweiten Ansichtsfenster anzuzeigen. Dieser Umriss207' ist der Umriss von mindestens einem Teil des Objekts207 , der einer ersten Erfassungszeit zugeordnet ist, basierend auf dem ersten Bild. Demzufolge kann in dem zweiten Ansichtsfenster202 beobachtet werden, wie sich das Objekt verändert hat. - Wie oben beschrieben, kann die zweite Ansichtsfenstereinheit
2 dafür vorgesehen sein, eine Schicht des zweiten Bilddatensatzes anzuzeigen. Das System kann eine Schichtauswahleinheit16 zum Auswählen einer Schicht umfassen, die die übereinstimmende Position umfasst. Die zweite Ansichtsfenstereinheit2 kann dafür vorgesehen sein, die ausgewählte Schicht anzuzeigen. Die zweite Ansichtsfenstereinheit2 kann optional dafür vorgesehen sein, eine weitere graphische Angabe der übereinstimmenden Position aufzuweisen. - Die Übereinstimmungsinformationen
9 können starre Registrierungsinformationen10 umfassen, um eine Rotation oder eine Translation von mindestens einem Teil des durch die Bilddatensätze dargestellten Objekts zu berücksichtigen. Außerdem können die Übereinstimmungsinformationen nicht-starre Registrierungsinformationen11 umfassen, um eine Verformung des Objekts, einschließlich einer Veränderung der Größe, zu berücksichtigen. Die zweite Ansichtsfenstereinheit2 kann vorgesehen sein, um den zweiten Bilddatensatz basierend auf den starren Registrierungsinformationen10 zu drehen oder zu verschieben. Auf diese Weise wird das Objekt so ähnlich wie möglich in dem ersten und dem zweiten Ansichtsfenster gezeigt, ohne irgendeine Verformung des Objekts zu verdecken. Um eine einfache Angabe von anatomisch übereinstimmenden Punkten in der Vielzahl von Ansichtsfenstern zu ermöglichen, basiert die Anzeige der Angabe der übereinstimmenden Position auf den nicht-starren Registrierungsinformationen11 . - Die Übereinstimmungsinformationen
9 können ein oder mehrere Formmodelle12 umfassen. Ein erstes Formmodell kann an den ersten Bilddatensatz4 angepasst sein und ein zweites Formmodell kann an den zweiten Bilddatensatz5 angepasst sein. Die übereinstimmenden Positionen können auf eine in der Technik an sich bekannten Weise mit Hilfe dieser Formmodelle codiert werden. - Die Positionsangabeeinheit
7 kann vorgesehen sein, um dem Benutzer zu ermöglichen, die vom Benutzer angegebene Position anzugeben, indem er einen Mauscursor in dem ersten Ansichtsfenster positioniert. Zu diesem Zweck kann die Positionsangabeeinheit betriebsfähig mit einem Mausgerät13 oder einer Rollkugel oder einem Touchpad oder anderen Positioniermitteln verbunden sein. Alternativ kann es dem Benutzer ermöglicht werden, einen berührungsempfindlichen Bildschirm14 , der das erste Ansichtsfenster zeigt, an der gewünschten Position zu berühren. - Die Positionsangabeeinheit
7 kann vorgesehen sein, um dem Benutzer zu ermöglichen, eine Sequenz von aufeinanderfolgenden vom Benutzer angegebenen Positionen einzugeben, indem er einen Zeiger über ein erstes Ansichtsfenster bewegt. Die Übereinstimmungsermittlungseinheit8 kann vorgesehen sein, um die übereinstimmende Position zu aktualisieren, während der Zeiger über das erste Ansichtsfenster bewegt wird. Die zweite Ansichtsfenstereinheit2 kann vorgesehen sein, um die Anzeige der Angabe der übereinstimmenden Position zu aktualisieren, während die übereinstimmende Position aktualisiert wird. Auf diese Weise kann eine Echtzeitreaktion implementiert. werden. Außerdem kann die Anzeige fließend aktualisiert werden, während der Benutzer den Zeiger über das erste Ansichtsfenster führt. - Wie oben beschrieben, kann eine Vielzahl von zweiten Ansichtsfenstereinheiten
2 ,3 unterstützt werden. Dies ermöglicht die Anzeige von einer Vielzahl von jeweiligen zweiten Bilddatensätzen5 ,6 , denen Übereinstimmungsinformationen9 zugeordnet sind. Die Übereinstimmungsermittlungseinheit8 kann vorgesehen sein, um die übereinstimmenden Positionen in jedem der Vielzahl von zweiten Bilddatensätzen5 ,6 , basierend auf der angegebenen Position und den Übereinstimmungsinformationen9 zu ermitteln. Die Vielzahl von zweiten Ansichtsfenstereinheiten2 ,3 kann vorgesehen sein, um jeweilige Angaben der jeweiligen übereinstimmenden Positionen in den jeweiligen zweiten Ansichtsfenstern202 –206 anzuzeigen. Diese Positionen können auch fließend aktualisiert werden, wie oben beschrieben. - Der erste Bilddatensatz
4 und die jeweiligen zweiten Bilddatensätze5 ,6 können Teil einer Zeitsequenz von erfassten Bildern eines Objekts sein. - Das System kann eine manuelle Korrektureinheit
15 umfassen, um einem Benutzer zu ermöglichen, zumindest einen Teil der Übereinstimmungsinformationen durch Angeben einer Merkpunktposition in mindestens einem der Bilder auf eine in der Technik an sich bekannten Weise zu korrigieren. - Das System kann in den Bildansichtteil eines Bilderfassungsgeräts integriert sein. Ein derartiges Gerät kann den Bildscanner umfassen (zum Beispiel einen CT-Scanner oder ein Röntgengerät), der zum Erfassen des ersten Bilddatensatzes und/oder des zweiten Bilddatensatzes verwendet wird.
-
3 zeigt ein Verfahren zum Anzeigen einer Vielzahl von registrierten Bildern. Das Verfahren umfasst einen Schritt301 , in dem eine Darstellung eines ersten Bilddatensatzes angezeigt wird. Das Verfahren kann weiterhin einen Schritt302 umfassen, in dem eine Darstellung eines zweiten Bilddatensatzes angezeigt wird. Das Verfahren kann weiterhin einen Schritt303 umfassen, der es einem Benutzer ermöglicht, eine Position in dem ersten Bilddatensatz anzugeben, der in dem ersten Ansichtsfenster angezeigt wird, um eine vom Benutzer angegebene Position zu erhalten. Das Verfahren kann weiterhin einen Schritt304 umfassen, in dem eine mit der vom Benutzer angegebenen Position übereinstimmende Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem ersten Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, ermittelt wird, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten. Das Verfahren kann weiterhin einen Schritt305 umfassen, in dem eine Angabe der übereinstimmenden Position in dem zweiten Ansichtsfenster angezeigt wird. Das Verfahren kann durch den Fachkundigen in Hinblick auf diese Beschreibung angepasst werden. Das Verfahren kann mit Hilfe eines Computerprogramms implementiert werden. - Der Erfolg einer chemotherapeutischen Behandlung von Krebs ist nicht bei jedem Patienten, jeder Krebsart oder jeder Behandlungsart gleich. Um im Fall einer nicht erfolgreichen Behandlung reagieren zu können (zum Beispiel, indem das Behandlungsprotokoll angepasst wird), ist es nützlich, während der Therapie die Therapieresponse eines Tumors zu überwachen. Medizinische Bildgebung, zum Beispiel MR-Bildgebung, liefert Daten, von denen die Therapieresponse eines Tumors abgeleitet werden kann. Derzeit verwendete manuelle Messungen sind von begrenzter Belastbarkeit und Reproduzierbarkeit. Das Verfolgen eines Tumors über die Zeit setzt voraus, dass er in den Bilddaten gefunden und gekennzeichnet wird, was ein zeitaufwändiger Prozess ist.
- Es kann eine graphische Benutzeroberfläche geschaffen werden, die eine Vielzahl von Ansichtsfenstern wie oben beschrieben umfasst und das Inspizieren eines Basisbildes und einer Reihe von Folgebildern nebeneinander erlaubt. Es können ein Algorithmus zum automatischen Identifizieren von anatomisch übereinstimmenden Positionen in dem Basisbild und den Folgebildern (zum Beispiel ein elastischer Registrierungsalgorithmus) und eine Benutzeroberfläche, die die übereinstimmenden Mauszeigerpositionen in Echtzeit aktualisiert, geschaffen werden. Eine zugrundeliegende Datenbank kann verwendet werden, um übereinstimmende Bildinformationen zusammen mit Informationen über die geometrische Verformung zwischen dem Bildinhalt von übereinstimmenden Bildern zu speichern. Es kann ein Interaktionsschema zur manuellen Justierung von fehlplatzierten Läsionsorten bereitgestellt werden. Es können Algorithmen zur quantitativen Merkmalsextraktion aus den Tumorbildern bereitgestellt werden.
- Wenn das System in Betrieb ist, können neue Bilddaten in eine PACS-artige Datenbank importiert und auf Bildvolumenpaare geprüft werden, die sinnvoll miteinander verknüpft werden können, zum Beispiel zwei Bildvolumina von zwei unterschiedlichen MR-Untersuchungen des selben Patienten, die beide zu einer dynamischen, kontrastmittelangereicherten Serie gehören und zu ungefähr dem gleichen Zeitpunkt in der dynamischen Erfassung aufgenommen wurden. Abhängig von den verfügbaren Algorithmen für die geometrische Verknüpfung der Bilddaten können weitere Bildvolumenpaare ebenfalls als übereinstimmende Volumina einbezogen werden.
- Eine Benutzeroberfläche kann es dem Benutzer ermöglichen, auf die Datenbank zuzugreifen und eine Untersuchung als Basisuntersuchung auszuwählen sowie ein Bildvolumen aus dieser Untersuchung als Basisvolumen zu identifizieren, und bietet übereinstimmende Volumina aus späteren Untersuchungen (entsprechend den Datenbankinformationen) als mögliche Folgebildvolumina an.
- Nach dem Laden der ausgewählten Bildvolumina werden die Bilder in separaten Ansichtsfenstern angezeigt, zum Beispiel wie in
2 dargestellt. Der Benutzer kann dann einen Tumor in dem Basisbild auswählen. Die anatomisch übereinstimmenden Positionen können in den Folgebildern gezeigt und in Echtzeit aktualisiert werden, während der Benutzer eine andere Position angibt. Die Übereinstimmungsinformationen können zum Beispiel durch Anwenden eines elastischen Registrierungsalgorithmus auf ein Basisbild/Folgebild-Paar abgeleitet werden. Der Benutzer kann den Tumor in einem Bild markieren und die Tumorpositionen können unter Verwendung der Registrierungsinformationen an die anderen Bildern weitergegeben werden, und anschließend in der Bilddatenbank gespeichert werden. Unter Verwendung des Tumororts kann eine automatische Tumorsegmentierung angewendet werden, und die Veränderung des Tumorwertes kann über die Zeit aufgetragen werden, um einen Trend der Tumorreaktion auf die Behandlung darzustellen. Eine derartige automatische Tumorsegmentierung ist zum Beispiel aus Buelow, T., Meinel, L. A., Wiemker, R., Kose, U., Shimauchi, A. und Newstead, G., ”Segmentation of suspicious lesions in dynamic contrast-enhanced breast MR images,” in SPIE Medical Imaging: CAD, 6514, 27 (2007), bekannt. - Der Tumor kann in allen übereinstimmenden Untersuchungen markiert werden. Es kann ein automatischer Segmentierungsalgorithmus angewendet werden, um den Tumor abzugrenzen. Die berechneten Tumorvolumina können graphisch dargestellt werden. Bei gegebenem Tumorort (und Tumorsegmentierung) können weitere Merkmale, zum Beispiel kinetische Merkmale, basierend auf dynamischen kontrastmittelangereicherten Bildgebungsstudien, augenscheinlichen Diffusionskoeffizienten, die von diffusionsgewichteten Bildern abgeleitet wurden, oder morphologische Merkmale berechnet werden. Optional kann das Verformungsvektorfeld, das durch die elastische Registrierung abgeleitet wurde, verwendet werden, um die Tumor-Teilvolumina auszurichten (die aufgrund von Veränderungen der Patientenpositionierung gekippt oder gedreht sein könnten). Dies ermöglicht es dem Benutzer, übereinstimmende Querschnitte des Tumors visuell zu vergleichen. Tumor-Teilvolumina können auf die Orientierung des Tumors in dem Basisbild ausgerichtet werden, um übereinstimmende Tumorquerschnittbilder zu erhalten. Die Tumorabgrenzung kann anhand des Basisbildes berechnet werden und der übereinstimmenden Position der Folgebilder überlagert werden. Optional kann die Tumorkontur, wie sie durch die Segmentierung des Tumors in dem Basisbildvolumen abgeleitet wurden, graphisch an der übereinstimmenden Position der Folgebilder gezeigt werden, um einen visuellen Vergleich der Tumorveränderung im Laufe der Zeit zu ermöglichen.
- Das System kann in jeder Radiologie-Workstation, jedem PACS-System oder einer Scanner-Konsole verwendet werden.
- Es ist zu beachten, dass sich die Erfindung auch auf Computerprogramme, insbesondere Computerprogramme auf oder in einem Träger, bezieht, die dafür ausgelegt sind, die Erfindung in die Praxis umzusetzen. Das Programm kann in Form eines Quellcodes, eines Objektcodes, einer Zwischencodequelle und eines Objektcodes, wie in einer partiell kompilierten Form, oder in jeder anderen Form vorliegen, die für die Verwendung bei der Implementierung des erfindungsgemäßen Verfahrens geeignet ist. Es ist auch zu beachten, dass ein derartiges Programm viele verschiedene Architekturkonzepte haben kann. Zum Beispiel kann ein Programmcode, der die Funktionalität des erfindungsgemäßen Verfahrens oder Systems implementiert, in eine oder mehrere Subroutinen unterteilt sein. Dem Fachkundigen werden viele verschiedene Arten der Aufteilung der Funktionalität auf diese Subroutinen offensichtlich sein. Die Subroutinen können zusammen in einer ausführbaren Datei gespeichert werden, um ein eigenständiges Programm zu bilden. Eine derartige ausführbare Datei kann vom Computer ausführbare Anweisungen umfassen, zum Beispiel Prozessoranweisungen und/oder Interpreter-Anweisungen (zum Beispiel Java Interpreter-Anweisungen). Alternativ können eine oder mehrere oder alle Subroutinen in mindestens einer externen Bibliothekdatei gespeichert und entweder statisch oder dynamisch, zum Beispiel mit Laufzeit, mit einem Hauptprogramm verknüpft werden. Das Hauptprogramm enthält mindestens einen Aufruf von mindestens einer der Subroutinen. Die Subroutinen können auch Aufrufe voneinander umfassen. Eine Ausführungsform, die sich auf ein Computerprogrammprodukt bezieht, umfasst durch einen Computer ausführbare Anweisungen, die jedem Verarbeitungsschritt von mindestens einem der hier beschriebenen Verfahren entsprechen. Diese Anweisungen können in Subroutinen unterteilt und/oder in einer oder mehreren Dateien gespeichert werden, die statisch oder dynamisch verknüpft werden können. Eine weitere Ausführungsform, die sich auf ein Computerprogrammprodukt bezieht, umfasst durch einen Computer ausführbare Anweisungen, die jedem Mittel von dem mindestens einem der Systeme und/oder Produkte entsprechen, die hier beschrieben wurden. Diese Anweisungen können in Subroutinen unterteilt und/oder in einer oder mehreren Dateien gespeichert werden, die statisch oder dynamisch verknüpft werden können.
- Der Träger eines Computerprogramms kann eine Einheit oder eine Vorrichtung sein, in der das Programm untergebracht werden kann. Zum Beispiel kann der Träger ein Speichermedium, wie zum Beispiel einen ROM (Festwertspeicher), beispielsweise eine CD-ROM oder einen Halbleiter-ROM, oder ein magnetisches Aufnahmemedium, beispielsweise ein Flash-Laufwerk oder eine Festplatte, umfassen. Ferner kann der Träger ein übertragbarer Träger sein, beispielsweise ein elektrisches oder optisches Signal, das über ein elektrisches oder optisches Kabel oder per Funk oder auf andere Weise übermittelt werden kann. Wenn das Programm in einem derartigen Signal verkörpert ist, kann der Träger durch ein derartiges Kabel oder eine andere Vorrichtung oder ein anderes Mittel gebildet werden. Alternativ kann der Träger eine integrierte Schaltung sein, in die das Programm eingebettet ist, wobei die integrierte Schaltung dafür ausgelegt ist, das relevante Verfahren auszuführen oder bei seiner Ausführung verwendet zu werden.
- Es ist anzumerken, dass die oben erwähnten Ausführungsbeispiele die Erfindung erläutern und sie nicht einschränken, und dass der Fachkundige in der Lage sein wird, viele alternative Ausführungsbeispiele zu konstruieren, ohne vom Rahmen der anhängenden Ansprüche abzuweichen. In den Ansprüchen sind in Klammern gesetzte Bezugszeichen nicht als den Anspruch einschränkend anzusehen. Die Verwendung des Verbs ”umfassen” und seiner Konjugationen schließt das Vorhandensein von anderen als den in einem Anspruch erwähnten Elementen oder Schritten nicht aus. Der Artikel ”a” oder ”eine” vor einem Element schließt das Vorhandensein mehrerer derartiger Elemente nicht aus. Die Erfindung kann mittels Hardware ausgeführt werden, die mehrere verschiedene Elemente umfasst, und mittels eines in geeigneter Weise programmierten Computers. In dem Anspruch zur Vorrichtung werden mehrere Mittel aufgezählt, von denen einige in einem und demselben Hardwareteil ausgeführt werden können. Die alleinige Tatsache, dass gewisse Maßnahmen in verschiedenen abhängigen Ansprüchen aufgeführt sind, bedeutet nicht, dass eine Kombination dieser Maßnahmen nicht vorteilhaft eingesetzt werden kann.
Claims (15)
- System zum Anzeigen einer Vielzahl von registrierten Bildern, wobei das System Folgendes umfasst: eine erste Ansichtsfenstereinheit (
1 ) zum Anzeigen einer Darstellung eines ersten Bilddatensatzes (4 ) in einem ersten Ansichtsfenster (201 ); eine zweite Ansichtsfenstereinheit (2 ) zum Anzeigen einer Darstellung eines zweiten Bilddatensatzes (5 ) in einem zweiten Ansichtsfenster (202 ); eine Positionsangabeeinheit (7 ), um einen Benutzer zu befähigen, eine Position in dem im ersten Ansichtsfenster (201 ) angezeigten ersten Bilddatensatz (4 ) anzugeben, um eine vom Benutzer angegebene Position zu erhalten; und eine Übereinstimmungspositionsermittlungseinheit (8 ) zum Ermitteln einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz (5 ) basierend auf Übereinstimmungsinformationen (9 ), die Positionen in dem ersten Bilddatensatz (4 ) auf hiermit übereinstimmende Positionen in dem zweiten Bilddatensatz (5 ) abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz (5 ) zu erhalten; wobei die zweite Ansichtsfenstereinheit (2 ) vorgesehen ist, um eine Angabe der übereinstimmenden Position im zweiten Ansichtsfenster (202 ) anzuzeigen. - System nach Anspruch 1, wobei der erste Bilddatensatz (
4 ) ein Objekt (207 ) darstellt und einer ersten Erfassungszeit zugeordnet ist, und der zweite Bilddatensatz (5 ) das gleiche Objekt (208 ) darstellt und einer anderen Erfassungszeit zugeordnet ist, und wobei die Übereinstimmungsinformationen (9 ) eine Verformung des Objekts (207 ) zwischen den Erfassungszeiten darstellen. - System nach Anspruch 2, wobei die zweite Ansichtsfenstereinheit (
2 ) vorgesehen ist, um einen Umriss (207' ) von mindestens einem Teil des Objekts (207 ), der der ersten Erfassungszeit zugeordnet ist, basierend auf dem ersten Bild und/oder den Übereinstimmungsinformationen anzuzeigen. - System nach Anspruch 1, wobei die zweite Ansichtsfenstereinheit (
2 ) vorgesehen ist, um eine Schicht des zweiten Bilddatensatzes anzuzeigen, und eine Schichtauswahleinheit (16 ) zum Auswählen einer Schicht umfasst, die die übereinstimmende Position enthält. - System nach Anspruch 2, wobei die Übereinstimmungsinformationen (
9 ) starre Registrierungsinformationen (10 ) umfassen, um eine Rotation oder eine Translation von mindestens einem Teil des durch die Bilddatensätze dargestellten Objekts zu berücksichtigen, und nicht-starre Registrierungsinformationen (11 ), um eine Verformung des Objekts zu berücksichtigen, wobei die zweite Ansichtsfenstereinheit (2 ) vorgesehen ist, um den zweiten Bilddatensatz basierend auf den starren Registrierungsinformationen (10 ) zu drehen oder zu verschieben, und wobei die Anzeige der Angabe der übereinstimmenden Position auf den nicht-starren Registrierungsinformationen (11 ) beruht. - System nach Anspruch 1, wobei die Übereinstimmungsinformationen (
9 ) ein erstes Formmodell, das an den ersten Bilddatensatz (4 ) angepasst ist, und ein zweites Formmodell, das an den zweiten Bilddatensatz (5 ) angepasst ist, umfassen. - System nach Anspruch 1, wobei die Positionsangabeeinheit (
7 ) dafür ausgelegt ist, dem Benutzer das Angeben der vom Benutzer angegebenen Position durch Positionieren eines Mauscursors auf dem ersten Ansichtsfenster oder durch Berühren der Position auf einem berührungsempfindlichen Bildschirm (14 ), der das erste Ansichtsfenster anzeigt, zu ermöglichen. - System nach Anspruch 1, wobei die Positionsangabeeinheit (
7 ) dafür ausgelegt ist, dem Benutzer das Eingeben einer Sequenz von aufeinanderfolgenden vom Benutzer angegebenen Positionen zu ermöglichen, indem er einen Zeiger über das erste Ansichtsfenster bewegt, und wobei die Übereinstimmungsermittlungseinheit (8 ) dafür ausgelegt ist, die übereinstimmende Position zu aktualisieren, während der Zeiger über das erste Ansichtsfenster bewegt wird, und wobei die zweite Ansichtsfenstereinheit (2 ) dafür ausgelegt ist, die Anzeige der Angabe der übereinstimmenden Position zu aktualisieren, während die übereinstimmende Position aktualisiert wird. - System nach Anspruch 1, mit einer Vielzahl von zweiten Ansichtsfenstereinheiten (
2 ,3 ), die dafür ausgelegt sind, eine Vielzahl von zweiten Ansichtsfenstern (202 –206 ) zu steuern, um die Anzeige einer Vielzahl von jeweiligen zweiten Bilddatensätzen (5 ,6 ) mit zugehörigen Übereinstimmungsinformationen (9 ) zu ermöglichen, wobei die Übereinstimmungsermittlungseinheit (8 ) dafür ausgelegt ist, die übereinstimmenden Positionen in der Vielzahl von zweiten Bilddatensätzen (5 ,6 ) basierend auf der angegebenen Position und den Übereinstimmungsinformationen (9 ) zu ermitteln, und wobei die Vielzahl von zweiten Ansichtsfenstereinheiten (2 ,3 ) dafür ausgelegt ist, jeweilige Angaben der jeweiligen übereinstimmenden Positionen in den jeweiligen zweiten Ansichtsfenstern (202 –206 ) anzuzeigen. - System nach Anspruch 9, wobei der erste Bilddatensatz (
4 ) und die jeweiligen zweiten Bilddatensätze (5 ,6 ) Teil einer Zeitsequenz von erfassten Bildern eines Objekts sind. - System nach Anspruch 1, wobei das System eine manuelle Korrektureinheit (
15 ) umfasst, um einem Benutzer zu ermöglichen, zumindest einen Teil der Übereinstimmungsinformationen durch Angeben einer Merkpunktposition in mindestens einem der Bilder zu korrigieren. - Workstation mit einem System nach Anspruch 1.
- Bilderfassungsgerät mit einem Bildscanner zum Erfassen des ersten Bilddatensatzes und/oder des zweiten Bilddatensatzes und mit einem System nach Anspruch 1.
- Verfahren zur Anzeige einer Vielzahl von registrierten Bildern, wobei das Verfahren die folgenden Schritte umfasst: Anzeigen (
301 ) einer Darstellung eines ersten Bilddatensatzes; Anzeigen (302 ) einer Darstellung eines zweiten Bilddatensatzes; Befähigen (303 ) eines Benutzers, eine Position in dem im ersten Ansichtsfenster angezeigten ersten Datensatz anzugeben, um eine vom Benutzer angegebene Position zu erhalten; Ermitteln (304 ) einer mit der vom Benutzer angegebenen Position übereinstimmenden Position in dem zweiten Bilddatensatz basierend auf Übereinstimmungsinformationen, die Positionen in dem erste Bild auf hiermit übereinstimmende Positionen in dem zweiten Bild abbilden, um eine übereinstimmende Position in dem zweiten Bilddatensatz zu erhalten; und Anzeigen (305 ) einer Angabe der übereinstimmenden Position im zweiten Ansichtsfenster. - Computerprogrammprodukt mit Anweisungen zum Veranlassen eines Prozessorsystems, das Verfahren nach Anspruch 14 auszuführen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP11171859 | 2011-06-29 | ||
EP11171859.9 | 2011-06-29 | ||
PCT/IB2012/053259 WO2013001471A2 (en) | 2011-06-29 | 2012-06-27 | Displaying a plurality of registered images |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112012002671T5 true DE112012002671T5 (de) | 2014-04-03 |
Family
ID=46704973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112012002671.3T Pending DE112012002671T5 (de) | 2011-06-29 | 2012-06-27 | Anzeigen einer Vielzahl von registrierten Bildern |
Country Status (4)
Country | Link |
---|---|
US (1) | US9678644B2 (de) |
CN (1) | CN103635936B (de) |
DE (1) | DE112012002671T5 (de) |
WO (1) | WO2013001471A2 (de) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019680A1 (en) * | 2013-03-29 | 2016-01-21 | Koninklijke Philips N.V. | Image registration |
JP6200249B2 (ja) * | 2013-09-11 | 2017-09-20 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
KR102205906B1 (ko) * | 2013-12-09 | 2021-01-22 | 삼성전자주식회사 | 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템 |
US20150317071A1 (en) * | 2014-05-05 | 2015-11-05 | Peter N. Moore | Method and Computer-Readable Medium for Cueing the Display of Active Content to an Audience |
US10650537B2 (en) * | 2014-08-22 | 2020-05-12 | B-K Medical Aps | Updating reference imaging data with update 2D and/or 3D imaging data |
JP6711715B2 (ja) * | 2016-07-19 | 2020-06-17 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
CN106845068B (zh) * | 2016-12-13 | 2020-05-22 | 海纳医信(北京)软件科技有限责任公司 | 图片标注方法和装置 |
US10918885B2 (en) | 2018-09-27 | 2021-02-16 | Varian Medical Systems International Ag | Systems, methods and devices for automated target volume generation |
FR3139650B3 (fr) | 2022-09-09 | 2024-09-13 | Hera Mi | Systeme et procede pour le positionnement synchronise d’un pointeur de reperage dans differentes images d’un meme objet deformable |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5613013A (en) * | 1994-05-13 | 1997-03-18 | Reticula Corporation | Glass patterns in image alignment and analysis |
JP4509115B2 (ja) * | 2003-09-29 | 2010-07-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 放射線治療を計画するための方法及び装置 |
US20070100223A1 (en) * | 2005-10-14 | 2007-05-03 | Rui Liao | Method and system for cardiac imaging and catheter guidance for radio frequency (RF) ablation |
CN1846616A (zh) * | 2006-03-13 | 2006-10-18 | 华中科技大学 | 一种计算机辅助预测乳腺癌风险的方法 |
US7693349B2 (en) | 2006-08-15 | 2010-04-06 | General Electric Company | Systems and methods for interactive image registration |
JP2010516301A (ja) | 2007-01-03 | 2010-05-20 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | コンピュータ支援治療モニタリング装置及び方法 |
US8121362B2 (en) * | 2007-04-30 | 2012-02-21 | Siemens Medical Solutions Usa, Inc. | Registration of medical images using learned-based matching functions |
US8165425B2 (en) | 2008-07-24 | 2012-04-24 | Siemens Medical Solutions Usa, Inc. | Interactive manual deformable registration of images |
WO2010073178A1 (en) * | 2008-12-23 | 2010-07-01 | Koninklijke Philips Electronics N.V. | System for monitoring medical abnormalities and method of operation thereof |
CN102361594B (zh) * | 2009-03-26 | 2014-10-29 | 皇家飞利浦电子股份有限公司 | 由临床指南导航器支持的基于pet/ct的治疗监测系统 |
US20110200227A1 (en) * | 2010-02-17 | 2011-08-18 | Siemens Medical Solutions Usa, Inc. | Analysis of data from multiple time-points |
DE102010022266A1 (de) * | 2010-05-31 | 2011-12-01 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Registrierung von medizinischen Bilddaten |
-
2012
- 2012-06-27 DE DE112012002671.3T patent/DE112012002671T5/de active Pending
- 2012-06-27 WO PCT/IB2012/053259 patent/WO2013001471A2/en active Application Filing
- 2012-06-27 CN CN201280032290.7A patent/CN103635936B/zh active Active
- 2012-06-27 US US14/128,668 patent/US9678644B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20150363080A1 (en) | 2015-12-17 |
WO2013001471A3 (en) | 2013-04-11 |
CN103635936B (zh) | 2018-02-13 |
WO2013001471A2 (en) | 2013-01-03 |
CN103635936A (zh) | 2014-03-12 |
US9678644B2 (en) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112012002671T5 (de) | Anzeigen einer Vielzahl von registrierten Bildern | |
DE112014004211B4 (de) | Radiotherapiesystem mit erweiterter graphischer Benutzeroberfläche | |
DE102010009295B4 (de) | Verfahren zur Darstellung eines zu untersuchenden und/oder behandelnden Bereichs | |
DE102007034911A1 (de) | Vorrichtung und Verfahren zur On-Demand visuellen Verbesserung von klinischen Zuständen in Bildern | |
DE102006012015A1 (de) | Verfahren und Systeme zur Überwachung einer Tumorbelastung | |
DE102016221684B4 (de) | Verfahren und Bilddatenverarbeitungseinrichtung zum Verarbei-ten eines Multi-Energie-Computertomographie-Bilddatensatzes mit Basismaterialzerlegung und Bildwerte-Tupel-Abbildung | |
DE102007046250A1 (de) | Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild | |
DE202009019204U1 (de) | Röntgenerfassungssystem zur Erzeugung eines synthetisierten 2D-Mammogramms aus durch Tomosynthese rekonstruierten Bildern | |
DE102007057096A1 (de) | Verfahren und Vorrichtung zur automatischen Registrierung von Läsionen zwischen Untersuchungen | |
DE102004056783A1 (de) | Verfahren und Vorrichtung zum Segmentieren von Strukturen in einer CT-Angiographie | |
DE10353883A1 (de) | Verfahren und Einrichtung zum Messen Krankheits-relevanter Gewebeveränderungen | |
DE102008037453A1 (de) | Verfahren und System zur Visualisierung von registrierten Bildern | |
DE102011003137A1 (de) | Bildgebungsverfahren mit einer verbesserten Darstellung eines Gewebebereichs | |
DE102011052842A1 (de) | Bildverarbeitungsverfahren zur Bestimmung verdächtiger Regionen in einer Gewebematrix und dessen Verwendung zur 3D-Navigation durch die Gewebematrix | |
DE102011053044A1 (de) | System und Verfahren zur Analyse und sichtbaren Darstellung lokaler klinischer Merkmale | |
DE102009043868A1 (de) | Halbautomatische Registrierung von Daten auf der Basis eines hyrarchischen Netzes | |
DE102017214447B4 (de) | Planare Visualisierung von anatomischen Strukturen | |
DE102006058941A1 (de) | Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems | |
DE112018005199T5 (de) | Erzeugung von zusammengesetzten Bildern auf Basis von Livebildern | |
DE102020124527A1 (de) | Anzeigesteuergerät, verfahren zum betreiben eines anzeigesteuergeräts und programm zum betreiben eines anzeigesteuergeräts | |
DE102016208647A1 (de) | Verfahren und Vorrichtung zur Überwachung einer Brustuntersuchung | |
DE10338145B4 (de) | Verfahren zur Darstellung von 3D Bilddaten | |
DE102012100067A1 (de) | Verfahren und System zur verbesserten medizinischen Bildanalyse | |
DE102015210912A1 (de) | Rekonstruktion eines Ergebnisbildes unter Berücksichtigung von Kontur-Signifikanz-Daten | |
DE112004001691T5 (de) | Verfahren und System zur automatischen Ausrichtung von lokalen Visualisierungstechniken für vaskuläre Strukturen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE |
|
R082 | Change of representative |
Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE |
|
R081 | Change of applicant/patentee |
Owner name: PHILIPS DEUTSCHLAND GMBH, DE Free format text: FORMER OWNER: PHILIPS INTELLECTUAL PROPERTY & STANDARDS GMBH, 20099 HAMBURG, DE Effective date: 20140331 Owner name: PHILIPS DEUTSCHLAND GMBH, DE Free format text: FORMER OWNER: KONINKLIJKE PHILIPS N.V., EINDHOVEN, NL Effective date: 20140129 Owner name: PHILIPS GMBH, DE Free format text: FORMER OWNER: KONINKLIJKE PHILIPS N.V., EINDHOVEN, NL Effective date: 20140129 Owner name: PHILIPS GMBH, DE Free format text: FORMER OWNER: PHILIPS INTELLECTUAL PROPERTY & STANDARDS GMBH, 20099 HAMBURG, DE Effective date: 20140331 |
|
R082 | Change of representative |
Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE Effective date: 20140331 Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE Effective date: 20140129 Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE Effective date: 20140331 Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE Effective date: 20140129 |
|
R081 | Change of applicant/patentee |
Owner name: PHILIPS GMBH, DE Free format text: FORMER OWNER: PHILIPS DEUTSCHLAND GMBH, 20099 HAMBURG, DE |
|
R082 | Change of representative |
Representative=s name: MAIWALD PATENTANWALTSGESELLSCHAFT MBH, DE Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE |
|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: PHILIPS GMBH, DE Free format text: FORMER OWNER: PHILIPS GMBH, 20099 HAMBURG, DE |
|
R082 | Change of representative |
Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE |
|
R016 | Response to examination communication |