DE102012200225A1 - Verfahren zum Verarbeiten von Patientenbilddaten und Bildbetrachtungsvorrichtung - Google Patents

Verfahren zum Verarbeiten von Patientenbilddaten und Bildbetrachtungsvorrichtung Download PDF

Info

Publication number
DE102012200225A1
DE102012200225A1 DE201210200225 DE102012200225A DE102012200225A1 DE 102012200225 A1 DE102012200225 A1 DE 102012200225A1 DE 201210200225 DE201210200225 DE 201210200225 DE 102012200225 A DE102012200225 A DE 102012200225A DE 102012200225 A1 DE102012200225 A1 DE 102012200225A1
Authority
DE
Germany
Prior art keywords
image data
region
property
image
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201210200225
Other languages
English (en)
Inventor
Dr. Endreß Andrea
Manfred Koch
Martin Trini
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE201210200225 priority Critical patent/DE102012200225A1/de
Publication of DE102012200225A1 publication Critical patent/DE102012200225A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

Eine Aufgabe der vorliegenden Erfindung besteht darin, bei einer Verarbeitung von Bilddaten eines Körpers eines Patienten die Handhabung für einen Benutzer zu vereinfachen. Die erfindungsgemäße Bildbetrachtungsvorrichtung (10) umfasst eine Analyseeinrichtung (22), die in Bilddaten (14, 18) eines Körpers eines Patienten ohne ein Zutun des Benutzers der Bildbetrachtungsvorrichtung (10) selbsttätig eine abgrenzbare Region des Körpers erkennt und dem Benutzer zu den Bilddaten (14, 18) der Region in Abhängigkeit von einer Eigenschaft der Region eine Anwendung zum Verändern der Bilddaten (14, 18) bereitstellt. Nach dem erfindungsgemäßen Verfahren wird in den Bilddaten (14, 18) eine Region des Körpers durch die Analyseeinrichtung (22) selbsttätig ausgewählt und anhand der Bilddaten (14, 18) eine Eigenschaft der Region ermittelt. In Abhängigkeit von der ermittelten Eigenschaft werden die Bilddaten (14, 18) der Region dann verarbeitet.

Description

  • Die Erfindung betrifft ein Verfahren zum Verarbeiten von Bilddaten eines Körpers eines Patienten sowie eine zugehörige Bildbetrachtungsvorrichtung.
  • In der interventionellen Radiologie können zur Unterstützung eines Arztes bei einer Beurteilung eines Falles Bilddaten eines Körpers eines Patienten, die aus unterschiedlichen Modalitäten stammen, fusioniert dargestellt werden. Der Begriff Modalität steht hierbei für verschiedene Medizingeräte, die für bildgebende Verfahren in der Medizindiagnostik eingesetzt werden können. Beispiele für ein Bild einer solchen Modalität sind ein Röntgenbild (CR), eine Computertomographie (CT), eine Magnetresonanztomographie (MR), eine Positronen-Emissions-Tomographie (PET) und eine Röntgen-Angiographie (XA). Je nach verwendeter Modalität werden die Strukturen von Knochen, Fett, Gewebe, Flüssigkeiten und anderer Körperbestandteile unterschiedlich gut erkennbar dargestellt. Durch das Fusionieren der Bilddaten wird eine Darstellung einer Körperregion ermöglicht, welche die Vorzüge der einzelnen Modalitäten bei der Darstellung der Körperregion miteinander kombiniert. So kann der Arzt für eine bestimmte Untersuchung die zur Darstellung eines bestimmten Organs am besten geeignete Modalität heranziehen. Die Darstellung kann darin bestehen, gleichzeitig mehrere Abbildungen des Organs auf der Grundlage unterschiedlicher Modalitäten oder auch eine einzelne überlagerte Darstellung anzuzeigen.
  • Um die Bilddaten der einzelnen Modalitäten lage- und dimensionsrichtig aufeinander abbilden zu können, ist aber zunächst eine Registrierung der Bilddaten nötig. Ziel der Registrierung ist, eine Transformation zu finden, die ein gegebenes Quellbild selbstmöglich mit einem Zielbild in Übereinstimmung bringt. Hierbei wird zwischen rigiden und nicht-rigiden Registrierungen unterschieden. Bei der rigiden Registrierung wird die Abbildung des Quellbildes auf das Zielbild darauf beschränkt, dass Quellbild nur durch Translationen und Rotationen zu verändern. Die nicht-rigide Registrierung erlaubt eine beliebige Deformation des Quellbildes und nutzt hierzu Informationen aus einem Deformationsfeld, dass für jedes Pixel (Bildelement) oder Voxel (Volumenelement) des Bilddatensatzes eine unabhängige Abbildungsanweisung enthält.
  • Eine Registrierung ist sehr rechenaufwendig und oftmals nur für bestimmte Regionen von befriedigendem Ergebnis. Dies liegt darin begründet, dass zum Beispiel durch Atemartefakte gerade im abdominellen Bereich Deformationen der Organe auftreten. Bei einer Registrierung von Bilddaten zweier Modalitäten kann in jedem der Bilddatensätze das Organ also eine andere Form aufweisen. Registriert man nun die Bilddaten, kann die benötigte graphische Verzerrung für die Abbildung der Bilddaten des Organs dazu führen, dass die umliegenden Körperregionen sich nicht ebenfalls mit den entsprechenden Körperregionen in den anderen Bilddatensatz in Deckung bringen lassen. Hier ist es in der Regel nötig, dass der Anwender, beispielsweise der Arzt, händisch diejenigen Regionen auswählt, die er registrieren bzw. nicht registrieren möchte. Dies bedeutet aber einen zusätzlichen Zeitaufwand für den Anwender.
  • In ähnlicher Weise ist es nötig, dass ein Benutzer einer Bildbetrachtungsvorrichtung manuell, also händisch in einen Bildbearbeitungsprozess eingreift, wenn ein Patientendatensatz mithilfe von Unterstützungsprogrammen, die auch Applikationen genannt werden, analysiert werden soll. Beispiele für solche Applikationen sind ein Programm zum Vermessen eines dargestellten Organs, eine Kantendetektion für Bilddaten oder auch eine Mustererkennung. Eine für die durchzuführende Begutachtung der Bilddaten geeignete Applikation, mit welcher ein Benutzer arbeiten möchte (z.B. Pre-, Postprocessing, Diagnose), muss dieser nach dem Öffnen von Patientendateien, also 2D- oder 3D-Bilddatensätzen, selbst auswählen. Soll einem Benutzer nun eine möglichst große Anzahl von Applikationen bereitgestellt werden, um ihm eine nach seinen Bedürfnissen optimale Auswertung der Bilddaten zu ermöglichen, so führt dies zu der paradoxen Situation, das mit wachsender Anzahl von Applikationen die Bedienung der Bildbetrachtungsvorrichtung immer umständlicher wird.
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, bei einer Verarbeitung von Bilddaten eines Körpers eines Patienten die Handhabung für einen Benutzer zu vereinfachen.
  • Die Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 und durch eine Bildbetrachtungsvorrichtung gemäß Patentanspruch 15 gelöst. Vorteilhafte Weiterbildungen der Erfindungen sind durch die Unteransprüche gegeben.
  • Erfindungsgemäß wird vorgeschlagen, dem Benutzer eine datenabhängige, automatische Vorverarbeitung des Datensatzes an die Hand zu geben. Hierzu wird nach dem erfindungsgemäßen Verfahren in den Bilddaten wenigstens eine Region des Körpers durch eine Analyseeinrichtung selbsttätig ausgewählt und dann anhand der Bilddaten durch die Analyseeinrichtung eine Eigenschaft der Region ermittelt. Ist beispielsweise in den Bilddaten die Kontur einer Leber des Patienten erkennbar, so kann diese Kontur zunächst einmal automatisch durch die Analyseeinrichtung als eine Region ausgewählt werden. Die Form der Kontur oder die Textur des Gewebes erlaubt es der Analyseeinrichtung dann auch, die Region als Leber zu erkennen. In diesem Fall besteht die Eigenschaft der Region also darin, dass es sich um eine Leber handelt. Mit der Identifizierung der Eigenschaft ist aber nicht unbedingt nur gemeint, dass die Region als ein bestimmtes Organ erkannt wird. Ausreichend ist beispielsweise auch, wenn erkannt wird, dass sich in der Region Fettgewebe, Blut oder ein Kontrastmittel befindet oder dass Tumore vorhanden sind.
  • Als weiterer wichtiger Schritt des erfindungsgemäßen Verfahrens wird in Abhängigkeit von der ermittelten Eigenschaft der Region eine Verarbeitung der Bilddaten der Region durchgeführt. Ein Benutzer der Analyseeinrichtung, also beispielsweise ein Arzt, muss also keine händische Vorarbeit mehr leisten, indem er beispielsweise die Region selbst markiert oder einen Bildverarbeitungsalgorithmus dahingehend konfiguriert, dass dieser für die Verarbeitung von bestimmten Bilddaten optimiert ist, also z.B. von Bilddaten von Lebergewebe.
  • Allgemein wird unter dem Begriff Bilddaten im Zusammenhang mit der Erfindung ein Datensatz zu Pixeln verstanden, welche eine Abbildung eines bestimmten Körperbereichs darstellen und die mit einer bestimmten Modalität gewonnen wurden. Von dem Begriff sind auch dreidimensionale Bilddaten, also Voxel, umfasst, die mit einer Modalität für eine dreidimensionale Abbildung eines Körperbereichs gewonnen wurden. Beispiele für solche Pixeldaten oder Voxeldaten sind HU-Werte (HU-Hounsfield) und ähnliche, eine Absorptions- oder Dämpfungseigenschaft widerspiegelnde Werte. Schließlich sind von dem Begriff auch Daten umfasst, die aus Pixeldaten oder Voxeldaten abgeleitet sind und z.B. durch Verknüpfen der in einem Bilddatensatz enthaltenen Daten gewonnen werden können, also beispielsweise durch eine Glättung oder durch Berechnen eines Kontrastgradienten.
  • Ein Benutzer der Analyseeinrichtung, also beispielsweise ein Arzt, kann sich das erfindungsgemäße Verfahren u.a. zu nutze machen, indem er die erfindungsgemäße Bildbetrachtungsvorrichtung nutzt. Diese weist eine solche Analyseeinrichtung auf, die in Bilddaten des Körpers eines Patienten ohne ein zutun des Benutzers selbsttätig eine abgrenzbare Region des Körpers erkennt und dem Benutzer zu den Bilddaten der Region in Abhängigkeit von einer Eigenschaft der Region eine Anwendung zum Verändern der Bilddaten bereitstellt. Die Bildbetrachtungsvorrichtung weist auch eine Anzeigeeinrichtung auf, mittels welcher eine Darstellung der Region, also beispielsweise eines Organs, angezeigt werden kann. Die Darstellung kann hierbei aus den zu verändernden Bilddaten und/oder aus den bereits veränderten Bilddaten gebildet sein.
  • Das erfindungsgemäße Verfahren und die erfindungsgemäße Bildbetrachtungsvorrichtung lassen sich zahlreiche Arbeitsabläufe bei der Auswertung von Bilddaten vereinfachen. So lässt sich eine Registrierung durch eine automatische Analyse der Datensätze optimieren. Insbesondere kann hierbei eine automatische Auswahl einer so genannten ROI (region of interest) für eine Registrierung erfolgen. Ein ganz anderer Anwendungsbereich für das erfindungsgemäße Verfahren und die erfindungsgemäße Bildbetrachtungsvorrichtung ist die Möglichkeit einer automatischen Analyse von Patientendaten und einer daraus resultierenden Präselektion einer Applikation oder eines so genannten Workflows, d.h. einer vorbestimmten Abfolge von Arbeitsschritten, die auf der Grundlage unterschiedlicher Applikationen durchgeführt werden.
  • Eine Weiterbildung des erfindungsgemäßen Verfahrens sieht vor, die Verarbeitung der Bilddaten auf die Region zu begrenzen. Somit haben Verformungen anderer Regionen, wie sie sich beispielsweise durch Atmung des Patienten während einer Aufnahme ergeben, keinen Einfluss auf das Verarbeitungsergebnis der ausgewählten Region. Hierdurch lassen sich in vorteilhafter Weise Atemartefakte und ähnliche Bewegungsartefakte bei der Registrierung der Region vermeiden.
  • Dieses Prinzip kann noch weitergeführt werden, indem durch die Analyseeinrichtung mehrere Regionen ausgewählt und zu ihnen entsprechende Eigenschaften ermittelt werden. Die Regionen können dann jeweils in Abhängigkeit von der zu ihnen ermittelten Eigenschaft mit unterschiedlichen Verarbeitungsmethoden verarbeitet werden. So lassen sich beispielsweise organspezifische, d. h. für die Verarbeitung von Bilddaten dieser Organe optimierte Verarbeitungsmethoden in ein und demselben Bilddatensatz kombinieren. Genauso kann eine Bearbeitungsmethode entsprechend eines erkannten Krankheitsbilds ausgewählt werden, also etwa eine Verarbeitung, durch welche Tumore besonders gut erkennbar werden.
  • Die regionsspezifische Verarbeitung eignet sich auch besonders gut zum Kombinieren unterschiedlicher Registrierungsmethoden innerhalb ein und desselben Bilddatensatzes. Hierdurch ergeben sich dann etwa bei der rigiden Registrierung für die einzelnen Regionen unabhängige Registrierungsmatrizen. Für eine nicht-rigide Registrierung kann das Deformationsfeld ebenfalls aus den Informationen zur Registrierung der einzelnen Regionen gebildet werden.
  • Im Zusammenhang mit der eingangs beschriebenen Fusionierung von Bilddaten unterschiedlicher Modalitäten sieht eine vorteilhafte Weiterbildung des erfindungsgemäßen Verfahrens vor, die Bilddaten der Region und vorbestimmte weitere Bilddaten des Körpers, die z.B. von einer anderen Untersuchungsmodalität und/oder von vorangegangenen Aufnahmen stammen können, durch eine Registrierung aufeinander abzubilden. Ist man also z.B. während einer Operation als Modalität auf eine C-Bogen-Angiographieanlage beschränkt, können dennoch zum Erzeugen eines Abbilds der Organe zuvor gewonnene MRT-Daten verwendet werden. Wie bereits beschrieben ist hierdurch ermöglicht, eine Registrierung auf Grundlage einer automatischen ROI-Selektion durchzuführen.
  • Die verbesserte Steuerung eines Workflows wird gemäß einer Weiterbildung des erfindungsgemäßen Verfahrens erreicht, indem durch die Analyseeinrichtung in Abhängigkeit von der Eigenschaft der Region entweder automatisch eine Applikation zum händischen verarbeiten der Bilddaten für einen Benutzer gestartet wird oder zumindest auf einer Anzeigeeinrichtung eine Darstellung der ausgewählten Region angezeigt wird und ein Menü mit auswählbaren Applikationen angezeigt wird. Durch diese beiden Varianten ist es jeweils möglich, auch bei einem großen Angebot von möglichen, verwendbaren Applikationen den Benutzern dadurch einen Überblick zu verschaffen, dass nur diejenige Applikation gestartet bzw. diejenigen Applikationen in dem Menü angezeigt werden, die für die ausgewählte Region überhaupt in Frage kommen. Hierdurch lässt sich der Arbeitsablauf für den Benutzer signifikant beschleunigen.
  • Welche Applikationen in Frage kommen wird gemäß einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens durch Lernen ermittelt. Hierzu wird ein Verhalten des Benutzers der Analyseeinrichtung beobachtet und in Abhängigkeit von dem beobachteten Verhalten für einen zukünftigen Betrieb der Analyseeinrichtung festgelegt, welche Applikation gestartet bzw. in dem Menü angezeigt werden soll. Ausgehend von einer Standard-Einstellung kann so eine kontinuierliche Verbesserung der Bedienbarkeit der Analyseeinrichtung erreicht werden.
  • Im Zusammenhang mit der Frage, nach welcher Eigenschaft der Region in den Bilddaten gesucht werden soll, ist zunächst festzuhalten, dass eine Vielzahl möglicher Analysen zum Ermitteln einer Eigenschaft zugrunde gelegt werden kann, wie etwa die Erkennung von Organen, von Gewebearten, von Knochen, von Gefäßen, von pathologischen Veränderungen (z.B. Tumoren).
  • Zum Erkennen dieser Eigenschaften sieht eine Ausführungsform des erfindungsgemäßen Verfahren vor, die Region auf der Grundlage der Bilddaten mittels einer Klassifizierung zu verarbeiten und hierzu die Bilddaten mit Bilddaten von anatomischen Strukturen, insbesondere von Organen, zu vergleichen. Die erfindungsgemäße Bildbetrachtungsvorrichtung ist entsprechend zweckmäßigerweise in einer Analyseeinrichtung ausgestattet, die dazu ausgelegt ist, zum Erkennen der abgrenzbaren Region und/oder zum ermitteln der Eigenschaft der Region die Bilddaten mit in einer Datenbank in einer Bildbetrachtungsvorrichtung gespeicherten Bilddaten zu vergleichen. Dieser Vergleich muss dabei nicht auf die Form der Region und die entsprechende Form der anatomischen Strukturen beschränkt sein. Es ist zusätzlich oder alternativ dazu auch ein Vergleich einer Textur oder der Vergleich von Absorptionseigenschaften der Region betreffend die zum Erstellen der Bilddaten verwendeten Strahlung zugrunde legbar.
  • Für den Fall, dass zugleich mehrere Regionen ausgewählt und klassifiziert werden, ergibt sich eine vorteilhafte Weiterbildung des Verfahrens, wenn ein Ergebnis der Klassifizierung anhand der relativen geometrischen Lage der Regionen überprüft wird. Werden beispielsweise eine Leber, eine Milz und ein Herz in den Bilddaten erkannt, so kann diese Erkennung auf ihre Plausibilität hin überprüft werden, indem verifiziert wird, ob sich die als Herz erkannte Region auch tatsächlich über der Leber und der Milz befindet.
  • Um bestimmte Applikationen automatisch starten zu können oder einen Vorschlag zu geeigneten Applikationen für die Bildauswertung machen zu können, kann als Eigenschaft auch eine pathologische Abnormalität des Körpers in der Region ermittelt werden. Werden beispielsweise Stenosen in der Region erkannt, ist es sehr wahrscheinlich, dass der Benutzer diese untersuchen möchte, sodass es Sinn macht, entsprechende Applikationen vorzuschlagen.
  • Die beschriebenen Methoden zum Ermitteln der Eigenschaft setzen voraus, dass die Region zunächst in den Bilddaten abgegrenzt wird, um sie auswählen zu können. Hierzu können an sich aus dem Stand der Technik bekannte Verfahren zum automatischen Erkennen von abgrenzbaren Objekten in Bilddaten verwendet werden. Als besonders zweckmäßig hat sich in diesem Zusammenhang erwiesen, die Bilddaten zu segmentieren, insbesondere HU-Werte und/oder Kontrastgradienten. Hierdurch werden inhaltlich zusammenhängende Regionen in den Bilddaten gebildet, indem benachbarte Pixel oder Voxel zusammengefasst werden, wenn sie ein vorbestimmtes Homogenitätskriterium erfüllen. Durch eine Segmentierung erhält man automatisch eine Maske, mittels welcher sich die Region in den Bilddaten abgrenzen lässt.
  • Eine weitere Ausführungsform des Verfahrens sieht vor, zum Auswählen der Region Differenzbilddaten aus Bilddaten von zwei Aufnahmen des Körpers zu berechnen, die in einem zeitlichen Abstand zueinander gewonnen wurden. Anhand der Differenzbilddaten wird dann eine Region des Körpers ermittelt, in welcher sich eine Eigenschaft des Körpers mit der Zeit verändert hat. Handelt es sich bei den Bilddaten beispielsweise um Aufnahmen zu einer Angiographie, bei welcher ein Kontrastmittel gespritzt wurde, so sind in den Differenzbilddaten die Gefäße des Körpers erkennbar, in welchen sich das Kontrastmittel mit der Zeit ausgebreitet hat. Genauso ist durch die Differenzbilddaten erkennbar, welche Organe beispielsweise durch Atmung bewegt wurden. Anhand der Differenzbilddaten kann zweckmäßigerweise auch für die Registrierung ein entsprechender Parametersatz festgelegt werden.
  • Eine Möglichkeit, um Organe und andere anatomische Strukturen einfacher zu erkennen, besteht in der Verwendung eines Modells, mittels welchen die ausgewählte Region nachgebildet wird.
  • Bei dem erfindungsgemäßen Verfahren ist man nicht darauf beschränkt, die Eigenschaft der Region ausschließlich auf der Grundlage der Bilddaten zu ermitteln. Zusätzlich kann eine Information darüber ausgewertet werden, welcher Bereich des Körpers durch die Bilddaten abgebildet ist, ob es sich also beispielsweise um die Aufnahme des Oberkörpers oder des Unterkörpers des Patienten handelt. Genauso kann die Information ausgewertet werden, woran der Patient eigentlich erkrankt ist, was mit hoher Wahrscheinlichkeit auf den Grund für die Aufnahmen der Bilddaten schließen lässt. All diese Informationen können beispielsweise einer Datenbank mit Patientendaten und/oder den DICOM-Daten (DICOM-Digital Imaging and Communications in Medicine) entnommen werden.
  • Die Erfindung umfasst auch Weiterbildung der erfindungsgemäßen Bildbetrachtungsvorrichtung, welche Merkmale umfassen, die den Merkmalen der Weiterbildungen des erfindungsgemäßen Verfahrens entsprechen. Daher werden die Merkmale der Weiterbildungen der erfindungsgemäßen Bildbetrachtungsvorrichtung hier nicht noch einmal beschrieben.
  • Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen näher erläutert. Dazu zeigen:
  • 1 eine schematische Darstellung eines Röntgen-C-Bogens und einer daran angeschlossenen Anzeigevorrichtung, die eine Ausführungsform der erfindungsgemäßen Bildbetrachtungsvorrichtung darstellt,
  • 2 eine Prinzipskizze zu zwei Bilddatensätzen, die mit unterschiedlichen Modalitäten gewonnen worden sind, und
  • 3 eine Prinzipskizze zu zwei Bilddatensätzen, die auf der Grundlage einer Ausführungsform des erfindungsgemäßen Verfahren verarbeitet werden.
  • Die beschriebenen Beispiele stellen bevorzugte Ausführungsformen der Erfindung dar.
  • In 1 ist eine Anzeigevorrichtung 10 gezeigt, die mit einem Röntgen-C-Bogen 12 verbunden. Die Anzeigevorrichtung 10 und der Röntgen-C-Bogen 12 befinden sich in einem Operationssaal, in welchem ein Arzt einen Patienten operiert. Während der Operation kann der Arzt mittels des Röntgen-C-Bogens 12 eine Tomographie des Patienten durchführen. Die dabei gewonnenen 3D-Bilddaten werden von den Röntgen-C-Bogen 12 zu der Anzeigevorrichtung 10 übertragen. Auf einem Bildschirm 16 der Anzeigevorrichtung 10 wird dem Arzt eine Darstellung von Organen des Patienten angezeigt, die zum einen auch den 3D-Bilddaten 14 und zum anderen auch aus bereits vorhandenen Bilddaten 18 gebildet ist. Die Bilddaten 18 sind in einem Speicher 20 der Anzeigevorrichtung 10 gespeichert und können vor der Operation mittels des Röntgen-C-Bogens 12 oder einer anderen Modalität (z.B. XA, CT, MR, PET) gewonnen worden sein. Die Darstellung auf dem Bildschirm 16 ist dabei durch Überlagern der Bildinformationen der Bilddaten 14 und der Bilddaten 18 erzeugt worden. Hierdurch wird es dem Arzt möglich, auch solche Strukturen in der Darstellung zu erkennen, die mittels des Röntgen-C-Bogens 12 nicht erfassbar und somit nicht in den 3D-Bilddaten 14 repräsentiert sind.
  • Um die 3D-Bilddaten 14 und die Bilddaten 18 überlagern zu können, wurde einer der beiden Bilddatensätze mittels einer Registrierung auf den anderen Bilddatensatz abgebildet. Obwohl in dem 3D-Bilddatensatz 14 mehrere Organe zu sehen sind, sind dennoch die Bilddaten jedes der Organe unabhängig von denjenigen der übrigen Organe registriert worden. Der Arzt musste hierzu keines der Organe markieren. Um in den 3D-Bilddaten 14 die einzelnen Organe, oder allgemein die einzelnen ROI, automatisch selektieren und registrieren zu können, weist die Betrachtungseinrichtung 10 eine Analyseeinrichtung 22 auf, welche die 3D-Bilddaten 14 empfangen hat und beispielsweise darin enthaltene HU-Werte analysiert und/oder Kontrastgradienten zu den 3D-Bilddaten 14 berechnet und dann diese analysiert hat. Bei der Analyseeinrichtung 22 kann es sich beispielsweise um ein Programm für eine Prozessoreinheit, wie beispielsweise eine universelle Prozessoreinheit (general purpose central processing unit), einen Signalprozessor, ein ASIC oder ein FPGA handeln.
  • Auf Grundlage der Analyse werden automatisch mittels einer Segmentierung des kompletten 3D-Bilddatensatzes Konturen der einzelnen Organe oder anderer homogener Flächenbereiche abgegrenzt. Diese abgegrenzten Bereiche stellen Regionen dar. In einem Segment enthaltene Bilddaten stellen entsprechend Bilddaten einer bestimmten Region des Körpers dar.
  • Die Segmentierung kann beispielsweise auf der Grundlage eines Schwellwertvergleichs der aus der Analyse erhaltenen HU-Werte oder Kontrastgradienten erfolgen. Anschließend wird durch die Analyseeinrichtung 22 wenigstens eines der Segmente ausgewählt und mit bekannten Daten verglichen, die beispielsweise in einer Datenbank 24 der Betrachtungsvorrichtung 10 gespeichert sein können. Bei den Daten kann es sich beispielsweise um Beschreibungen möglicher Formen einzelner Organe handeln oder um Beschreibungen von Texturen, wie sie bei Aufnahmen mittels der verwendeten Modalität, hier also des Röntgen-C-Bogens 12, in den Bilddaten in Abhängigkeit von einem Gewebetyp ergeben können. Zusätzlich zu den Bilddaten enthält die Datenbank 24 jeweils Angaben, worum es sich bei den Bilddaten jeweils handelt, also Informationen zu den Eigenschaften der abgebildeten Körperregion.
  • Durch den Vergleich eines ausgewählten Segments mit den Daten aus der Datenbank 24 ist eine Klassifizierung nach anatomischen Strukturen möglich. Beispielsweise kann so durch die Analyseeinrichtung 22 erkannt werden, ob es sich bei einem ausgewählten Segment um eine Leber, eine Wirbelsäule oder dergleichen handelt. Mit anderen Worten wird dem Segment also eine Eigenschaft zugeordnet.
  • Nach der Klassifikation der ausgewählten Segmente werden die jeweils entsprechenden anatomischen Regionen mit entsprechenden Regionen in den Bilddaten 18 registriert, das heißt zum Beispiel die Leber aus den 3D-Bilddaten 14 wird mit der Leber aus den Bilddaten 18 dimensions- und lagerichtig überlagert. Bei diesen Einzelregistrierungen wird nur die jeweils selektierte Region in Betracht gezogen. Im nicht-rigiden Registrierungsfall kann auf diese Weise ein optimiertes Deformationsfeld für die einzelnen Regionen, also beispielsweise Organe, ermittelt werden. Die einzelnen Deformationsfelder können dann zu einem Gesamtregistrierungsergebnis zusammengesetzt werden.
  • Im rigiden Fall (nur Translationen und Rotationen sind erlaubt), kann auf diese Weise sichergestellt werden, dass die Region, die von besonderem Interesse ist, optimiert registriert wird. Welche Region dies ist, kann durch die Analyseeinrichtung 22 beispielsweise daran erkannt werden, dass bestimmte Organe vollständig von dem Röntgen-C-Bogen 12 erfasst wurden und andere Organe dagegen nur teilweise.
  • Auf dem Bildschirm 16 können optional nur die bereits segmentierten Regionen angezeigt werden. In einer vorteilhaften Ausführung können unterschiedliche Verarbeitungsalgorithmen für die Regionen verwendet werden, die dann entsprechend auf anatomische Besonderheiten der Regionen optimiert sein können (z. B. neuro-vaskulär, kardiologisch, onkologisch).
  • Insgesamt ist es durch die Analyseeinrichtung 22 möglich, die Genauigkeit der Bilddatenregistrierung zu steigern und die Registrierung dabei zugleich schneller durchzuführen, da die Ermittlung der Parameter für die einzelnen Registrierungen nur auf den verhältnismäßig kleinen Bilddatensätzen der einzelnen Regionen durchgeführt werden muss. Zudem ist es nicht notwendig, dass der Arzt Zeit dafür aufwenden muss, die einzelnen Regionen händisch zu markieren. Zudem kann für die unterschiedlichen anatomischen Regionen jeweils ein optimiertes Abbildungsverfahren verwendet werden. Bei der Darstellung auf dem Bildschirm 16 kann genauso vorgesehen sein, jede Region des Körpers mit einem anderen Visualisierungsverfahren anzuzeigen, um die Regionen möglichst gut erkennbar darzustellen.
  • Die Analyseeinrichtung 22 kann auch als selbstlernendes System ausgelegt sein. Wird also beispielsweise ein Segment in den Bilddaten falsch klassifiziert, wird also ein Organ falsch erkannt, so kann nach einem korrigierenden Eingriff durch den Arzt das so vorgegebene Klassifizierungsergebnis in der Datenbank 24 für zukünftige Klassifizierungen abgespeichert werden.
  • In 2 ist ein Schichtbild 26 gezeigt, das beispielsweise aus einem Teil der 3D-Bilddaten 14 erzeugt worden sein kann. Die Bilddaten des Schichtbildes 26 beinhalten eine Abbildung eines Körpers 28, von dem im Schichtbild 26 eine Leber 30, eine Milz 32 und eine Wirbelsäule 34 erkennbar sind. Das Schichtbild 26 des Körpers 28 soll mit einem Schichtbild 36 überlagert werden. Das Schichtbild 36 ist mit einer anderen Modalität gewonnen worden als dem Röntgen-C-Bogen 12. Somit ergibt sich eine andere Darstellung des Körpers 28, was in 2 durch gestrichelte Bezugszeichen angedeutet ist. Die Bilddaten 36 wurden vor der Operation aufgenommen. Der Patient hatte dabei eine andere Köperlage. Durch diese andere Lage und durch Atembewegungen weisen die Organe des Patienten in den Bilddaten 36 eine andere Form auf als in den Bilddaten des Schichtbildes 26. Durch die Analyseeinrichtung 22 wird sowohl in Bilddaten des Schichtbilds 26 als auch in den Bilddaten 36 mittels einer Segmentierung erkannt, das sich in den Bildern Regionen entsprechend den Organe 30, 32, 34, 30’, 32’, 34’ abgrenzen lassen. Mittels der Klassifizierung auf Grundlage der Datenbank 24 werden dann die Organe 30, 32, 34, 30’, 32’, 34’ identifiziert. Anschließend wird die regionsspezifische Registrierung durchgeführt.
  • Im Folgenden ist anhand von 3 eine weitere Ausführungsform eines Verfahrens zur automatischen Registrierung von einzelnen Regionen eines Körpers beschrieben. Dazu sind in 3 zwei 3D-Datensätze 38, 40 dadurch repräsentiert, das jeweils die durch die Datensätze 38, 40 abgebildeten Organe 42, 44 und ein Blutgefäß 46 gezeigt sind, die sich in einem würfelförmigen Ausschnitt des Körpers befinden, der durch die Bilddaten 38, 40 repräsentiert ist. Die Bilddaten 38, 40 wurden in den 3 gezeigten Beispiel mit derselben Modalität, aber zu unterschiedlichen Zeitpunkten gewonnen. Während des Aufnahmevorgangs wurde dem Patienten ein Kontrastmittel injiziert, das sich im Blutgefäß 46 ausgebreitet hat. In den Bilddaten 38 ist durch Verwendung von durchgezogenen bzw. gestrichelten Linien angedeutet, dass das Kontrastmittel gerade das Blutgefäß 46 erreicht. Der gestrichelt gezeichnete Bereich des Blutgefäßes 46 ist dagegen noch nicht mit Kontrastmittel gefüllt, sodass bei der verwendeten Modalität in den Bilddaten 38 das Blutgefäß 46 nicht gut erkannt werden kann. In den Bilddaten 40 befindet sich ausreichend Kontrastmittel vollständig in dem Blutgefäß 46, sodass dessen Form in den Bilddaten 40 erkennbar ist.
  • Auf der Grundlage der beiden Bilddatensätze 38, 40 wird durch eine Analyseeinrichtung, wie beispielsweise die Analyseeinrichtung 22, eine Segmentierung der Bilddaten des Blutgefäßes 46 selbsttätig durchgeführt. Hierzu werden Bilddaten der Bilddatensätze 38, 40, also z.B. HU-Werte, voneinander subtrahiert.
  • In dem gezeigten Beispiel wurden für die Subtraktion der Bilddatensatz 38 und der Bilddatensatz 40 gewählt, die in einem zeitlichen Abstand, d. h. einer Periode k, gewonnen wurden. Genauso wurden weitere Bilddatensätze voneinander subtrahiert, die ebenfalls im zeitlichen Abstand der Periode k gewonnen wurden. Insgesamt ergeben sich hierdurch Differenzdatensätze, die jeweils den Unterschied zwischen den Bilddatensätzen 38, 40 und den weiteren Bilddatensätzen in einem periodischem Abstand n·k, mit n = 1, 2, 3, ..., beschreiben.
  • Diese Subtraktionsergebnisse, d. h. die Differenzdatensätze, werden dahingegen analysiert, ob Regionen großen Differenzen in den HU-Werten, d.h. einem großen Kontrastgradienten, präselektiert werden können. Dies führt dazu, dass sowohl Elemente mit hohem Kontrastmittel-Konzentrationsunterschied, also das Blutgefäß 46, als auch bewegte Elemente identifiziert werden. Auf dieselbe Weise kann mit weiteren, zu unterschiedlichen Zeitpunkten gewonnen Datensätzen einer anderen Modalität verfahren werden. Hierdurch ist es dann möglich die Datensätze der beiden Modalitäten zu registrieren. Insgesamt wird durch die Differenzdatensätze ein dreidimensionales „Gerüst“ der konzentrationsreichen bzw. bewegten Bildinhalte erstellt. Die beiden 3D-Gerüste der Datensätze der unterschiedlichen Modalitäten werden für die Registrierung verwendet und das Ergebnis der Registrierung wird dann in einer Matrix (im rigiden Fall) bzw. in einem Deformationsfeld (im nicht-rigiden Fall) festgehalten. Auf Grundlage der Matrix bzw. des Deformationsfelds lassen sich dann die vollständigen Datensätze einer der beiden Modalitäten, also z. B. die Datensätze 38, 40, registrieren.
  • Um das Ergebnis der Registrierung auf die Güte der Abbildung hin zu untersuchen, kann auf an sich bekannte Methoden zum automatisierten Überprüfen einer Registrierung zurückgegriffen werden. Beispiele für solche Methoden sind die Berechnung eines Gradientenfelds zwischen den registrierten Daten und dem Zielbild, auf welches abgebildet werden soll. Es kann z. B auch eine Jakobi-Matrix oder ein anderes Gütemaß aus dem Deformationsfeld berechnet und analysiert werden.
  • Falls die Güte der Registrierung nicht ausreichend ist, kann der oben beschriebene Vorgang wiederholt werden und hierbei eine neue Periode k gewählt werden, d. h. es werden zeitlich anders beanstandete Schichten/Frames für die Berechnung des 3D-Gerüstes verwendet. Hierdurch können beispielsweise regelmäßige Atembewegungen oder ein Herzschlag kompensiert werden.
  • Gemäß einer vorteilhaften Ausführung dieses Registrierungsverfahrens können die Datensätze vor der Berechnung auch in der in 2 beschriebenen Weise in Segmente unterteilt werden, welche einzeln nach der obigen Registrierungsvorschrift registriert werden. Nach der Registrierung aller Teilsegmente wird dann aus den Registrierungsergebnissen eine Gesamtregistrierungsmatrix bzw. ein Gesamtdeformationsfeld bestimmt.
  • Auch bei diesem Registrierungsverfahren ist es möglich, einen Abgleich mit bekannten anatomischen Strukturen durchzuführen, also etwa mittels der Datenbank 24.
  • Eine Anzeigevorrichtung wie Anzeigevorrichtung 10 (1) kann auch ganz allgemein für eine Analyse von Patientendatensätzen verwendet werden, nicht nur im Zusammenhang mit der interventionellen Radiologie. Für eine solche Analyse ist es dann möglich, eine datenbasierte Triggerung einer Applikation oder den Start einer automatischen Vorverarbeitung des Patientendatensatzes durch eine Analyseeinrichtung ähnlich der Analyseeinrichtung 22 zu ermöglichen. Durch die Analyseeinrichtung kann dann eine automatische Identifizierung von einzelnen Körperregionen durchgeführt werden. In einem zweiten Schritt können dann anatomische Strukturen dieser Körperregionen identifiziert werden (z. B. durch Segmentierung) und dann entsprechende Applikationen automatisch gestartet werden, um einen Benutzer der Anzeigevorrichtung auf dieser Weise automatisch eine geeignete Applikation für die geplante Analyse bereitzustellen. Welcher Körperbereich in einem Bilddatensatz abgebildet ist, kann beispielsweise dem DICOM Daten entnommen werden, aus der beispielsweise die Modalität und die Koordinaten des Aufnahmebereichs entnommen werden können.
  • Zusätzlich kann optional auch innerhalb der segmentierten Regionen ein Teil der Analyse selbst automatisch durchgeführt werden, also beispielsweise eine Stenosenerkennung oder eine Tumorsegmentierung. Beispielsweise kann es ermöglicht werden, nach einem Abdomen-Scan (erkannter Körperbereich) eine automatische Segmentierung und Klassifizierung durchzuführen, durch welche eine Leber in der Aufnahme erkannt wird, und dann automatisch das Gewebe der Leber anhand der Bilddaten zu analysieren und so eventuell Lebertumore zu erkennen. Genauso kann beispielsweise nach einem Kopf-Scan eine automatische Gefäßraumsegmentierung mit anschließender Stenosen- und Aneurysmen-Analyse selbsttätig von der Analyseeinrichtung durchgeführt werden. Es ist sogar denkbar, nach einer solchen Analyse die Ergebnisse (Turmore erkannt, Stenose erkannt etc.) zu klassifizieren. Diese Resultate können dann dem Benutzer der Anzeigevorrichtung ebenfalls zur weiteren Verwendung angezeigt werden.
  • In einer zusätzlichen vorteilhaften Ausführungsform gehört zu der Anzeigeeinrichtung eine selbstlernende Datenbank, die verschiedene Analysen unterschiedlicher Datensätze beinhaltet, die in der Vergangenheit von Benutzern angefertigt wurden. Diese Datenbank wird nach jeder Systembenutzung aktualisiert. So kann beispielsweise beobachtet werden, welche Applikation der Benutzer bevorzugt für bestimmte Organe oder bestimmte Gewebestrukturen verwendet. Aus einem von einem Arzt geschriebenen Report kann auch das Analyseergebnis ausgelesen werden und für die oben beschriebene Klassifizierung (Tumore vorhanden etc.) verwendet werden. Genauso können im Nachhinein Texturen, die von der Analyseeinrichtung zwar abgegrenzt aber nicht zugeordnet werden können, im Nachhinein zugeordnet werden, wenn beispielsweise aus dem Report des Arztes hervorgeht, dass ein Kontrastmittel gespritzt wurde. Für zukünftige Analysen ist somit in der Anzeigevorrichtung dann die Information verfügbar, dass solche in Bilddatensätzen beobachtbare Texturen von einer Kontrastmittelgabe herrühren können.
  • Insgesamt kann eine beispielhafte Ausführungsform eines Verfahrens zum Betreiben einer solchen Anzeigevorrichtung wie folgt aussehen:
    • – Laden eines Bilddatensatzes
    • – automatische Identifikation unterschiedlicher anatomischer Regionen (z. B. Leber, Herz, Wirbelsäule)
    • – optionale Hervorhebung dieser Region (z. B. farbcodiert)
    • – bei Auswahl einer dieser Regionen durch den Benutzer wird: a) eine Applikation gestartet, welche eine sinnvolle Analyse dieser Region ermöglicht, falls es genau eine geeignete Applikation gibt, oder b) eine Auswahl an Applikationen angezeigt, welche eine sinnvolle Analyse ergeben, falls mehrere Applikationen für diese Region vorhanden sind.
  • Das heißt es kann z. B. mit der Auswahl des Herzens eine Liste aller Kardiologie-Applikationen angezeigt werden. Durch eine genauere Analyse der vom Benutzer detektierten Region kann die Auswahl der Applikationen weiter eingeschränkt werden, falls dies zweckmäßig ist.
  • Insgesamt ist durch die Beispiele gezeigt, wie durch eine Analyseeinrichtung, die selbsttätig Regionen in einem Bilddatensatz auswählt und diese klassifiziert, eine verbesserte Benutzerführung erreicht werden kann, eine sehr große Zeitersparnis des Benutzers resultiert, dabei zugleich sehr hohe Qualität der Resultate durch regionsspezifisches Verarbeiten ermöglicht wird, mittels selbstlernender Algorithmen das System mit der Zeit an die Benutzerbedürfnisse selbständig angepasst wird und so insgesamt der Aufwand und damit die Kosten für die Bildanalyse reduziert werden können.

Claims (16)

  1. Verfahren zum Verarbeiten von Bilddaten (14, 18, 26, 36, 38, 40) eines Körpers (28, 28’) eines Patienten, indem – in den Bilddaten (14, 18, 26, 36, 38, 40) eine Region (30, 30’, 32, 32’, 34, 34’, 46) des Körpers (28, 28’) durch eine Analyseeinrichtung selbsttätig ausgewählt wird, – anhand der Bilddaten (14, 18, 26, 36, 38, 40) eine Eigenschaft der Region (30, 30’, 32, 32’, 34, 34’, 46) ermittelt wird und – in Abhängigkeit von der ermittelten Eigenschaft die Bilddaten (14, 18, 26, 36, 38, 40) der Region (30, 30’, 32, 32’, 34, 34’, 46) verarbeitet werden.
  2. Verfahren nach Anspruch 1, wobei die Verarbeitung der Bilddaten (14, 18, 26, 36, 38, 40) auf die Region (30, 30’, 32, 32’, 34, 34’, 46) begrenzt wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei mehrere Regionen (30, 30’, 32, 32’, 34, 34’, 46) ausgewählt und zu ihnen entsprechende Eigenschaften ermittelt werden und die Regionen (30, 30’, 32, 32’, 34, 34’, 46) jeweils in Abhängigkeit von der zu ihnen ermittelten Eigenschaft mit unterschiedlichen Verarbeitungsmethoden, insbesondere unterschiedlichen Registrierungsmethoden, verarbeitet werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bilddaten (30, 32, 34) der Region und vorbestimmte weitere Bilddaten (30’, 32’, 34’) des Körpers, insbesondere Bilddaten, die von anderen Untersuchungsmodalitäten und/oder von vorangegangenen Aufnahmen stammen, durch eine Registrierung aufeinander abgebildet werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch die Analyseeinrichtung (22) in Abhängigkeit von der Eigenschaft a) eine Applikation zum händischen Verarbeiten der Bilddaten für einen Benutzer automatisch gestartet wird oder b) auf einer Anzeigeeinrichtung eine Darstellung der ausgewählten Region angezeigt wird und ein Menü mit auswählbaren Applikationen angezeigt wird.
  6. Verfahren nach Anspruch 5, wobei ein Verhalten des Benutzers der Analyseeinrichtung beobachtet wird und in Abhängigkeit von dem beobachteten Verhalten für einen zukünftigen Betrieb der Analysevorrichtung festgelegt wird, welche Applikation a) gestartet oder b) in dem Menü angezeigt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Region (30, 30’, 32, 32’, 34, 34’, 46) auf der Grundlage der Bilddaten (14, 18, 26, 36, 38, 40) klassifiziert wird und hierzu die Bilddaten (14, 18, 26, 36, 38, 40) mit Bilddaten von anatomischen Strukturen, insbesondere von Organen, verglichen werden.
  8. Verfahren nach Anspruch 7 wobei mehrere Regionen (30, 32, 34) ausgewählt und klassifiziert werden und ein Ergebnis der Klassifizierung anhand der relativen geometrischen Lage der Regionen (30, 32, 34)überprüft wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Eigenschaft eine pathologische Anomalie des Körpers in der Region (30, 32, 34) ermittelt wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Auswählen der Region (30, 30’, 32, 32’, 34, 34’, 46) die Bilddaten (14, 18, 26, 36, 38, 40), insbesondere HU-Werte und/oder Kontrastgradienten, zunächst segmentiert werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Auswählen der Region (46) aus Bilddaten (38, 40) zu zwei Aufnahmen des Körpers, die in einem zeitlichen Abstand zueinander gewonnen wurden, Differenzbilddaten berechnet werden und anhand der Differenzbilddaten eine Region (46) des Körpers ermittelt wird, in welcher sich eine Eigenschaft des Körpers mit der Zeit verändert hat.
  12. Verfahren nach Anspruch 11, wobei auf der Grundlage der Differenzbilddaten Parameter für eine Registrierung der Bilddaten (38, 40) der Region (46) festgelegt werden.
  13. Verfahren nach einem der vorhergehenden Ansprüche, wobei die ausgewählte Region (30, 30’, 32, 32’, 34, 34’, 46) auf der Grundlage eines Modells nachgebildet wird.
  14. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Ermitteln der Eigenschaft der Region (30, 30’, 32, 32’, 34, 34’, 46) eine Information darüber auswertet wird, welcher Bereich des Körpers durch die Bilddaten (14, 18, 26, 36, 38, 40) abgebildet ist, und/oder woran der Patient erkrankt ist, wobei hierzu insbesondere Patientendaten und/oder DICOM-Daten ausgewertet werden.
  15. Bildbetrachtungsvorrichtung (10) mit einer Analyseeinrichtung (22), die in Bilddaten (14, 18, 26, 36, 38, 40) eines Körpers eines Patienten ohne ein Zutun eines Benutzers der Bildbetrachtungsvorrichtung (10) selbsttätig eine abgrenzbare Region (30, 30’, 32, 32’, 34, 34’, 46) des Körpers erkennt und dem Benutzer zu den Bilddaten (14, 18, 26, 36, 38, 40) der Region (30, 30’, 32, 32’, 34, 34’, 46) in Abhängigkeit von einer Eigenschaft der Region (30, 30’, 32, 32’, 34, 34’, 46) eine Anwendung zum Verändern der Bilddaten (14, 18, 26, 36, 38, 40) bereitstellt, und mit einer Anzeigeeinrichtung (16) zum Anzeigen einer von den zu verändernden und/oder den veränderten Bilddaten gebildeten Darstellung der Region (30, 30’, 32, 32’, 34, 34’, 46).
  16. Bildbetrachtungsvorrichtung (10) nach Anspruch 15, bei welcher die Analyseeinrichtung (22) dazu ausgelegt ist, zum Erkennen der abgrenzbaren Region (30, 30’, 32, 32’, 34, 34’, 46) und/oder zum Ermitteln der Eigenschaft der Region (30, 30’, 32, 32’, 34, 34’, 46) die Bilddaten (14, 18, 26, 36, 38, 40) mit in einer Datenbank (24) der Bildbetrachtungsvorrichtung (10) gespeicherten Bilddaten zu vergleichen.
DE201210200225 2012-01-10 2012-01-10 Verfahren zum Verarbeiten von Patientenbilddaten und Bildbetrachtungsvorrichtung Withdrawn DE102012200225A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210200225 DE102012200225A1 (de) 2012-01-10 2012-01-10 Verfahren zum Verarbeiten von Patientenbilddaten und Bildbetrachtungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210200225 DE102012200225A1 (de) 2012-01-10 2012-01-10 Verfahren zum Verarbeiten von Patientenbilddaten und Bildbetrachtungsvorrichtung

Publications (1)

Publication Number Publication Date
DE102012200225A1 true DE102012200225A1 (de) 2013-07-11

Family

ID=48652634

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210200225 Withdrawn DE102012200225A1 (de) 2012-01-10 2012-01-10 Verfahren zum Verarbeiten von Patientenbilddaten und Bildbetrachtungsvorrichtung

Country Status (1)

Country Link
DE (1) DE102012200225A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015224179A1 (de) 2015-12-03 2017-01-05 Siemens Healthcare Gmbh Tomographieanlage oder Projektionsradiographie-Anlage und Verfahren zum Verringern einer Kontrastmitteldosis und/oder Strahlenbelastung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1315125B1 (de) * 2001-11-20 2008-06-04 General Electric Company Bildbearbeitungsverfahren und System zur Feststellung von Krankheiten
US20080273779A1 (en) * 2004-11-17 2008-11-06 Koninklijke Philips Electronics N.V. Elastic Image Registration Functionality
US20100254584A1 (en) * 2009-04-07 2010-10-07 Siemens Corporation Automated method for assessment of tumor response to therapy with multi-parametric mri
US20110257505A1 (en) * 2010-04-20 2011-10-20 Suri Jasjit S Atheromatic?: imaging based symptomatic classification and cardiovascular stroke index estimation
DE102010022266A1 (de) * 2010-05-31 2011-12-01 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Registrierung von medizinischen Bilddaten

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1315125B1 (de) * 2001-11-20 2008-06-04 General Electric Company Bildbearbeitungsverfahren und System zur Feststellung von Krankheiten
US20080273779A1 (en) * 2004-11-17 2008-11-06 Koninklijke Philips Electronics N.V. Elastic Image Registration Functionality
US20100254584A1 (en) * 2009-04-07 2010-10-07 Siemens Corporation Automated method for assessment of tumor response to therapy with multi-parametric mri
US20110257505A1 (en) * 2010-04-20 2011-10-20 Suri Jasjit S Atheromatic?: imaging based symptomatic classification and cardiovascular stroke index estimation
DE102010022266A1 (de) * 2010-05-31 2011-12-01 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Registrierung von medizinischen Bilddaten

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015224179A1 (de) 2015-12-03 2017-01-05 Siemens Healthcare Gmbh Tomographieanlage oder Projektionsradiographie-Anlage und Verfahren zum Verringern einer Kontrastmitteldosis und/oder Strahlenbelastung

Similar Documents

Publication Publication Date Title
EP1952340B1 (de) Überlagerung von hirnatlasbildern und hirnbildern mit abgrenzung von infarkt und penumbra zur schlaganfall-diagnose
EP3437559B1 (de) Ermitteln eines funktionsparameters betreffend eine lokale gewebefunktion für mehrere gewebebereiche
DE102004056783A1 (de) Verfahren und Vorrichtung zum Segmentieren von Strukturen in einer CT-Angiographie
DE102010036538A1 (de) System und Verfahren zum Kompensieren einer respiratorischen Bewegung in akquirierten radiographischen Bildern
DE102006012015A1 (de) Verfahren und Systeme zur Überwachung einer Tumorbelastung
DE102016219488A1 (de) Verfahren zum Bereitstellen einer Konfidenzinformation
DE102006029718A1 (de) Verfahren zur Auswertung zweier Abbilder sowie medizinisches Abbildungssystem
DE102010022266A1 (de) Verfahren und Vorrichtung zur Registrierung von medizinischen Bilddaten
DE112005001741T5 (de) System und Verfahren zur Baumprojektion zur Erkennung von Lungenembolie
DE102007046250A1 (de) Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild
DE102016219887A1 (de) Verfahren und System zur Nutzung von Messdaten
DE10130851A1 (de) Computergestütztes Diagnoseverfahren zur Unterstützung der Diagnose von dreidimensionalen digitalen Bilddaten
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102022112136A1 (de) Medizinisches bildanalysegerät, verfahren und medizinisches bild, visualisierungsgerät und verfahren
DE102013226858A1 (de) Verfahren zur Erzeugung eines wenigstens dreidimensionalen Anzeigedatensatzes, Röntgeneinrichtung und Computerprogramm
DE102013218806A1 (de) Verfahren zur Auswertung einer Untersuchung
DE112012002671T5 (de) Anzeigen einer Vielzahl von registrierten Bildern
DE102006059383A1 (de) Verfahren und Bildbearbeitungssystem zur Erzeugung von Ergebnisbildern eines Untersuchungsobjekts
DE102020216306A1 (de) Computerimplementiertes Verfahren zum Betrieb einer medizinischen Bildgebungseinrichtung, Bildgebungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102013220018A1 (de) Berechnung eines Untersuchungsparameters
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102012200225A1 (de) Verfahren zum Verarbeiten von Patientenbilddaten und Bildbetrachtungsvorrichtung
DE102019217576B4 (de) Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
EP3797692B1 (de) Verfahren und vorrichtung zur ansteuerung eines medizinischen bildgebungsgeräts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034000000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee