DE102007021035A1 - Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten - Google Patents

Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten Download PDF

Info

Publication number
DE102007021035A1
DE102007021035A1 DE102007021035A DE102007021035A DE102007021035A1 DE 102007021035 A1 DE102007021035 A1 DE 102007021035A1 DE 102007021035 A DE102007021035 A DE 102007021035A DE 102007021035 A DE102007021035 A DE 102007021035A DE 102007021035 A1 DE102007021035 A1 DE 102007021035A1
Authority
DE
Germany
Prior art keywords
image
visualization
blending
gray
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007021035A
Other languages
English (en)
Inventor
Marcus Dr. Pfister
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102007021035A priority Critical patent/DE102007021035A1/de
Priority to US12/150,950 priority patent/US8200040B2/en
Publication of DE102007021035A1 publication Critical patent/DE102007021035A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

Die vorliegende Erfindung bezieht sich auf ein insbesondere im Bereich der diagnostischen und interventionellen Radiologie einsetzbares Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem sowie auf ein von diesem System durchgeführtes Verfahren zur gemeinsamen Registrierung, Archivierung, kontrasterhaltenden Fusionierung und Visualisierung von 2-D-Durchleuchtungsbildern (F) und rekonstruierten 2-D-Projektionen bzw. 3-D-Ansichten (M) generierter Bilddaten, welche beispielsweise im Rahmen von minimal-invasiven Interventionen oder operativen Eingriffen benötigt werden, die unter Durchleuchtungskontrolle an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen im Körperinneren eines Patienten durchgeführt werden. Gemäß diesem Verfahren werden die Bilddaten eines ersten, zu überblendenden Bildes (F) und die Bilddaten eines zweiten, das erste Bild (F) überblendenden Bildes (M) unter Anwendung einer Alphakanal-basierten Überblendungstechnik, bei der die Grauwerte der einzelnen Pixel des ersten Bildes (F) vor Überblendung mit dem segmentierten Vordergrund (MV) des zweiten Bildes (M) durch Beaufschlagung mit einem die bei der Überblendung auftretende Kontrastminderung des ersten, zu überblendenden Bildes (F) kompensierenden oder abschwächenden Grauwert-Term aufgehellt werden, miteinander verlinkt, koregistriert und kontrasterhaltend fusioniert, bevor sie auf dem Anzeigebildschirm (AB) eines Bildschirm-Terminals in grafischer Form zur ...

Description

  • Die vorliegende Erfindung bezieht sich auf ein insbesondere im Bereich der diagnostischen und interventionellen Radiologie einsetzbares Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem sowie auf ein von diesem System durchgeführtes Verfahren zur gemeinsamen Registrierung, Archivierung, kontrasterhaltenden Fusionierung und Visualisierung von 2-D-Durchleuchtungsbildern und rekonstruierten 2-D-Projektionen bzw. 3-D-Ansichten generierter Bilddaten, welche beispielsweise im Rahmen von minimal-invasiven Interventionen oder operativen Eingriffen benötigt werden, die unter Durchleuchtungskontrolle an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen im Körperinneren eines Patienten durchgeführt werden.
  • Bei einem interventionellen Eingriff werden zur Navigation der dazu erforderlichen medizintechnischen Instrumente unter fluoroskopischer Bildgebung in Echtzeit generierte 2-D-Durchleuchtungsbilder von den zu behandelnden Stellen und den sie umgebenden Gewebebereichen im Körperinneren eines zu behandelnden Patienten ausgewertet. Verglichen mit 3-D-Ansichten, die aus zweidimensionalen Projektionsdaten einer Anzahl zu einem Volumendatensatz zusammengefasster, z. B. mittels Spiral-CT oder Rotationsangiographie gewonnener axialer 2-D-Schnittbilder rekonstruiert wurden, zeigen zweidimensionale Durchleuchtungsbilder zwar keine räumlichen Details, dafür sind sie jedoch in Echtzeit verfügbar und ermöglichen eine Minimierung der Strahlenbelastung für Arzt und Patient, da der Patient nur ein einziges Mal aus einer einzigen Strahlungsrichtung durchleuchtet zu werden braucht.
  • Herkömmlicherweise wird die räumliche Tiefeninformation dadurch zurückgewonnen, dass unter fluoroskopischer Bildgebung aufgenommene 2-D-Durchleuchtungsbilder mit 3-D-Rekonstruktionen präoperativ generierter CT- oder MRT-Schnittbilder der zu behandelnden Körperregionen und ihrer umgebenden Gewebebereiche bzw. mit intraoperativ aufgenommenen 3-D-Rotationsangiogrammen fusioniert und mit diesen zusammen registriert werden. Die Fusionierung beinhaltet dabei eine Bildverarbeitungsprozedur, bei der dreidimensional wiedergegebene Bildobjekte mit den betreffenden Bildobjekten in aufgenommenen 2-D-Durchleuchtungsbildern zur Deckung gebracht und diesen additiv überlagert werden. Die dreidimensional rekonstruierten oder mittels Rotationsangiographie in dreidimensionaler Form aufgenommenen Bildobjekte werden also zweidimensionalen fluoroskopischen Durchleuchtungsbildern unterlegt, deren Bilddaten dann gemeinsam mit den Bilddaten der dreidimensional rekonstruierten bzw. in dreidimensionaler Form aufgenommenen Bildobjekte in einem Bildarchiv gespeichert (koregistriert) werden. Die Kombination von koregistrierten 2-D-Schichtaufnahmen und dreidimensional rekonstruierten Bildobjekten erleichtert dabei einem behandelnden Arzt die Orientierung innerhalb eines betrachteten Volumenbereichs.
  • Die Registrierung und Visualisierung der fusionierten 2-D- und 3-D-Bilddaten erfolgt dabei üblicherweise in zwei getrennten Schritten: Zunächst muss bestimmt werden, aus welcher Richtung ein abzubildender Volumenbereich projiziert werden muss, damit er mit einem z. B. von einem Angiographiesystem aufgenommenen 2-D-Durchleuchtungsbild zur Deckung gebracht und gemeinsam mit diesem registriert werden kann. Hierfür existieren verschiedene Ansatzmöglichkeiten, die jedoch für den Gegenstand der vorliegenden Erfindung nicht wesentlich sind und daher unerwähnt bleiben können. Bei der Visualisierung müssen die koregistrierten Bilddaten in einer fusionierten 2-D-/3-D-Darstellung, d. h. in einer gemeinsamen Darstellung eines aufgenommenen 2-D-Durchleuchtungsbildes F (im Folgenden auch als „Fluoroskopiebild" bezeichnet) und einer in die Darstellungsebene Exy (Projektionsebene) des betreffenden 2-D-Durchleuchtungsbildes projizierten 3-D-Rekon struktion M, die dann natürlich auch zweidimensional ist, angezeigt werden.
  • Eine Standardmethode zur gemeinsamen grafischen Visualisierung der Bilddaten zweier oder mehrere Ausgangsbilder ist das sogenannte „Overlay". Dabei werden die jeweiligen Ausgangsbilder miteinander zur Deckung gebracht und mittels Alpha-Blending, einer Technik der digitalen Bild- oder Videobearbeitung, unter Berücksichtigung der jeweiligen Farb- und Transparenzinformation der einzelnen Bildpunkte zu einem Gesamtbild überlagert („überblendet"). Zu diesem Zweck ist bei verschiedenen Grafikformaten (z. B. bei PNG, PSD, TGA oder TIFF) ein so genannter Alphakanal vorgesehen, in dem Transparenzinformationen zusätzlich zu den kodierten Farbinformationen der eigentlichen Bilddaten bei einer Kodierung mit m Bit in bis zu 2m Abstufungen, angebbar durch einen Opazitätswert α (Blending-Faktor) im Bereich zwischen Null (vollkommen transparent) und Eins (vollkommen lichtundurchlässig), gespeichert sind. Ein fusioniertes 2-D-Gesamtbild B, das bei einer Überlagerung der beiden zweidimensionalen Bilder F und M mittels Alpha-Blending entsteht, lässt sich in mathematischer Hinsicht als dreidimensionales Feld (d. h. als Tensor dritter Stufe) mit Komponenten der Form (nx, ny, IB(nx, ny)), d. h. als Wertetripel, beschreiben, wobei nx und ny die x- und y-Koordinaten der einzelnen Pixelpositionen in der Bildebene Exy des fusionierten Gesamtbildes B bezeichnen und IB(nx, ny) die Grau- bzw. RGB-Farbwerte der Pixel an den betreffenden Pixelpositionen dieses Bildes. Während es sich im ersteren Fall um einen eindimensionalen Spezialfall handelt, bei dem sich IB(nx, ny) als skalare Größe IB(nx, ny) schreiben lässt, welche die Intensität am Ort des jeweiligen Pixels (nx, ny) wiedergibt, handelt es sich im letzteren Fall bei IB(nx, ny) um einen dreidimensionalen Farbvektor, dessen Komponenten die Luminanzwerte der einzelnen Primärfarben Rot, Grün und Blau des fusionierten Gesamtbildes B am Ort eines Pixels (nx, ny) beschreiben. Dieser Vektor lässt sich dabei über die Formel I B(nx, ny) := α·I M(nx, ny) + (1 – α)·I F(nx, ny) ∀ (nx, ny) (1)mit 0 < α < 1
    berechnen, wobei IF(nx, ny) bzw. IM(nx, ny) ebenfalls vektorielle Größen sind, welche die Farbwerte der Pixel an den betreffenden Pixelpositionen (nx, ny) der beiden Bilder bezeichnen, und der skalare Faktor α den verwendeten Opazitätswert bezeichnet (im Folgenden auch „Blending-Faktor" genannt). Hierbei handelt es sich um eine spezielle, unter der Bezeichnung „konische Affinkombination" bekannte Form der Linearkombination, bei der alle Koeffizienten größer als Null sind und in der Summe Eins ergeben (Konvexkombination). Der Blending-Faktor α stellt dabei einen Parameter dar, der den prozentualen Anteil beschreibt, den jedes der beiden überlagerten Ausgangsbilder F und M an den Grauwerten der einzelnen Pixel des fusionierten Gesamtbildes B haben soll.
  • Ein Nachteil dieses Verfahrens besteht jedoch darin, dass Bildobjekte, die im Fluoroskopiebild F mit niedriger Kontrastschärfe dargestellt sind (wie z. B. Katheterspitzen, kardiovaskuläre Stentimplantate etc.), beim Überblenden einer in die Projektionsebene Exy des betreffenden Fluoroskopiebildes F projizierten 3-D-Rekonstruktion M hoher Kontrastschärfe bei Verwendung eines Blending-Faktors nahe Eins von Letzterer nahezu überdeckt werden. Der Bildkontrast KB, welcher sich als Funktion von α darstellen lässt, ist dabei im eindimensionalen, skalaren Fall durch die Formel
    Figure 00040001
    gegeben, wobei IBV die Bildintensität eines Bildobjekts BO im Vordergrund BV des fusionierten Gesamtbildes B bezeichnet und IBH die Bildintensität eines von dem betreffenden Bildobjekt BO verdeckten Objekthintergrunds BH auf diesem Bild. Lässt sich das Bildobjekt BO, welches im Vordergrund MV des überlagernden Bildes M dargestellt ist, vom Hintergrund MH dieses Overlay-Bildes M segmentieren (was über eine Schwellwertent scheidung in der Regel leicht zu erreichen ist), ist üblicherweise vorgesehen, dass dem Fluoroskopiebild F nur das segmentierte Bildobjekt BO überlagert wird. Auf diese Weise wird gewährleistet, dass zumindest im Hintergrundbereich BH des eingeblendeten segmentierten Bildobjekts BO im fusionierten Gesamtbild B die Kontrastschärfe des Fluoroskopiebildes F erhalten bleibt. Für den Vordergrundbereich BV des fusionierten Gesamtbildes B gilt dies jedoch nicht, da hier die Kontrastschärfe aufgrund der Überlagerung der beiden Ausgangsbilder F und M abnimmt.
  • Eine bekannte Möglichkeit, die Kontrastschärfe auch in dem durch den Bereich des Bildobjekts BO definierten Vordergrundbereich BV des fusionierten Gesamtbildes B zu erhalten, besteht darin, nur den Umriss des vom Hintergrund MH des Overlay-Bildes M segmentierten Bildobjekts BO in das Fluoroskopiebild F einzublenden. Dies ist jedoch nur für einige wenige Anwendungen sinnvoll. Zudem gehen bei dieser Methode der 3-D-Eindruck des segmentierten und eingeblendeten Bildobjekts BO und die Information darüber, dass das segmentierte Bildobjekt BO des Overlay-Bildes M den Vordergrund BV des fusionierten Gesamtbildes B bilden soll und die im Fluoroskopiebild F dargestellten Gewebebereiche, Implantate oder medizinischen Instrumente (z. B. Punktionsnadeln, Katheter, chirurgische Werkzeuge etc.) den Hintergrund BH des fusionierten Gesamtbildes B (oder umgekehrt), verloren. Eine andere Methode sieht vor, die beiden Ausgangsbilder F und M nicht übereinander, sondern seitlich gegeneinander versetzt anzuzeigen. Dies hat jedoch bei einigen Anwendungen den Nachteil, dass die Information darüber, in welcher räumlichen Beziehung das segmentierte Bildobjekt BO im Vordergrund BV des fusionierten Gesamtbildes B und die dargestellten Gewebebereiche und Objekte im Bildhintergrund BH des fusionierten Gesamtbildes B zueinander stehen, verloren gehen kann.
  • Eine weitere Möglichkeit zur Erhaltung der Kontrastschärfe in dem durch den Bereich des Bildobjekts BO definierten Vordergrundbereich BV des fusionierten Gesamtbildes B besteht in einer Segmentierung der im Vordergrund FV des Fluoroskopiebildes F dargestellten Implantate oder medizinischen Instrumente, um nur diese Objekte der in die Projektionsebene Exy des betreffenden Fluoroskopiebildes F projizierten 3-D-Ansicht M und dem hierin dargestellten Bildobjekt BO zu überlagern. Da der Hintergrund FH des Fluoroskopiebildes F bei diesem Verfahren nach Durchführung der Segmentierung als Maske subtrahiert wird, können die hierin abgebildeten Gewebebereiche in dem fusionierten Gesamtbild B nicht mehr dargestellt werden. Dies ist bis auf wenige Ausnahmen für die meisten Anwendungen von großem Nachteil, da die Information über die genaue räumliche Lage der dargestellten Implantate oder medizinischen Instrumente in Bezug auf die umliegenden Gewebebereiche verloren geht. Darüber hinaus schlägt diese Methode fehl, wenn sich die räumliche Lagebeziehung der im Vordergrund FV des Fluoroskopiebildes F dargestellten Implantate oder medizinischen Instrumente in Bezug auf die Lage der im Hintergrund FH dieses Bildes dargestellten Gewebebereiche ändert, zum Beispiel weil der mobile C-Bogen eines multidirektionalen C-Bogen-Röntgenaufnahmesystems oder der Patiententisch, auf dem der zu untersuchende Patient liegt, bewegt wurde bzw. aufgrund von Körperbewegungen, Atmungs- oder Pulsationsbewegungen beweglicher Organe (wie z. B. Lunge oder Herz) des Patienten. In diesen Fällen bleibt als einzige Möglichkeit nur das normale Alpha-Blending.
  • Ausgehend von dem oben genannten Stand der Technik, ist die vorliegende Erfindung der Aufgabe gewidmet, die Kontrastschärfe bei der Überlagerung von fluoroskopischen 2-D-Durchleuchtungsaufnahmen und rekonstruierten 2-D-Projektionen bzw. 3-D-Ansichten aufgenommener Bildobjekte zu erhalten, um die Präzision und Sicherheit minimal-invasiver, interventioneller oder operativer Eingriffe, die unter Durchleuchtungskontrolle mit fusionierten und koregistrierten Bilddaten derselben Bildgebungsmodalität bzw. mit fusionierten und koregistrierten Bilddaten verschiedener oder verschiedenartiger Bildgebungsmodalitäten durchgeführt werden, zu erhöhen.
  • Diese Aufgabe wird erfindungsgemäß durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsbeispiele, die den Gedanken der Erfindung weiterbilden, sind in den abhängigen Patentansprüchen definiert.
  • Die vorliegende Erfindung bezieht sich gemäß einem ersten Aspekt auf ein insbesondere im Bereich der diagnostischen und interventionellen Radiologie einsetzbares Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur gemeinsamen Registrierung, Archivierung, kontrasterhaltenden Fusionierung und Visualisierung von digitalen Bilddaten mindestens zweier Bilder. Das erfindungsgemäße System verfügt dabei über ein Fusionierungs-, Registrierungs- und Visualisierungs-Tool, welches die Bilddaten eines ersten, zu überblendenden Bildes und die Bilddaten eines zweiten, das erste Bild überblendenden Bildes unter Anwendung einer Alphakanal-basierten Überblendungstechnik miteinander verlinkt, koregistriert, fusioniert und anschließend auf dem Anzeigebildschirm eines Bildschirm-Terminals in grafischer Form zur Anzeige bringt. Das erfindungsgemäße Fusionierungs-, Registrierungs- und Visualisierungs-Tool ist dabei derart ausgelegt, dass die Farb- bzw. Grauwerte der einzelnen Pixel des ersten Bildes bei dieser Überblendungstechnik vor Überblendung mit dem segmentierten Vordergrund des zweiten Bildes durch Beaufschlagung mit einem Farbwert- bzw. Grauwert-Term aufgehellt werden, der die bei der Überblendung auftretende Kontrastminderung des ersten, zu überblendenden Bildes kompensiert oder abschwächt.
  • Das Fusionierungs-, Registrierungs- und Visualisierungs-Tool umfasst dabei unter anderem ein Modul zur Durchführung einer Koordinatentransformation, durch die zu überlagernde identische Bildobjekte in den mindestens zwei zu fusionierenden Bildern, sofern dies noch nicht der Fall sein sollte, so überlagert werden, dass sie präzise aufeinander zur Deckung kommen. Darüber hinaus umfasst das Fusionierungs-, Registrierungs- und Visualisierungs-Tool ein Modul, welches dazu dient, den durch das einzublendende Bildobjekt im Vordergrund des zweiten, überblendenden Bildes gebildeten Bereich vom Ob jekthintergrund dieses Bildes zu segmentieren und die Farb- bzw. Grauwerte des segmentierten Objekthintergrundes anschließend von den Farb- bzw. Grauwerten des überblendenden Gesamtbildes zu subtrahieren. Die mit Hilfe des Fusionierungs-, Registrierungs- und Visualisierungs-Tools verlinkten und gemeinsam registrierten Bilddaten des ersten, zu überblendenden Bildes und die Bilddaten des zweiten, das erste Bild überblendenden Bildes werden dann in fusionierter Form und/oder separat in einer dafür vorgesehenen Speichereinheit des Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems gespeichert.
  • Gemäß einem zweiten Aspekt bezieht sich die vorliegende Erfindung auf ein von dem Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem ausgeführtes Verfahren zur gemeinsamen Registrierung, Archivierung, kontrasterhaltenden Fusionierung und Visualisierung von digitalen Bilddaten mindestens zweier Bilder. Das Verfahren ist dadurch gekennzeichnet, dass die Bilddaten eines ersten, zu überblendenden Bildes und die Bilddaten eines zweiten, das erste Bild überblendenden Bildes unter Anwendung einer Alphakanal-basierten Überblendungstechnik, bei der die Farb- bzw. Grauwerte der einzelnen Pixel des ersten Bildes vor Überblendung mit dem segmentierten Vordergrund des zweiten Bildes durch Beaufschlagung mit einem die bei der Überblendung auftretende Kontrastminderung des ersten, zu überblendenden Bildes kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term aufgehellt werden, miteinander verlinkt, koregistriert, fusioniert und auf dem Anzeigebildschirm eines Bildschirm-Terminals in grafischer Form zur Anzeige gebracht werden.
  • Das erfindungsgemäße Verfahren umfasst unter anderem die Durchführung einer Koordinatentransformation, durch die zu überlagernde identische Bildobjekte in den mindestens zwei zu fusionierenden Bildern, sofern dies noch nicht der Fall sein sollte, so überlagert werden, dass sie präzise aufeinander zur Deckung kommen. Darüber hinaus umfasst das Verfahren einen Verfahrensschritt, bei dem das einzublendende Bildob jekt im Vordergrundbereich des zweiten, überblendenden Bildes vom Objekthintergrund dieses Bildes segmentiert wird und die Farb- bzw. Grauwerte des segmentierten Objekthintergrundes von den Farb- bzw. Grauwerten des überblendenden Gesamtbildes anschließend subtrahiert werden. Die verlinkten und gemeinsam registrierten Bilddaten des ersten, zu überblendenden Bildes und die Bilddaten des zweiten, das erste Bild überblendenden Bildes werden dann in fusionierter Form und/oder separat gespeichert.
  • Bei dem die Kontrastminderung bei der Überblendung der beiden Bilder kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term kann es sich erfindungsgemäß z. B. um einen zur Invertierung der Farb- bzw. Grauwerte des zu überblendenden Bildes dienenden Bildoperator, um einen vom Blending-Faktor der Alphakanal-basierten Überblendungstechnik abhängigen additiven Farbwert- bzw. Grauwert-Offset oder aber um einen von diesem Blending-Faktor abhängigen multiplikativen Farbwert- bzw. Grauwert-Faktor handeln. Dabei kann im zweiten Fall z. B. vorgesehen sein, dass der additive Farbwert- bzw. Grauwert-Offset durch einen ortsunabhängigen, konstanten Offset gebildet wird oder durch einen Offset, in den die Farb- bzw. Grauwerte der einzelnen Pixel im Vordergrund des überblendenden Bildes multiplikativ eingehen. Im dritten Fall kann der multiplikative Farbwert- bzw. Grauwert-Faktor z. B. in einem Faktor bestehen, in den die Grauwerte der einzelnen Pixel im Vordergrund des überblendenden Bildes in normierter Form multiplikativ eingehen.
  • Da die vorliegende Erfindung insbesondere im Bereich der medizinischen Bilddatenverarbeitung eingesetzt werden soll, kann es sich bei den fusionierten, gemeinsam registrierten und in grafischer Form visualisierten Bilddaten zum Einen, was die Bilddaten des zu überblendenden (bzw. überblendeten) Bildes anbelangt, um Bilddaten von zweidimensionalen fluoroskopischen Durchleuchtungsaufnahmen abzubildender Organe bzw. Gewebebereiche im Körperinneren eines zu untersuchenden Patienten handeln, die unter Anwendung eines fluoroskopischen Bildgebungsprozesses akquiriert wurden, und zum Anderen, was die Bilddaten des überblendenden Bildes anbelangt, um Bilddaten rekonstruierter 2-D-Projektionen bzw. 3-D-Ansichten (M) der betreffenden Organe bzw. Gewebebereiche, die z. B. im Rahmen von minimal-invasiven Interventionen oder operativen Eingriffen an inneren Organen, Gewebebereichen, Läsionen oder pathologischen Strukturen im Körperinneren eines Patienten benötigt werden.
  • Gemäß einem dritten Aspekt bezieht sich die vorliegende Erfindung auf ein Computersoftware-Programmprodukt, welches zur Durchführung des geschilderten Verfahrens bei Betrieb auf einem Bildschirm-Terminal des vorstehend beschriebenen Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems geeignet ist.
  • Weitere Merkmale der vorliegenden Erfindung ergeben sich aus den abhängigen Patentansprüchen sowie aus der Beschreibung von Ausführungsbeispielen, welche in den folgenden Zeichnungen abgebildet sind. Es zeigen:
  • 1 ein Blockschaltbild eines Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems gemäß vorliegender Erfindung, das zur gemeinsamen Registrierung, Archivierung, kontrasterhaltenden Fusionierung und Visualisierung von fluoroskopischen 2-D-Durchleuchtungsbildern und rekonstruierten 2-D-Projektionen bzw. 3-D-Ansichten generierter CT- bzw. MRT-Bilddaten verwendet wird,
  • 2 ein Ablaufdiagramm, mit dem das erfindungsgemäße Verfahren zur gemeinsamen Registrierung, Archivierung, kontrasterhaltenden Fusionierung und Visualisierung von fluoroskopischen 2-D-Durchleuchtungsbildern und rekonstruierten 2-D-Projektionen bzw. 3-D-Ansichten generierter CT- bzw. MRT-Bilddaten veranschaulicht wird, und
  • 3 bis 5 drei Diagramme, mit denen die einzelnen Varianten des erfindungsgemäßen Verfahrens einander gegenübergestellt und für verschiedene Parameterwerte hinsichtlich ihres Kontrasterhalts miteinander verglichen werden.
  • In den folgenden Abschnitten werden die Systemkomponenten des erfindungsgemäßen Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems und die Schritte des zugehörigen erfindungsgemäßen Verfahrens anhand der beigefügten Zeichnungen im Detail beschrieben.
  • In 1 ist ein schematisches Blockschaltbild eines Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems gemäß vorliegender Erfindung dargestellt, welches es ermöglicht, von einem medizintechnischen Bildgebungsgerät BGG wie beispielsweise einem Angiographiesystem generierte Bilddaten von inneren Organen, interessierenden Gewebebereichen, pathologischen Strukturen, medizinischen Implantaten oder anderen Objekten im Körperinneren eines zu untersuchenden Patienten einerseits in Form von fluoroskopischen 2-D-Durchleuchtungsaufnahmen und andererseits in Form von rekonstruierten, aus beliebigen Projektionswinkeln dargestellten 2-D-Projektionen oder rekonstruierten 3-D-Ansichten gemeinsam zu erfassen, zu registrieren, zu archivieren und in Form fusionierter grafischer Darstellungen auf dem Anzeigebildschirm AB eines Bildschirm-Terminals zu visualisieren.
  • Wie in 1 skizziert, werden die z. B. von einem angiographischen Bildgebungsprozess generierten Bilddaten über eine Eingabe-/Ausgabe-Schnittstelle I/O einem Bildverarbeitungssystem BVS zugeführt. Das Bildverarbeitungssystem BVS kann dabei neben einer zentralen Steuerungseinrichtung ZSE, welche den Datenaustausch mit dem Bildgebungsgerät BGG sowie den Datenaustausch zwischen den einzelnen Systemkomponenten des Bildverarbeitungssystem BVS steuert, unter anderem ein Vorverarbeitungsmodul VVM mit einem digitalen Filter zur Rauschunterdrückung, Kontrastverbesserung und Kantendetektion umfassen. Eine in das Bildverarbeitungssystem BVS integrierte 2-D-/3-D-Bildrendering-Applikation BRA dient zur Generierung von rekonstruierten 2-D-Projektionen und/oder 3-D-Ansichten sowie zur grafischen Visualisierung der abzubildenden Gewebebereiche. Darüber hinaus umfasst das Bildverarbeitungssystem BVS auch ein eingangsseitig mit den Datenausgängen des Vorverarbeitungsmoduls VVM und der 2-D-/3-D-Bildrendering-Applikation BRA verbundenes Fusionierungs-, Registrierungs- und Visualisierungs-Tool FRVT, dessen genaue Funktion weiter unten erläutert wird.
  • Immer dann, wenn Bilddaten von dem Bildgebungsgerät BGG generiert und dem Bildverarbeitungssystem BVS über eine Eingabeschnittstelle bereitgestellt werden, können diese, veranlasst durch die zentrale Steuerungseinrichtung ZSE, nach Abschluss der Vorverarbeitung in Vorbereitung für eine spätere grafischen Visualisierung je nach Systemkonfiguration temporär oder persistent in einem Bilddatenspeicher einer externen Speichereinheit SE gespeichert werden, wo sie in ein patientenspezifisches Untersuchungsprotokoll UP einer Protokolldatei geschrieben werden, die in einem Speicherbereich der Speichereinheit SE hinterlegt ist. Neben den im Rahmen des angiographischen Bildgebungsprozesses akquirierten Bilddaten können auch sämtliche Aufnahmeparameter, die von einem die Untersuchung durchführenden Radiologen l manuell eingestellt wurden, sowie alle zur Visualisierung rekonstruierter 2-D-Projektionen bzw. 3-D-Ansichten von bestimmten Bereichen im Körperinneren des Patienten benötigte Darstellungs- und Rekonstruktionsparameter in einem standardisierten Datenformat (z. B. im DICOM-Format) über eine Datenausgabeschnittstelle DATA_OUT des Bildverarbeitungssystems BVS in das patientenspezifische Untersuchungsprotokoll UP der extern gespeicherten Protokolldatei geschrieben werden. Zur grafischen Visualisierung können die gespeicherten Bilddaten, Aufnahme- und Rekonstruktionsparameter über eine Dateneingabeschnittstelle DATA_IN des Bildverarbeitungssystems BVS in einen nicht dar gestellten, lokalen Temporärspeicher des Fusionierungs-, Registrierungs- und Visualisierungs-Tools FRVT geladen werden.
  • Wie aus 1 ersichtlich, werden dem Fusionierungs-, Registrierungs- und Visualisierungs-Tool FRVT einerseits die mittels fluoroskopischer Bildgebung akquirierten und von dem Vorverarbeitungsmodul VVM gefilterten Bilddaten zweidimensionaler fluoroskopischer Durchleuchtungsbilder zu untersuchender Gewebebereiche zugeführt und andererseits Bilddaten rekonstruierter, mit Hilfe der 2-D-/3-D-Bildrendering-Applikation BRA generierter 2-D-Projektionen bzw. 3-D-Ansichten aus dem Körperinneren des unter Durchleuchtungskontrolle untersuchten Patienten, die dann mittels einer der nachfolgend beschriebenen Überblendungstechniken (siehe Verfahrensvarianten Nr. 1 bis 4) fusioniert, verlinkt, gemeinsam registriert und auf dem Anzeigebildschirm AB des Bildschirm-Terminals in grafischer Form visualisiert werden. Zur Archivierung werden die Bilddaten der fusionierten Bilder über die eingangs erwähnte Datenausgabeschnittstelle DATA_OUT des Bildverarbeitungssystems BVS (z. B. unter Verwendung des DICOM-Formats) in das patientenspezifische Untersuchungsprotokoll UP der in der externen Speichereinheit SE hinterlegten Protokolldatei geschrieben und dort abrufbar und persistent gespeichert.
  • Wie vorstehend beschrieben, können mit Hilfe des Fusionierungs-, Registrierungs- und Visualisierungs-Tools FRVT koregistrierte Bilddaten eines aufgenommenen 2-D-Durchleuchtungsbildes F (z. B. Bilddaten eines mittels fluoroskopischer Bildgebung generierten 2-D-Durchleuchtungsbildes) und einer in die Darstellungsebene Exy (Projektionsebene) des betreffenden 2-D-Durchleuchtungsbildes projizierten 3-D-Rekonstruktion M (Overlay-Bild) im Rahmen einer fusionierten 2-D-/3-D-Darstellung B (Gesamtbild) gemeinsam visualisiert werden. Die beiden Ausgangsbilder F und M werden dabei (falls nötig) zunächst einer Koordinatentransformation unterzogen, durch die in den jeweiligen Bildern dargestellte identische Bildobjekte (sofern dies noch nicht der Fall sein sollte) so überlagert werden, dass sie präzise aufeinander zur Deckung kommen. Nach Durchführung einer Segmentierung der im Vordergrund MV des überlagernden Bildes M dargestellten Bildobjekte vom Hintergrund MH des betreffenden Overlay-Bildes, bei der z. B. ein schwellwertbasiertes Wertdiskriminierungsverfahren zum Einsatz kommen kann, und Subtraktion einer durch den Bildhintergrund MH gebildeten Maske vom Originalbild M werden die segmentierten Bildobjekte des Overlay-Bildes M in das Fluoroskopiebild F eingeblendet, indem das um seinen Hintergrund MH bereinigte Overlay-Bild M dem Fluoroskopiebild F mittels Alpha-Blending additiv überlagert wird. Dabei wird erfindungsgemäß zwischen vier verschiedenen Verfahrensvarianten unterschieden, die im Folgenden im Detail beschrieben werden. Welche dieser Verfahrensvarianten letztlich zum Einsatz kommt, hängt von der jeweiligen medizinischen Anwendung ab oder, genauer gesagt, von der Tatsache, ob ein 3-D-Eindruck des überlagerten Bildobjekts BO überhaupt notwendig ist.
  • Im Folgenden werden die im Rahmen der vorliegenden Erfindung vorgeschlagenen und mit Hilfe des Fusionierungs-, Registrierungs- und Visualisierungs-Tools FRVT durchzuführenden Überblendungstechniken im Detail erläutert. Zur Vereinfachung der Schreibweise wird dabei nur der eindimensionale Fall betrachtet, bei dem sich IF(nx, ny), IM(nx, ny) und damit IB(nx, ny) als skalare Größen IF(nx, ny), IM(nx, ny) bzw. IB(nx, ny) schreiben lassen, welche die Intensitäten der Grauwerte am Ort der einzelnen Pixel (nx, ny) beschreiben. Das erfindungsgemäße Verfahren ist jedoch nicht auf diesen Spezialfall beschränkt, sondern kann auch auf einen verallgemeinerten Fall übertragen werden, bei dem die drei genannten Größen jeweils durch dreidimensionale Farbvektoren repräsentiert werden, deren Komponenten die Luminanzwerte der drei Primärfarben Rot, Grün und Blau an den Pixelpositionen (nx, ny) der betreffenden Bilder F, M bzw. B wiedergeben.
  • Gemäß einer ersten, im Folgenden als „inverses Blending" bezeichneten Variante des erfindungsgemäßen Verfahrens werden die Grauwerte in dem Bereich eines aufgenommenen Fluoroskopiebildes F, der dem segmentierten Vordergrund MV eines ein zublendenden Overlay-Bildes M entspricht, invertiert. Dabei werden die Grauwerte IF(nx, ny) des betreffenden Fluoroskopiebildes F für alle Pixelpositionen (nx, ny) durch die entsprechenden Grauwerte IF'(nx, ny) des zugehörigen Negativbildes F' ersetzt, was sich bei einer Kodierung mit m Bit wie folgt darstellen lässt: IF'(nx, ny) = IF,max – IF(nx, ny) ∀ (nx, ny) (3a)mit IF,max := 2m – 1 (m ∈ ☐). (3b)
  • Der Vorteil dieser ersten Verfahrensvariante besteht darin, dass die Kontrastschärfe des Fluoroskopiebildes F im fusionierten Gesamtbild B, dessen Grauwerte sich gemäß der Formel IB(nx, ny) := α·IM(nx, ny) + (1 – α)·IF'(nx, ny) ∀ (nx, ny) (3c)mit 0 < α < 1
    berechnen lassen, voll erhalten bleibt. Da jedoch nur der Bereich des segmentierten Vordergrundes MV von Bild M in das invertierte Fluoroskopiebild F' eingeblendet wird, geht die 3-D-Information des eingeblendeten Bildobjekts BO, d. h. die Information über die räumliche Lagebeziehung zwischen dem Bildobjekt BO und den im Overlay-Bild M dargestellten Gewebebereichen im Objekthintergrund MH, verloren. Außerdem ist es bei den derzeitigen Bildverarbeitungssystemen nicht möglich, den segmentierten Vordergrund MV des Overlay-Bildes M dem invertierten Fluoroskopiebild F' justierbar zu überblenden.
  • Gemäß einem zweiten Variante des erfindungsgemäßen Verfahrens wird zu den Grauwerten in dem Bereich eines aufgenommenen Fluoroskopiebildes F, der dem segmentierten Vordergrund MV eines einzublendenden Overlay-Bildes M entspricht, ein fester Offset-Wert ΔIF, multipliziert mit dem Blending-Faktor α, addiert. Dadurch wird das Fluoroskopiebild F in dem betreffenden Bereich aufgehellt. Die Grauwerte der einzelnen Pixelpositionen im Vorder-(FV+) und Hintergrundbereich (FH+) des bei dieser Operation erhaltenen aufgehellten Fluoroskopiebildes F+ lassen sich dabei wie folgt angeben: IFV +(nx, ny) := IFV(nx, ny) + α·ΔIF ∀ (nx, ny) ∈ FV und (4a) IFH +(nx, ny) := IFH(nx, ny) + α·ΔIF ∀ (nx, ny) ∈ FH (4b)mit 0 < α < 1
  • Die Vorteile dieser zweiten Verfahrensvariante bestehen darin, dass die Kontrastschärfe des Fluoroskopiebildes F im fusionierten Gesamtbild B, dessen Grauwerte sich hierbei gemäß der Formel IB(nx, ny) := α·IM(nx, ny) + (1 – α)·IF +(nx, ny) ∀ (nx, ny) (4c)mit 0 < α < 1 und
    Figure 00160001
    berechnen lassen, zumindest näherungsweise erhalten bleibt und der segmentierte Vordergrund MV des Overlay-Bildes M dem aufgehellten Fluoroskopiebild F+ justierbar überblendet werden kann. Da jedoch nur der Bereich des segmentierten Vordergrundes MV von Bild M in das aufgehellte Fluoroskopiebild F+ eingeblendet wird, geht wie bei der ersten Verfahrensvariante auch hier die 3-D-Information des eingeblendeten Bildobjekts BO, d. h. die Information über die räumliche Lagebeziehung zwischen dem Bildobjekt BO und den im Overlay-Bild M dargestellten Gewebebereichen im Objekthintergrund MH, verloren. Bei sehr hellen Masken und Bildern mit hohen Helligkeitsanteilen und geringem Dynamikbereich kann es bei mehreren Wertüberläufen der Form ∃(nx, ny) ∈ FV ⋃ FH:IF +(nx, ny) > IF,max = 2m – 1 (4e)zu Sättigungen kommen, die dann die Kontrastschärfe des fusionierten Gesamtbildes B mindern.
  • Gemäß einem dritten Variante des erfindungsgemäßen Verfahrens werden zu den Grauwerten in dem Bereich eines aufgenommenen Fluoroskopiebildes F, der dem segmentierten Vordergrund MV eines einzublendenden Overlay-Bildes M (im Folgenden auch als „Maske" bezeichnet) entspricht, die Grauwerte des im Vordergrund MV des überlagernden Bildes M abgebildeten Bildobjekts BO, multipliziert mit dem Blending-Faktor α, addiert. Dadurch wird das Fluoroskopiebild F in dem betreffenden Bereich mit den Grauwerten des Overlay-Bildes M im Bereich des Bildobjekts BO additiv aufgehellt. Die Grauwerte der einzelnen Pixelpositionen im Vorder-(FV++) und Hintergrundbereich (FH++) des bei dieser Operation erhaltenen aufgehellten Fluoroskopiebildes F++ lassen sich dabei wie folgt angeben: IFV ++(nx, ny) := IFV(nx, ny) + α·IMV(nx, ny) ∀ (nx, ny) ∈ FV und (5a) IFH ++(nx, ny) := IFH(nx, ny) + α·IMV(nx, ny) ∀ (nx, ny) ∈ FH (5b)mit 0 < α < 1
  • Die Vorteile dieser dritten Verfahrensvariante bestehen darin, dass die Kontrastschärfe des Fluoroskopiebildes F im fusionierten Gesamtbild B, dessen Grauwerte sich in diesem Fall gemäß der Formel IB(nx, ny) := α·IM(nx, ny) + (1 – α)·IF ++(nx, ny) ∀ (nx, ny) (5c)mit 0 < α < 1 und
    Figure 00170001
    berechnen lassen, zumindest näherungsweise erhalten bleibt und der segmentierte Vordergrund MV des Overlay-Bildes M dem aufgehellten Fluoroskopiebild F++ justierbar überblendet werden kann. Anders als bei der vorstehend beschriebenen ersten und zweiten Variante des erfindungsgemäßen Verfahrens bleibt hier der 3-D-Eindruck des eingeblendeten Bildobjekts BO im fusionierten Gesamtbild B erhalten. Allerdings kann es bei sehr hellen Masken und Bildern mit hohen Helligkeitsanteilen und geringem Dynamikbereich im Falle mehrerer Wertüberläufe der Form ∃(nx, ny) ∈ FV ⋃ FH:IF ++(nx, ny) > IF,max = 2m – 1 (5e)zu Sättigungen kommen, die dann die Kontrastschärfe des fusionierten Gesamtbildes B mindern.
  • Gemäß einem vierten Variante des erfindungsgemäßen Verfahrens werden die Grauwerte in dem Bereich eines aufgenommenen Fluoroskopiebildes F, der dem segmentierten Vordergrund MV eines einzublendenden Overlay-Bildes M entspricht, mit einem multiplikativen Faktor
    Figure 00180001
    beaufschlagt, der von den Grauwerten IMV(nx, ny) an den entsprechenden Pixelpositionen im Vordergrund MV des Overlay-Bildes M (der „Maske") im Verhältnis zu dem maximalen Grauwert IMV,max innerhalb dieses Bereiches und dem Blending-Faktor α abhängt. Dadurch wird das Fluoroskopiebild F in dem betreffenden Bereich mit den Grauwerten des Overlay-Bildes M im Bereich des Bildobjekts BO multiplikativ aufgehellt. Bei dem Quotienten IMV(nx, ny)/IMV,max handelt es sich dabei um eine wertnormierte Darstellung des Grauwerts IMV(nx, ny) an der Pixelposition (nx, ny) der Maske M. Die Grauwerte der einzelnen Pixelpositionen im Vorder-(FV*) und Hintergrundbereich (FH*) des bei dieser Operation erhaltenen aufgehellten Fluoroskopiebildes F* lassen sich dabei wie folgt angeben: IFV *(nx, ny) := ρ·IFV(nx, ny) ∀ (nx, ny) ∈ FV und (6b) IFH *(nx, ny) := ρ·IFH(nx, ny) ∀ (nx, ny) ∈ FH (6c)mit 0 < α < 1
  • Die Vorteile dieser vierten Verfahrensvariante bestehen darin, dass die Kontrastschärfe des Fluoroskopiebildes F im fu sinnierten Gesamtbild B, dessen Grauwerte sich in diesem Fall gemäß der Formel IB(nx, ny) := α·IM(nx, ny) + (1 – α)·IF *(nx, ny) ∀ (nx, ny) (6d)mit 0 < α < 1 und
    Figure 00190001
    berechnen lassen, zumindest näherungsweise erhalten bleibt und der segmentierte Vordergrund MV des Overlay-Bildes M dem aufgehellten Fluoroskopiebild F* justierbar überblendet werden kann. Anders als bei der vorstehend beschriebenen ersten und zweiten Variante des erfindungsgemäßen Verfahrens bleibt auch hier der 3-D-Eindruck des eingeblendeten Bildobjekts BO im fusionierten Gesamtbild B erhalten. Allerdings kann es bei sehr hellen Masken und Bildern mit hohen Helligkeitsanteilen und geringem Dynamikbereich im Falle mehrerer Wertüberläufe der Form ∃(nx, ny) ∈ FV ⋃ FH:IF *(nx, ny) > IF,max = 2m – 1 (6f)zu Sättigungen kommen, die dann die Kontrastschärfe des fusionierten Gesamtbildes B mindern.
  • In 2 ist ein Ablaufdiagramm dargestellt, mit dem das erfindungsgemäße Verfahren veranschaulicht wird. Nach Bereitstellung (S1) der von einem medizintechnischen Bildgebungsgerät (z. B. von einem Angiographiesystem) generierten Bilddaten eines abzubildenden Organs oder Gewebebereichs im Körperinneren eines zu untersuchenden Patienten werden die akquirierten Bilddaten über eine Hochgeschwindigkeits-Datenleitung der Eingabe-/Ausgabe-Schnittstelle I/O des Bildverarbeitungssystems BVS zugeführt (S2a) und in einem dafür vorgesehenen Modul VVM einer Vorverarbeitungsprozedur unterzogen, welche z. B. in einer zwecks Rauschunterdrückung und Kantendetektion durchgeführten Filterung (S2b) der akquirierten Bilddaten besteht. Danach wird eine 2-D-/3-D-Bildrendering-Applikation BRA auf den akquirierten und gefilterten Bilddaten der einzelnen Schichtaufnahmen ausgeführt (S3), welche diese in Bilddaten unter beliebigen Projektionswinkeln darstellbarer rekonstruierter 2-D-Projektionen und/oder in Bilddaten rekonstruierter 3-D-Ansichten umrechnet. Bei aktivierter Fusionierungsfunktion, was über eine Abfrage (S4) ermittelt wird, werden die Bilddaten akquirierter (F) und rekonstruierter Bilder (M) dann in einem Schritt S5a gemeinsam registriert, archiviert und durch Überblendung fusioniert. Falls nötig, werden die beiden Ausgangsbilder F und M zuvor einer (nicht in 2 wiedergegebenen) Koordinatentransformation unterzogen, durch die in den jeweiligen Bildern dargestellte identische Bildobjekte (sofern dies noch nicht der Fall sein sollte) so überlagert werden, dass sie präzise aufeinander zur Deckung kommen. Zur Überblendung der beiden Bilder F und M kann erfindungsgemäß z. B. eine der vorstehend unter Bezugnahme auf eine der Verfahrensvarianten Nr. 1 bis Nr. 4 beschriebenen Überblendungstechniken zum Einsatz kommen. Dabei soll auch hier davon ausgegangen werden, dass nur der nach Subtraktion des segmentierten Hintergrunds MH im Overlay-Bild M verbleibende Bildvordergrund MV, also der Teil dieses Bildes, der eine rekonstruierte 2-D-Projektion oder 3-D-Ansicht eines darzustellenden Bildobjekts BO im Körperinneren des Patienten zeigt, in eine mittels fluoroskopischer Bildgebung generierte 2-D-Durchleuchtungsaufnahme F der umliegenden Gewebebereiche dieses Bildobjekts BO eingeblendet werden. Die fusionierten Bilddaten werden dann auf einem Anzeigebildschirm AB eines Bildschirm-Terminals in grafischer Form dargestellt (S6a). Falls die Abfrage in Schritt S4 jedoch ergibt, dass die Fusionierungsfunktion nicht aktiviert ist, werden die akquirierten und rekonstruierten Bilddaten in einem Schritt S5b separat registriert und archiviert, bevor die betreffenden Bilddaten dann auf den Anzeigebildschirm AB des Bildschirm-Terminals in grafischer Form separat dargestellt werden (S6b).
  • In 3 bis 5 sind drei Diagramme dargestellt, mit denen die einzelnen Varianten des erfindungsgemäßen Verfahrens einander gegenübergestellt und für verschiedene Parameterwerte hinsichtlich ihres Kontrasterhalts miteinander verglichen werden. Dabei ist jeweils das Verhältnis V zwischen dem nach einem der vier Verfahrensvarianten erzielbaren Bildkontrast, der sich bei Einblendung eines den Vordergrundbereich MV eines Overlay-Bildes M bildenden segmentierten Bildobjekts BO in ein z. B. mittels angiographischer Bildgebung generiertes Fluoroskopiebild F ergibt, und der ursprünglichen Kontrastschärfe dieses Fluoroskopiebildes F über den im Bereich zwischen 0 und 1 liegenden Werten des Blending-Faktors α zusammen mit dem bei Anwendung eines herkömmlichen Alpha-Blending im Vergleich zur ursprünglichen Kontrastschärfe des Fluoroskopiebildes F auf dem Bereich MV erzielbaren Kontrastverhältnis V aufgetragen. Unter Verwendung der in Formel (2) angegebenen Definition der Kontrastschärfe KB für das fusionierte Gesamtbild B und einer entsprechenden Formel
    Figure 00210001
    welche die ursprüngliche Kontrastschärfe KF für das Fluoroskopiebild F angibt, lässt sich dieses Kontrastverhältnis als Funktion des Blending-Faktors α in der folgenden Form angeben:
    Figure 00210002
  • Da, wie bereits erwähnt, lediglich das segmentierte Bildobjekt BO im Vordergrund MV des Overlay-Bildes M in das Fluoroskopiebild F eingeblendet wird, kann der IBH(α) in Formel (8a) durch IFH ersetzt werden, wodurch sich die Formel zu der nachfolgend angegebenen Form vereinfachen lässt:
    Figure 00210003
  • Für IBV(α) sind dabei je nach verwendeter Überblendungstechnik (reines Alpha-Blending, inverses Alpha-Blending, Alpha- Blending mit festem, additivem Offset ΔIF, Alpha-Blending mit additiver Einbeziehung des Overlay-Bildes M bzw. Alpha-Blending mit multiplikativer Einbeziehung des Grauwert-normierten Overlay-Bildes) die in den Formeln (1), (3c), (4c), (5c) bzw. (6d) für IB angegebenen Terme einzusetzen. So ergibt sich beispielsweise für die vereinfachende Annahme konstanter Grauwerte für alle Pixel im Vordergrund-(FV) und Hintergrundbereich (FH) des Fluoroskopiebildes F sowie für die Annahme konstanter Grauwerte für alle Pixel im Vordergrundbereich (MV) des Overlay-Bildes M für die Parameterwerte IFV = 60, IFH = 120 und IMV = 120 die nur noch vom Blending-Faktor abhängige Funktionsgleichung V(α) = 1 – α, (8c)welche in 3 bis 5 als fallende Gerade innerhalb des betrachteten Definitionsbereich α ∈ ]0; 1[ dargestellt ist. Wie in 3 bis 5 dargestellt, schneidet diese Gerade die Abszisse im Punkt (1; 0) und die Ordinate im Punkt (0; 1) des jeweiligen Diagramms, und zwar jeweils unter einem Winkel von 45°. In analoger Weise können auch die Funktionsgleichungen aller übrigen Funktionsgraphen der in 3 bis 5 skizzierten Kurvenscharen berechnet werden, wobei für das in 3 skizzierte Diagramm die Parameterwerte IFV = 60, IFH = 120, IMV = 120 für die Grauwerte im Vorder- (FV) bzw. Hintergrundbereich (FH) des Fluoroskopiebildes F bzw. für die Grauwerte im Vordergrundbereich (MV) des Overlay-Bildes M sowie der Parameterwert ΔIF = 50 für den Grauwert-Offset im Vordergrundbereich (FV) des Fluoroskopiebildes F beispielhaft verwendet wurden und für die in 4 und 5 skizzierten Diagramme die Parameterwerte IFV = 30, IFH = 180, IMV = 180 und ΔIF = 50. Die beiden Diagramme in 4 und 2c unterscheiden sich dabei durch die Tatsache, dass für die in 5 skizzierte Beispiel eine Quantisierung des darstellbaren Grauwertbereichs mit m = 10 Bit vorgenommen wurde, was einem verhältnismäßig großen Dynamikbereich von 210 = 1.024 verschiedenen Grauwerten entspricht, während für die in 4 skizzierte Beispiel eine Quantisierung des darstellbaren Grauwertbe reichs mit m = 8 Bit vorgenommen wurde, was einem verhältnismäßig kleinen Dynamikbereich von 28 = 256 verschiedenen Grauwerten entspricht. Infolge dieses kleineren Dynamikbereichs treten in letzterem Fall störende Sättigungseffekte in Erscheinung, die den Kontrast des fusionierten Gesamtbildes B stark mindern, was z. B. durch einen Vergleich der doppelstrichpunktiert wiedergegebenen Funktionsgraphen in den Diagrammen aus 4 und 5, welche sich auf die dritte Verfahrensvariante (additive Einbeziehung des Overlay-Bildes M bei der Berechnung des fusionierten Gesamtbildes B) bezieht, leicht abgelesen werden kann. Durch Vorgabe eines entsprechend großen Dynamikbereiches und eines erzwungenen Mindestabstandes zwischen dem Vordergrund (BV) und Hintergrund (BH) des fusionierten Gesamtbildes B lassen sich diese störenden Sättigungseffekte jedoch beheben.
  • Wie 3 bis 5 entnommen werden kann, zeigen die zu den einzelnen Verfahrensvarianten gehörenden Funktionsgraphen der abgebildeten Kurvenscharen jeweils einen monoton fallenden Verlauf, wobei der Punkt (0; 1) in allen drei Diagrammen einen gemeinsamen Fixpunkt aller Kurven einer Schar darstellt. Der Kurvenverlauf der zu den Verfahrensvarianten Nr. 2 (Alpha-Blending mit festem, additivem Offset α·ΔIF) und Nr. 3 (Alpha-Blending unter additiver Einbeziehung des Overlay-Bildes M) gehörenden Funktionsgraphen haben dabei einen hyperbolischen Verlauf, der sich in Richtung größerer α-Werte der Abszisse asymptotisch annähert. In Richtung kleinerer α-Werte nähert sich die Steigung dieser Funktionsgraphen immer mehr an die Steigung dV/dα = –1 einer durch die Funktionsvorschrift (8c) für das Kontrastverhältnis V(α) eines reinen Alpha-Blendings gegebenen Geraden g: α → V(α) = 1 – α an. Wie aus 3 bis 5 weiter ersichtlich ist, ist das Kontrastverhältnis V(α) bei Verfahrensvariante Nr. 1 (inverses Alpha-Blending) für alle Werte des Blending-Faktors α am größten, da der Kurvenverlauf von V(α) für diesen Fall mit einer durch den Punkt (0; 1) gehenden, zur Abszisse parallel verlaufenden Geraden h: α → V(α) = 1 zusammenfällt, und nimmt in Reihenfolge der vorstehend beschriebenen Verfahrens varianten Nr. 4 (Alpha-Blending unter multiplikativer Einbeziehung des Overlay-Bildes M), Nr. 2 (Alpha-Blending mit festem, additivem Offset α·ΔIF) und Nr. 3 (Alpha-Blending unter additiver Einbeziehung des Overlay-Bildes M) immer weiter ab. Am kleinsten ist das Kontrastverhältnis V(α) bei Durchführung eines reinen Alpha-Blendings, und zwar für alle möglichen Werte im Definitionsbereich des Blending-Faktors α.
  • Infolge der oben erwähnten Sättigungseffekte bei Verwendung kleiner Dynamikbereiche zeigt sich in 4 für den zu Verfahrensvariante Nr. 3 (Alpha-Blending unter additiver Einbeziehung des Overlay-Bildes M) gehörenden Funktionsgraph der Kurvenschar ein bei etwa α = 0,40 nach unten hin abknickender Kurvenverlauf. Ein ähnliches Verhalten ist auch für den zu Verfahrensvariante Nr. 4 (Alpha-Blending unter multiplikativer Einbeziehung des Overlay-Bildes M) gehörigen Funktionsgraph der Kurvenschar zu beobachten, dessen Kurvenverlauf bei etwa α = 0,44 nach unten hin abknickt.
  • Der Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass mit Hilfe der vorstehend beschriebenen Überblendungstechniken der ohnehin schon schwache Kontrast aufgenommener 2-D-Fluoroskopiebilder F trotz Überlagerung eingeblendeter Bildobjekte BO erhalten werden kann. Mit Hilfe dieser Techniken wird somit dafür gesorgt, dass die Erkennbarkeit der in einer fluoroskopischen Durchleuchtungsaufnahme abgebildeten Katheter, Implantate oder medizinischen Instrumente durch die Fusionierung und gemeinsame Visualisierung mit CT- oder MRT-Schnittbildern oder mit rekonstruierten 3-D-Ansichten bzw. 2-D-Projektionen darzustellender Bildobjekte im Körperinneren eines Patienten nicht beeinträchtigt wird.

Claims (23)

  1. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur Fusionierung, gemeinsamen Registrierung, Archivierung und Visualisierung von digitalen Bilddaten mindestens zweier Bilder (F und M), gekennzeichnet durch ein Fusionierungs-, Registrierungs- und Visualisierungs-Tool (FRVT), welches die Bilddaten eines ersten, zu überblendenden Bildes (F) und die Bilddaten eines zweiten, das erste Bild (F) überblendenden Bildes (M) unter Anwendung einer Alphakanal-basierten Überblendungstechnik miteinander verlinkt, koregistriert, fusioniert und anschließend auf dem Anzeigebildschirm (AB) eines Bildschirm-Terminals in grafischer Form zur Anzeige bringt, wobei das Fusionierungs-, Registrierungs- und Visualisierungs-Tool (FRVT) derart ausgelegt ist, dass die Farb- bzw. Grauwerte der einzelnen Pixel des ersten Bildes (F) bei dieser Überblendungstechnik vor Überblendung mit dem segmentierten Vordergrund (MV) des zweiten Bildes (M) durch Beaufschlagung mit einem Farbwert- bzw. Grauwert-Term aufgehellt werden, der die bei der Überblendung auftretende Kontrastminderung des ersten, zu überblendenden Bildes (F) kompensiert oder abschwächt.
  2. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach Anspruch 1, dadurch gekennzeichnet, dass das Fusionierungs-, Registrierungs- und Visualisierungs-Tool (FRVT) über ein Modul (KTM) zur Durchführung einer Koordinatentransformation verfügt, durch die zu überlagernde identische Bildobjekte (BO) in den mindestens zwei zu fusionierenden Bildern (F und M), sofern dies noch nicht der Fall sein sollte, so überlagert werden, dass sie präzise aufeinander zur Deckung kommen.
  3. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das Fusionierungs-, Registrierungs- und Visualisierungs-Tool (FRVT) ein Modul (SM) umfasst, welches dazu dient, den durch das einzublendende Bildobjekt (BO) im Vordergrund (MV) des zweiten, überblendenden Bildes (M) gebildeten Bereich vom Objekthintergrund (MH) dieses Bildes (M) zu segmentieren und die Farb- bzw. Grauwerte des segmentierten Objekthintergrundes (MH) anschließend von den Farb- bzw. Grauwerten des überblendenden Gesamtbildes (M) zu subtrahieren.
  4. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach einem der Ansprüche 1 bis 3, gekennzeichnet durch eine Speichereinheit (SE), in der die mit Hilfe des Fusionierungs-, Registrierungs- und Visualisierungs-Tools (FRVT) verlinkten und gemeinsam registrierten Bilddaten des ersten, zu überblendenden Bildes (F) und die Bilddaten des zweiten, das erste Bild (F) überblendenden Bildes (M) in fusionierter Form und/oder separat gespeichert werden.
  5. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass es sich bei dem die Kontrastminderung bei der Überblendung der beiden Bilder (F und M) kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term um einen zur Invertierung der Farb- bzw. Grauwerte des zu überblendenden Bildes (F) dienenden Bildoperator handelt.
  6. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass es sich bei dem die Kontrastminderung bei der Überblendung der beiden Bilder (F und M) kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term um einen vom Blending-Faktor (α) der Alphakanal-basierten Überblendungstechnik abhängigen additiven Farbwert- bzw. Grauwert-Offset (α·ΔIF oder α·IMV) handelt.
  7. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach Anspruch 6, dadurch gekennzeichnet, dass es sich bei dem additiven Farbwert- bzw. Grauwert-Offset um einen ortsunabhängigen, konstanten Offset (α·ΔIF) handelt.
  8. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach Anspruch 6, dadurch gekennzeichnet, dass die Farb- bzw. Grauwerte der einzelnen Pixel im Vordergrund (MV) des überblendenden Bildes (M) in den Farbwert- bzw. Grauwert-Offset (α·IMV) multiplikativ eingehen.
  9. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass es sich bei dem die Kontrastminderung bei der Überblendung der beiden Bilder (F und M) kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term um einen vom Blending-Faktor (α) der Alphakanal-basierten Überblendungstechnik abhängigen multiplikativen Farbwert- bzw. Grauwert-Faktor (ρ) handelt.
  10. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach Anspruch 9, dadurch gekennzeichnet, dass die Farb- bzw. Grauwerte der einzelnen Pixel im Vordergrund (MV) des überblendenden Bildes (M) in normierter Form in den Farbwert- bzw. Grauwert-Faktor (ρ) multiplikativ eingehen.
  11. Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass es sich bei den fusionierten, gemeinsam registrierten und in grafischer Form visualisierten Bilddaten dieser mindestens zwei Bilder (F und M) einerseits um Bilddaten von zweidimensionalen Durchleuchtungsaufnahmen (F) abzubildender Organe bzw. Gewebebereiche im Körperinneren eines zu untersuchenden Patienten handelt, die unter Anwendung eines fluoroskopischen Bildgebungsprozesses akquiriert wurden, und andererseits um Bilddaten rekonstruierter 2-D-Projektionen bzw. 3-D-Ansichten (M) der betreffenden Organe bzw. Gewebebereiche.
  12. Verfahren zur gemeinsamen Registrierung, Archivierung, kontrasterhaltenden Fusionierung und Visualisierung von digitalen Bilddaten mindestens zweier Bilder (F und M), dadurch gekennzeichnet, dass die Bilddaten eines ersten, zu überblendenden Bildes (F) und die Bilddaten eines zweiten, das erste Bild (F) überblendenden Bildes (M) unter Anwendung einer Alphakanal-basierten Überblendungstechnik, bei der die Farb- bzw. Grauwerte der einzelnen Pixel des ersten Bildes (F) vor Überblendung mit dem segmentierten Vordergrund (MV) des zweiten Bildes (M) durch Beaufschlagung mit einem die bei der Überblendung auftretende Kontrastminderung des ersten, zu überblendenden Bildes (F) kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term aufgehellt werden, miteinander verlinkt, koregistriert, fusioniert und auf dem Anzeigebildschirm (AB) eines Bildschirm-Terminals in grafischer Form zur Anzeige gebracht werden.
  13. Verfahren nach Anspruch 12, gekennzeichnet durch die Durchführung einer Koordinatentransformation, durch die zu überlagernde identische Bildobjekte (BO) in den mindestens zwei zu fusionierenden Bildern (F und M), sofern dies noch nicht der Fall sein sollte, so überlagert werden, dass sie präzise aufeinander zur Deckung kommen.
  14. Verfahren nach einem der Ansprüche 12 oder 13, gekennzeichnet durch einen Verfahrensschritt, bei dem das einzublendende Bildobjekt (BO) im Vordergrundbereich (MV) des zweiten, überblendenden Bildes (M) vom Objekthintergrund (MH) dieses Bildes (M) segmentiert wird und die Farb- bzw. Grauwerte des segmentierten Objekthintergrundes (MH) von den Farb- bzw. Grauwer ten des überblendenden Gesamtbildes (M) anschließend subtrahiert werden.
  15. Verfahren nach einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass die verlinkten und gemeinsam registrierten Bilddaten des ersten, zu überblendenden Bildes (F) und die Bilddaten des zweiten, das erste Bild (F) überblendenden Bildes (M) in fusionierter Form und/oder separat gespeichert werden.
  16. Verfahren nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass es sich bei dem die Kontrastminderung bei der Überblendung der beiden Bilder (F und M) kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term um einen zur Invertierung der Farb- bzw. Grauwerte des zu überblendenden Bildes (F) dienenden Bildoperator handelt.
  17. Verfahren nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass es sich bei dem die Kontrastminderung bei der Überblendung der beiden Bilder (F und M) kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term um einen vom Blending-Faktor (α) der Alphakanal-basierten Überblendungstechnik abhängigen additiven Farbwert- bzw. Grauwert-Offset (α·ΔIF oder α·IMV) handelt.
  18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass es sich bei dem additiven Farbwert- bzw. Grauwert-Offset um einen ortsunabhängigen, konstanten Offset (α·ΔIF) handelt.
  19. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass die Farb- bzw. Grauwerte der einzelnen Pixel im Vordergrund (MV) des überblendenden Bildes (M) in den Farbwert- bzw. Grauwert-Offset (α·IMV) multiplikativ eingehen.
  20. Verfahren nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass es sich bei dem die Kontrastminderung bei der Überblendung der beiden Bilder (F und M) kompensierenden oder abschwächenden Farbwert- bzw. Grauwert-Term um einen vom Blending-Faktor (α) der Alphakanal-basierten Überblendungstechnik abhängigen multiplikativen Farbwert- bzw. Grauwert-Faktor (ρ) handelt.
  21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass die Farb- bzw. Grauwerte der einzelnen Pixel im Vordergrund (MV) des überblendenden Bildes (M) in normierter Form in den Farbwert- bzw. Grauwert-Faktor (ρ) multiplikativ eingehen.
  22. Verfahren nach einem der Ansprüche 12 bis 21, dadurch gekennzeichnet, dass es sich bei den fusionierten, gemeinsam registrierten und in grafischer Form visualisierten Bilddaten dieser mindestens zwei Bilder (F und M) einerseits um Bilddaten von zweidimensionalen Durchleuchtungsaufnahmen (F) abzubildender Organe bzw. Gewebebereiche im Körperinneren eines zu untersuchenden Patienten handelt, die unter Anwendung eines fluoroskopischen Bildgebungsprozesses akquiriert wurden, und andererseits um Bilddaten rekonstruierter 2-D-Projektionen bzw. 3-D-Ansichten (M) der betreffenden Organe bzw. Gewebebereiche.
  23. Computersoftware-Programmprodukt zur Durchführung eines Verfahrens nach einem der Ansprüche 12 bis 22 bei Betrieb auf einem Bildschirm-Terminal eines Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystems nach einem der Ansprüche 1 bis 11.
DE102007021035A 2007-05-04 2007-05-04 Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten Withdrawn DE102007021035A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102007021035A DE102007021035A1 (de) 2007-05-04 2007-05-04 Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten
US12/150,950 US8200040B2 (en) 2007-05-04 2008-05-01 Image system for retaining contrast when merging image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007021035A DE102007021035A1 (de) 2007-05-04 2007-05-04 Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten

Publications (1)

Publication Number Publication Date
DE102007021035A1 true DE102007021035A1 (de) 2008-11-13

Family

ID=39829185

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007021035A Withdrawn DE102007021035A1 (de) 2007-05-04 2007-05-04 Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten

Country Status (2)

Country Link
US (1) US8200040B2 (de)
DE (1) DE102007021035A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011089233A1 (de) * 2011-12-20 2013-06-20 Siemens Aktiengesellschaft Texturadaption in zumindest einem aus mindestens zwei Bildern überlagerten, medizinischen Bild

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11197651B2 (en) 2007-03-08 2021-12-14 Sync-Rx, Ltd. Identification and presentation of device-to-vessel relative motion
US9629571B2 (en) 2007-03-08 2017-04-25 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
EP2358269B1 (de) 2007-03-08 2019-04-10 Sync-RX, Ltd. Bildverarbeitung und instrumentbetätigung für medizinische verfahren
US9968256B2 (en) 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
WO2014002095A2 (en) 2012-06-26 2014-01-03 Sync-Rx, Ltd. Flow-related image processing in luminal organs
WO2008107905A2 (en) 2007-03-08 2008-09-12 Sync-Rx, Ltd. Imaging and tools for use with moving organs
US11064964B2 (en) 2007-03-08 2021-07-20 Sync-Rx, Ltd Determining a characteristic of a lumen by measuring velocity of a contrast agent
US9305334B2 (en) 2007-03-08 2016-04-05 Sync-Rx, Ltd. Luminal background cleaning
US9375164B2 (en) 2007-03-08 2016-06-28 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US10716528B2 (en) 2007-03-08 2020-07-21 Sync-Rx, Ltd. Automatic display of previously-acquired endoluminal images
EP2303385B1 (de) 2008-06-19 2013-12-11 Sync-RX, Ltd. Schrittweises vorschieben eines medizinischen instruments
US9974509B2 (en) 2008-11-18 2018-05-22 Sync-Rx Ltd. Image super enhancement
US8855744B2 (en) 2008-11-18 2014-10-07 Sync-Rx, Ltd. Displaying a device within an endoluminal image stack
US9101286B2 (en) 2008-11-18 2015-08-11 Sync-Rx, Ltd. Apparatus and methods for determining a dimension of a portion of a stack of endoluminal data points
US10362962B2 (en) 2008-11-18 2019-07-30 Synx-Rx, Ltd. Accounting for skipped imaging locations during movement of an endoluminal imaging probe
US9095313B2 (en) 2008-11-18 2015-08-04 Sync-Rx, Ltd. Accounting for non-uniform longitudinal motion during movement of an endoluminal imaging probe
US11064903B2 (en) 2008-11-18 2021-07-20 Sync-Rx, Ltd Apparatus and methods for mapping a sequence of images to a roadmap image
US9144394B2 (en) 2008-11-18 2015-09-29 Sync-Rx, Ltd. Apparatus and methods for determining a plurality of local calibration factors for an image
WO2010084390A1 (en) * 2009-01-22 2010-07-29 Koninklijke Philips Electronics, N.V. Pixel-feature hybrid fusion for pet/ct images
FR2944203A1 (fr) * 2009-04-08 2010-10-15 Gen Electric Systeme et procede pour determiner la position d'un instrument medical
FR2946519B1 (fr) * 2009-06-12 2012-07-27 Gen Electric Procede d'imagerie medicale selon lequel on superpose a des images 2d des vues correspondant a des images 3d.
JP5562740B2 (ja) * 2009-07-15 2014-07-30 株式会社東芝 医用画像表示システム及び医用画像通信方法
US8830263B2 (en) * 2009-07-24 2014-09-09 Hitachi Medical Corporation Medical image display device and medical image display method
DE102009052315B4 (de) * 2009-11-02 2019-03-07 Siemens Healthcare Gmbh Verfahren zur Hervorhebung lokaler Eigenschaften in anatomischen Volumendarstellungen von Gefäßstrukturen und Computersystem zur Durchführung dieses Verfahrens
JP5498339B2 (ja) * 2009-11-05 2014-05-21 株式会社東芝 磁気共鳴イメージング装置
DE102010018872A1 (de) * 2010-04-30 2011-11-03 Siemens Aktiengesellschaft Bildgebendes Verfahren zur hervorgehobenen Darstellung von Gefäßen in einem Untersuchungsbereich eines Patienten und Medizinsystem zur Durchführung des Verfahrens
US20130322712A1 (en) * 2012-06-05 2013-12-05 Siemens Medical Solutions Usa, Inc. System for Comparing Medical Images
US20130329985A1 (en) * 2012-06-07 2013-12-12 Microsoft Corporation Generating a three-dimensional image
GB2528249B (en) * 2014-07-11 2019-03-06 Siemens Medical Solutions Usa Inc Automatic background region selection for lesion delineation in medical images
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
CN111149128B (zh) * 2018-07-03 2024-03-29 西安大医集团股份有限公司 标记数据的获取方法及装置、训练方法及装置、医疗设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994006111A1 (en) * 1992-09-08 1994-03-17 Analog Devices, Incorporated Crt display apparatus with improved techniques for blending video signals with computer-generated graphic signals
DE10304703A1 (de) * 2003-02-06 2004-08-19 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit umgebungsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5662108A (en) * 1992-09-23 1997-09-02 Endocardial Solutions, Inc. Electrophysiology mapping system
US5318591A (en) * 1992-11-23 1994-06-07 Siemens Pacesetter, Inc. Implantable cardioverter-defibrillator having early charging capability
DE69432148T2 (de) * 1993-07-01 2003-10-16 Boston Scient Ltd Katheter zur bilddarstellung, zur anzeige elektrischer signale und zur ablation
US5487752A (en) * 1994-11-15 1996-01-30 Cardiac Pacemakers, Inc. Automated programmable stimulating device to optimize pacing parameters and method
US5755759A (en) * 1996-03-14 1998-05-26 Eic Laboratories, Inc. Biomedical device with a protective overlayer
US6785576B2 (en) * 1997-04-21 2004-08-31 Medtronic, Inc. Medical electrical lead
US6188618B1 (en) * 1998-04-23 2001-02-13 Kabushiki Kaisha Toshiba Semiconductor device with flexible redundancy system
US6141593A (en) * 1998-11-10 2000-10-31 Intermedics Inc. Cardiac lead with ETEE coated DBS coil
US6083216A (en) * 1999-01-05 2000-07-04 Intermedics Inc. Bent cardiac lead with shape memory torque coil
US7650044B2 (en) * 2001-07-30 2010-01-19 Cedara Software (Usa) Limited Methods and systems for intensity matching of a plurality of radiographic images
US7481759B2 (en) * 2001-08-03 2009-01-27 Cardiac Pacemakers, Inc. Systems and methods for treatment of coronary artery disease
US7010152B2 (en) * 2002-01-22 2006-03-07 Canon Kabushiki Kaisha Radiographic image composition and use
NZ519153A (en) * 2002-05-23 2004-09-24 David Stanley Hoyle Agricultural spreader having an inclinometer means and a microprocessor for controlling the supply rate of the fertiliser
US8383158B2 (en) * 2003-04-15 2013-02-26 Abbott Cardiovascular Systems Inc. Methods and compositions to treat myocardial conditions
US7873909B2 (en) * 2004-08-10 2011-01-18 Photoinaphoto.Com, Inc. Manipulation and merging of graphic images
US8050471B2 (en) * 2004-11-23 2011-11-01 Koninklijke Philips Electronics N.V. Image processing system and method for displaying images during interventional procedures
US20070103483A1 (en) * 2005-07-20 2007-05-10 Steven Feldman Adaptive alpha blending
US7532770B2 (en) * 2005-09-23 2009-05-12 Siemens Aktiengesellschaft Method for combining two images based on eliminating background pixels from one of the images
US7460929B2 (en) * 2006-05-01 2008-12-02 Agere Systems Inc. Integrated current fault controller

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994006111A1 (en) * 1992-09-08 1994-03-17 Analog Devices, Incorporated Crt display apparatus with improved techniques for blending video signals with computer-generated graphic signals
DE10304703A1 (de) * 2003-02-06 2004-08-19 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit umgebungsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IWAINSKY, A.; WILHELMI, W.: Lexikon der Computer- grafik und Bildverarbeitung, Vieweg Verlagsgesell- schaft, 1994, S. 231
IWAINSKY, A.; WILHELMI, W.: Lexikon der Computergrafik und Bildverarbeitung, Vieweg Verlagsgesellschaft, 1994, S. 231 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011089233A1 (de) * 2011-12-20 2013-06-20 Siemens Aktiengesellschaft Texturadaption in zumindest einem aus mindestens zwei Bildern überlagerten, medizinischen Bild

Also Published As

Publication number Publication date
US8200040B2 (en) 2012-06-12
US20080273784A1 (en) 2008-11-06

Similar Documents

Publication Publication Date Title
DE102007021035A1 (de) Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten
DE102005059209B4 (de) Verfahren und Vorrichtung zur Visualisierung einer Folge von tomographischen Bilddatensätzen
DE4102729C2 (de) Angiographie-Verfahren
DE102016203857B4 (de) Verfahren zur Erfassung und Verarbeitung von Bilddaten eines Untersuchungsobjekts
DE102009037243A1 (de) Verfahren zur hervorgehobenen Darstellung von Objekten bei interventionellen angiographischen Untersuchungen
DE102007010806B4 (de) Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem
DE102007013807A1 (de) Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystem zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen
DE102005035430A1 (de) Verfahren zur verbesserten Darstellung co-registrierter 2D-3D-Bilder in der medizinischen Bildgebung
DE102005023194A1 (de) Verfahren zur Erweiterung des Darstellungsbereiches von 2D-Bildaufnahmen eines Objektbereiches
DE102006003126A1 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten
DE102014201559A1 (de) Angiographisches Untersuchungsverfahren eines Gefäßsystems in einer interessierenden Körperregion eines Patienten
DE102005062445A1 (de) Verfahren zum Erzeugen eines Röntgenbildes
DE102007030960A1 (de) Verfahren zur Darstellung von 3-D-Strukturen in 2-D-Projektionsbildern
DE102008045276B4 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
DE102011076929A1 (de) Verfahren und Vorrichtung zur Darstellung von Volumendaten für eine Untersuchung von Dichteeigenschaften
DE102016221220B4 (de) Verfahren zur Ermittlung eines darzustellenden Überlagerungsbildes, Darstellungseinrichtung, Computerprogramm und Datenträger
DE10253617B4 (de) Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes
DE10163813A1 (de) Verfahren zur Darstellung von unterschiedlichen Bildern eines Untersuchungsobjektes
DE102008018023B4 (de) Verfahren und Vorrichtung zum Visualisieren einer überlagerten Darstellung von Durchleuchtungsbildern
DE102017201162B4 (de) Verfahren zum Betreiben eines Röntgengerätes mit verbesserter Darstellung einer medizinischen Komponente
DE10210644B4 (de) Verfahren zum Erstellen einer Sequenz
DE102012200536B4 (de) Konturvisualisierung von medizinischen 3D-Daten für die Überlagerung mit medizinischen 2D-Daten
DE102018211477A1 (de) Verfahren zum automatischen Bestimmen einer Gewichtung für ein Roadmap-Verfahren, Computerprogramm, Datenspeicher und entsprechendes bildgebendes Gerät
DE102010034918A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Güteeinformation für eine Röntgenbildgebung
DE102010038916A1 (de) Verfahren und Vorrichtung zur Röntgenabbildung mit geringer Strahlenbelastung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R011 All appeals rejected, refused or otherwise settled