DE102012111386A1 - Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen - Google Patents

Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen Download PDF

Info

Publication number
DE102012111386A1
DE102012111386A1 DE102012111386.6A DE102012111386A DE102012111386A1 DE 102012111386 A1 DE102012111386 A1 DE 102012111386A1 DE 102012111386 A DE102012111386 A DE 102012111386A DE 102012111386 A1 DE102012111386 A1 DE 102012111386A1
Authority
DE
Germany
Prior art keywords
nuclear
image
radiation detector
ultrasonic
nuclear radiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102012111386.6A
Other languages
English (en)
Inventor
Thomas Wendler
Jörg Traub
Stefan Wiesner
Martin Freesmeyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SURGICEYE GmbH
Original Assignee
SURGICEYE GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SURGICEYE GmbH filed Critical SURGICEYE GmbH
Priority to DE102012111386.6A priority Critical patent/DE102012111386A1/de
Priority to EP13795492.1A priority patent/EP2922471A1/de
Priority to US14/647,070 priority patent/US20150305700A1/en
Priority to PCT/EP2013/074626 priority patent/WO2014080013A1/de
Publication of DE102012111386A1 publication Critical patent/DE102012111386A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/42Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4258Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector for detecting non x-ray radiation, e.g. gamma radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4263Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine (AREA)

Abstract

Es wird ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung (10) bereitgestellt, das umfasst: einen handgeführten Nuklearstrahlungs-Detektor (20), eine handgeführte Ultraschall-Sonde (30), ein Nuklear-Nachführsystem (40) zum Nachführen des Nuklearstrahlungs-Detektors (20) während des Messens einer Nuklearstrahlung und zum Erhalten von Nuklearstrahlungs-Detektor-Koordinaten, die eine Position des nachgeführten Nuklearstrahlungs-Detektors in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren, ein Ultraschall-Nachführsystem (50) zum Nachführen der Ultraschall-Sonde (30) während der Aufnahme von Ultraschall-Signalen, so dass Ultraschall-Sonden-Koordinaten erhalten werden, die eine Position der nachgeführten Ultraschall-Sonde in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren, und ein Datenerfassungs-Modul (60), das Nuklearstrahlungs-Detektor-Messungen, Nuklearstrahlungs-Detektor-Koordinaten, die Ultraschall-Signale vom Ultraschall-System (50), und Ultraschall-Sonden-Koordinaten erfasst und mit einem Bildkoordinatensystem eines hybriden Bilds zusammenbringt, und ein Nuklear-Bildrekonstruktionsmodul (70) zum Rekonstruieren eines Nuklear-Bildes aus Nuklearstrahlungs-Detektor-Messungen, Ultraschall-Signalen, Nuklearstrahlungs-Detektor-Koordinaten und Ultraschall-Signal-Koordinaten in dem Bildkoordinatensystem eines hybriden Bildes. Ferner wird ein Verfahren zur hybriden Bildgebung vorgeschlagen.

Description

  • Die Erfindung liegt auf dem Gebiet der Bildgebung, insbesondere auf dem Gebiet der intraoperativen, interventionellen und diagnostischen Bildgebung mit handgeführten Detektoren.
  • In der diagnostischen Bildgebung werden vermehrt Kombinationen von verschiedenen Verfahren eingesetzt, die sogenannten Hybridbildgebungssysteme. Dabei sollen vor allem Systeme kombiniert werden, die komplementär zueinander sind bzw. bei denen die Nachteile des einen Systems durch die Vorteile des anderen kompensiert werden oder die Vorteile beider Anlagen so kombiniert werden, dass das neue System besser als die Einzelanwendung ist.
  • Z.B. kann man mit der Röntgen-Computertomographie (CT) morphologische Strukturen mit einer hohen räumlichen Auflösung darstellen mit dem Nachteil eines relativ schlechten Weichteilkontrastes, fehlender funktioneller Information, der Verwendung nephrotoxischer Kontrastmittel und schädigender Gammastrahlung (Strahlenbelastung).
  • Ein nuklearmedizinisches System verwendet zwar auch schädigende Strahlung, kann aber Funktionsinformation deutlich besser darstellen, allerdings mit einer recht schlechten Ortsauflösung. Eine Kombination von einem Computertomographen und einem nuklearmedizinischen System (wie etwa ein Einzel-Photon-Emissions-Computertomographie-System, engl. SPECT-System oder ein Positronen-Emissions-Tomographie-System, engl. PET-System) könnte damit zumindest ein hoch auflösendes Bild mit funktioneller Information liefern. Es gibt dazu natürlich generell die Möglichkeit die jeweiligen Bilddaten separat aufzunehmen und nachträglich zu kombinieren (Bildregistrierung). Dies hat allerdings den Nachteil der teilweise schlechten Korrelation durch zwischenzeitlich erfolgte Deformation oder Bewegung des Patienten und durch unterschiedliche Lagerung. Damit ist die Genauigkeit der Bilddaten nur sehr eingeschränkt. Ideal wäre es deswegen die Bildgebung an einem kombinierten System durchzuführen, wie dies seit einigen Jahren bei den sogenannten PET/CT oder SPECT/CT Systemen geschieht. Dort wird sequentiell in einem kombinierten System ein nuklearmedizinisches Bild und eine Computertomographie durchgeführt. Unter sequentielle Aufnahme versteht man eine Aufnahme, wo die Aufnahmen beider Bildgebungsmodalitäten nicht zeitlich überlappen, sondern eins nach der anderen mit wenigen Minuten Unterschied erfolgt.
  • Die Kombination von Magnetresonanztomographie (MR) und PET in einem integrierten System (MR/PET-System) hat gezeigt, dass die o.a. Nachteile vom CT (eingeschränkter Weichteilkontrast, nephrotoxisches Kontrastmittel, Gammastrahlung) verhindert werden können. Das MR-System kann einerseits sehr hoch ortsaufgelöste Bilder erzeugen und dies mit einem exzellenten Weichteilkontrast. Zudem ist die Anwendung der Magnetresonanztomographie durch die Wellenlänge und Energien der verwendeten Quanten ungefährlich. Mit der Nukleramedizin kann dieses Bild nun zusätzlich mit funktioneller Information eines bestimmten Bereichs versehen werden. Insbesondere bei onkologischen Fragestellungen hilft dies nicht nur bei der anfänglichen Diagnostik, sondern auch bei der Verlaufskontrolle einer nachfolgenden Therapie.
  • Ein weiterer Vorteil von MR/PET Systemen ist, dass man bei gewissen Implementierungen die Datenakquise von MR und PET gemeinsam laufen kann. Dies verhindert eine schlechte Korrelation durch zwischenzeitlich erfolgte Deformation oder Bewegung des Patienten und durch unterschiedliche Lagerung. Unter einer gemeinsamen Aufnahme versteht man eine Aufnahme wo die Aufnahme von zwei Bildgebungsmodalitäten mindestens während eines Zeitintervalls überlappen. Z.B. bei einem MR/PET können PET Bilder vor und nach der MR Aufnahme erfasst werden oder sogar simultan mit der MR Aufnahme. Ähnlich kann die MR Aufnahme vor und nach der PET Aufnahme stattfinden oder simultan mit ihr.
  • Das Problem der gegenwärtig eingesetzten PET/CT, SPECT/CT oder MR/PET Anlagen ist die ausschließliche Verwendung für diagnostische Fragestellungen, da sie nicht flexibel intraoperativ oder interventionell eingesetzt werden können.
  • Gleiches gilt es für Anlagen wie diejenige beschrieben in der US Anmeldung 2010/0016765 A1 oder im US Patent 6.455.856 wo ein Ultraschall-System in einem stationären SPECT System bzw. in der stationären Gamma-Kamera eingebaut wird.
  • Bei einer erfolgten Diagnose und einer nachfolgenden interventionellen Eingriff oder Operation eines Tumors würden zwar die Bilddaten vor der Intervention/Operation zur Verfügung stehen, aber Veränderungen, die nach der Bildgebung und vor der Intervention/Operation auftreten würden natürlich nicht dargestellt werden können. Derartige Veränderungen können erfolgen durch normale Verschiebungen von Organen, andere Lagerungen (z.B. Interventions-/Operationstisch ist gerade, Bett des Diagnosesystems enthält diverse Lagerungshilfen, Diagnose mit den Armen über dem Kopf/Therapie mit den Armen seitlich oder umgekehrt).
  • Zudem wäre es wünschenswert, schon während der Intervention/Operation Informationen zum Erfolg der Operation zu bekommen (Tumorgewebe unterscheidet sich optisch nicht zwingend von normalem Gewebe) und um sicherzustellen, dass das gesamte kranke Gewebe entfernt wurde aber andererseits möglichst viel gesundes Gewebe im Körper zu belassen. Dies kann man eigentlich nur dadurch erreichen, dass die Bildgebung auch während der Intervention/Operation zur Verfügung steht. Zudem kann man die Bildinformation natürlich dazu nutzen das Interventions-/Operationsvolumen eindeutig zu markieren und das Interventions-/Operationswerkzeug entsprechend genau zu diesem Volumen zu navigieren.
  • Viele andere therapeutische Verfahren unter anderem in der Neurologie und Orthopädie haben ähnliche Probleme, und könnten von solch einem kombinierten System in der direkten Operationsumgebung profitieren.
  • Die mangelnde Beweglichkeit der Anlagen ist in sich auch ein Nachteil in der Diagnostik. Oft ist es gewünscht bei älteren oder sehr kranken Patienten Bildaufnahmen (oder sogar Interventionen) am Bett durchzuführen. Auch bei kleineren Krankenhäusern werden oft Anlagen geteilt und dort ist vorteilhaft diese bewegen zu können.
  • Ein weiteres Problem dieser hybriden Systeme sind die hohen Kosten der Maschinen. Dies ermöglicht ihre Anwendung nur in großen Institutionen oder spezialisierten Zentren. Somit kann nur eine Subgruppe der Patienten diagnostiziert werden.
  • Als Alternative zu dieser Art teurer fest installierter/stationärer hybrider Bildgebung wurden in der letzten Zeit Ultraschallsysteme aufgerüstet, um PET/CT oder SPECT/CT Daten zu laden und anzuzeigen. Diese Ultraschallsysteme sind oft mit Positionierungssystemen aufgerüstet, um in Echtzeit die Lage und Orientierung der Ultraschallsonde erfolgen zu können. Über Registrierungsmethoden wie etwa Punktbasierte Registrierung oder intensitätsbasierte Registrierung werden die CT-Daten mit den Ultraschallbildern zugeordnet und somit können, über die bekannten Registrierung von PET oder SPECT zum CT und die berechnete Registrierung vom CT zum Ultraschall äquivalente PET/Ultraschall oder SPECT/Ultraschall Bilder generiert werden. Beispiele von so einem System ist das GE System Logiq E9 oder das System der europäischen Patentanmeldung EP 2104919 A2 .
  • Diese Strategie hat aber immer noch Probleme: Erstens, sie benötigt ein CT, was in sich eine Strahlenbelastung für den Patienten bedeutet, um lediglich die Ultraschallbilder mit den nuklearmedizinischen Bildern zu fusionieren. Zweitens, sind die Aufnahmen von den Funktionsbildern (PET oder SPECT) oft einige Tage vor den Ultraschallbildern aufgenommen, so dass eine Fusionierung der Daten nur bedingt gültig ist. Drittens, mit dem Schritt der Registrierung inkorporieren diese Systeme zwangsmäßig Korrelationsfehler, die eine 100% Fusion der Daten nicht möglich macht.
  • Relevant zum Hintergrund dieser Erfindung ist die Freihand SPECT Bildgebung (T. Wendler, A. Hartl, T. Lasser, J. Traub, F. Daghighian, S. I. Ziegler, N. Navab; Towards intra-operative 3D nuclear imaging: reconstruction of 3D radioactive distributions using tracked gamma probes; Proceedings of Medical Image Computing and Computer-Assisted Intervention (MICCAI 2007), Brisbane, Australia, October 29 – November 2 2007, LCNS 4792 (2), pp. 252–260 // T. Wendler, K. Herrmann, A. Schnelzer, T. Lasser, J. Traub, O. Kutter, A. Ehlerding, K. Scheidhauer, T. Schuster, M. Kiechle, M. Schwaiger, N. Navab, S. I. Ziegler, A. K. Buck; First demonstration of 3-D lymphatic mapping in breast cancer using freehand SPECT; European Journal of Nuclear Medicine and Molecular Imaging, Springer Berlin/Heidelberg, 2010 Aug;37(8):1452–61). Sie ermöglicht SPECT-äquivalente Bilder zu generieren, basiert aber auf handgeführten Detektoren, wie etwa einer Gamma Sonde anstatt großer Gamma Kameras, die im konventionellen SPECT benutzt werden. Diese Detektoren werden von einem Positionierungssystem geortet, so dass die Messungen dieser durch eine Position und Orientierung komplementiert werden. Aus den Messungen der Detektoren, ihrer jeweiligen Positionen und Orientierungen werden SPECT Bilder generiert. Die Konzepte vom Freihand SPECT können auch bei Benutzung von Koinzidenzdetektoren, wo mindestens eins dieser handgeführt ist für eine Freihand PET Bildgebung erweitert werden. Freihand-SPECT und PET-Systeme sind kostengünstiger als ihre konventionellen stationären Alternativen.
  • In 2009 wurde ein Freihand-SPECT-System aufgerüstet, um zusätzlich eine Ultraschallsonde nachzuführen (T. Wendler, T. Lasser, J. Traub, S. I. Ziegler, N. Navab; Freehand SPECT / ultrasound fusion for hybrid image-guided resection; Proceedings of Annual Congress of the European Association of of Nuclear Medicine – EANM 2009, Barcelona, Spain, October 2009). Durch Kalibrierung war es möglich, die Plausibilität einer Freihand SPECT/Ultraschall Bildgebung zu zeigen.
  • Dieser Prototyp hatte das Problem der Sequentialität der Datenerfassung: zuerst wurde ein Freihand SPECT Bild geniert, und erst dann nahm man die Ultraschallbilder auf. Die Bildqualität war nicht besonders gut, da zwischen beiden Aufnahmen Deformation und Bewegungen des Patienten vorkamen. Des Weiteren waren die Anforderungen an der Bildqualität der Freihand SPECT hoch, so dass einer Bildrekonstruktion die nur auf den Gamma-Sonden-Messungen und der Position und Orientierung der Gamma-Sonde nur Auflösungen von > 7mm geschafft hat, und nur große Kontraste sichtbar machen konnte.
  • Ähnliche Ideen wurden auch im US Patent 6.512.943 ausgeführt. Dort kombiniert man ein Ultraschallsystem mit zwei Nuklearstrahlungs-Detektoren mechanisch. Aus Messungen der beiden Nuklearstrahlungs-Detektoren kann die Tiefe einer radioaktiven Quelle bestimmt werden. Mit dem Ultraschallbild, die das Ultraschallsystem liefert, kann man dann eine Zuordnung machen, welche Strukturen radioaktiv sind und sogar Biopsien führen. Das Hauptproblem von einem solchen System ist, dass es nur bei der Ortung radioaktiver einzelnen Punktquellen eingesetzt werden kann, da es nur die 3D-Position dieser lediglich aus zwei Werten erfasst.
  • Im US Patent 6.628.984 wird eine handgeführte Gamma Kamera beschrieben, die nachgeführt ist, um tomographische Bilder zu rekonstruieren. Diese Bilder kann man als 3D Nuklear-Bilder wie etwa Freihand-SPECT oder Freihand-PET Bilder verstehen, und können laut den Erfindern auch mit Ultraschallbildern registriert werden. Dieser Ansatz ist im Grunde genommen das gleiche was man in den kommerziellen Ultraschallsystemen implementiert hat, und oben diskutiert wurde. Sie erfasst die Daten sequentiell, und leidet an Problemen bei Bewegungen und Deformationen beim Patienten. Da dieses System ähnlich wie das oben genannte Freihand-SPECT-System der Gruppe um T. Wendler et al. ist, erwartet man bei einer reellen Implementierung auch nur niedrige Auflösungen und schlechten Kontrast.
  • Vor dem oben genannten Hintergrund wird ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung gemäß Anspruch 1 und ein Verfahren zur hybriden Bildgebung gemäß Anspruch 9 vorgeschlagen.
  • Kurze Beschreibung der Abbildungen
  • Im Weiteren soll die Erfindung anhand von in Figuren dargestellten Ausführungsbeispielen erläutert werden, aus denen sich weitere Vorteile und Abwandlungen ergeben.
  • stellt die Verbindungen von unterschiedlichen Bestandteilen der Erfindung gemäß einer Ausführungsform dar.
  • stellt eine Ausführung der Erfindung dar, wo das Nuklear-Nachführsystem (40) und das Ultraschall-Nachführsystem (50) ein einziges Nachführsystem sind.
  • stellt eine Ausführung der Erfindung dar, die gleich wie ist, aber eine Referenz für einen Gegenstand oder Lebewesen (81) inkorporiert.
  • zeigt eine Art und Weise, gemäß Ausführungsformen ein hybrides Bild zu produzieren.
  • zeigt eine mögliche Schrittfolge einer Datenakquise mit der Erfindung.
  • zeigt eine weitere mögliche Schrittfolge einer Datenakquise mit der Erfindung.
  • präsentiert eine kombinierte Sonde, wo Nuklear-Strahlungs-Detektor und Ultraschall-Sonde in einer Handsonde integriert sind.
  • präsentiert eine weitere kombinierte Sonde, wo Nuklear-Strahlungs-Detektor und Ultraschall-Sonde in einer Handsonde integriert sind.
  • zeigt wie man aus einem Power-Doppler-Utraschall-Bild eine Segmentierung für die Nuklear-Bild-Rekonstruktion errechnet werden kann.
  • zeigt wie man aus einem B-Modus-Utraschall-Bild eine Segmentierung für die Nuklear-Bild-Rekonstruktion errechnet werden kann.
  • zeigt eine Ausführung der Erfindung, wo alle Komponente separat sind.
  • zeigt eine weitere Ausführung der Erfindung, wo das Nuklear-Nachführsystem (40) und das Ultraschall-Nachführsystem (50) ein einziges Nachführsystem sind.
  • Bezugszeichenliste
  • 10
    kombiniertes Nuklear- und Ultraschall-System
    11
    hybrides Bild
    12
    Gebiet vom hybrides Bild wo Nuklear-Bild und Ultraschall-Signale überlappen
    20
    handgeführter Nuklearstrahlungs-Detektor
    21
    Nuklear-Detektor-Messungen
    24
    Detektor-Material vom Nuklearstrahlungs-Detektor
    25
    Elektronik vom Nuklearstrahlungs-Detektor
    26
    Abschirmung vom Nuklearstrahlungs-Detektor
    27
    Kollimator vom Nuklearstrahlungs-Detektor
    30
    handgeführte Ultraschall-Sonde
    31
    Ultraschall-Signale
    32
    Ultraschall-Emitter/Detektor
    35
    Elektronik von der Ultraschall-Sonde
    40
    Nuklear-Nachführsystem
    41
    Nuklear-Detektor-Koordinaten
    42
    Stationärer Teil vom Nuklear-Nachführsystem
    43
    Mobiler Teil vom Nuklear-Nachführsystem auf Nuklear-Detektor
    44
    Mobiler Teil vom Nuklear-Nachführsystem auf Referenz vom Lebewesen oder Gegenstand
    50
    Ultraschall-Nachführsystem
    51
    Ultraschall-Sonden-Koordinaten
    52
    Stationärer Teil vom Ultraschall-Nachführsystem
    53
    Mobiler Teil vom Ultraschall-Nachführsystem auf Ultraschall-Sonde
    54
    Mobiler Teil vom Ultraschall-Nachführsystem auf Referenz vom Lebewesen
    60
    Datenerfassungs-Modul
    61
    komplette Daten
    70
    Bildrekonstruktions-Modul
    71
    3D-Nuklear-Bild
    72
    Schwächungs-Karte oder Streu-Karte
    80
    Gegenstand oder Lebewesen
    81
    Referenz von einem Gegenstand oder Lebewesen
    90
    Ausgabesystem
    100
    chirurgisches oder interventionelles Instrument
  • Detaillierte Beschreibung der Abbildungen
  • Im Folgenden werden verschiedene Ausführungsformen der Erfindung beschrieben, von denen einige auch in den Figuren beispielhaft dargestellt sind. Bei der folgenden Beschreibung der Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder ähnliche Komponenten. Im Allgemeinen werden nur Unterschiede zwischen verschiedenen Ausführungsformen beschrieben. Hierbei können Merkmale, die als Teil einer Ausführungsform beschrieben werden, auch ohne weiteres im Zusammenhang mit anderen Ausführungsformen kombiniert werden, um noch weitere Ausführungsformen zu erzeugen.
  • In Ausführungsformen wird unter anderem ein Hybridsystem aus einem nuklearmedizinischem System und einem Ultraschallsystem vorgeschlagen, das die Vorteile der Nuklearmedizin (funktionelle Diagnostik vor Allem von Tumorherden, Möglichkeit zur flexiblen und individuellen Handhabung über handgeführte Detektoren, keine Magnetfelder und damit Nutzung von sensitiven elektronischen Peripheriesystemen) und des Ultraschall (exzellenter Weichteilkontrast, sehr hohe Ortsauflösung, Flexibilität, niedrige Kosten) auf einem gemeinsamen System vereinigt. Beide Bildmodalitäten können in einer gemeinsamen Datenakquise aufgenommen werden, und verbunden werden, und somit die Möglichkeit für eine Kompensation von Bewegung und Deformation geschaffen.
  • Bei dem vorgeschlagenen System und Verfahren gemäß Ausführungsformen handelt es sich um die Kombination von einem Freihand-nuklearmedizinischen System und einem Ultraschallsystem, die ein gemeinsames Referenzsystem verwenden. Dafür werden ein Nuklear-Strahlungs-Detektor und eine Ultraschall-Sonde funktionell verbunden, wobei die Position und Orientierung des Nuklear-Strahlungs-Detektors und der Ultraschall-Sonde durch jeweils ein Positionierungs-System in Echtzeit erfasst werden. Aus den Messungen (erfasste Strahlung und Ultraschall-Signale) beider Systeme und die Information der Position und Orientierung des Strahlungs-Detektors und der Ultraschall-Sonde zu der gemeinsamen Referenz werden 3D tomographische Bilder der Strahlungsverteilung in einem Lebewesen oder Gegenstand generiert. Diese Bilder werden des Weiteren mit den Ultraschall-Signalen gemeinsam in Form von einem hybriden Bild visualisiert.
  • Eine Kombination von Nukleardetektion und Ultraschalldetektion, wie oben skizziert, ermöglicht Funktionsdaten (wie etwa Freihand SPECT oder Freihand PET Bilder) und anatomische Bilder (wie etwa generiert aus den Ultraschallsignalen) gemeinsam und in Echtzeit oder quasi-Echtzeit zu akquirieren, rekonstruieren und visualisieren. Mit solch einem System kann man die Datenakquise und Visualisierung in einem Schritt machen, d.h. man kann die Bilder der unterschiedlichen Modalitäten gemeinsam innerhalb wenigen Sekunden voneinander aufnehmen, oder sogar gleichzeitig, wenn man Ultraschall-Sonde und Nuklear-Strahlungs-Detektor gleichzeitig benutzt werden oder wenn beide in einer Sonde integriert sind. Des Weiteren ist zu erwarten, dass die Kosten der Implementierung eines solchen Systems deutlich niedriger sind, als die Kosten eines PET/CT, SPECT/CT oder MR/PET.
  • Im Zusammenhang dieser Erfindung wird ein Bild verstanden, dass für mindestens ein Bildsegment Information der Verteilung von einer nuklearen Quelle und Information eines Ultraschalls als Funktion von der Position beinhaltet. D.h. eine Zuordnung H(x,y,z), bei welcher in einem Gebiet im Raum für Koordinaten x,y,z beides H mindestens zwei Werte angibt, und zwar eine Radioaktivitätsdichte und eine Echogenität (Wert von einem Ultrasschallbild) angibt.
  • In sind die Verbindungen der unterschiedlichen Bestandteile von Ausführungsformen der Erfindung graphisch dargestellt. Der Nuklear-Detektor (20) detektiert Strahlung die in Form von Nuklear-Detektor-Messungen (21) an den Datenerfassungs-Modul (60) geschickt werden. Diese Detektor-Messungen können einzelne Strahlungs-Werte wie etwa beim Fall, dass der Strahlungs-Detektor eine Gamma-Sonde ist. In diesem Fall sind die einzelne Strahlungs-Werte alle Gamma-Photonen innerhalb eines Energiefensters in einem Zeitintervall von einer Sekunde, d.h. die sogenannte Zählrate (engl. „counts per second“ oder CPS). Die Detektor-Messungen können aber auch 2D Bilder sein, wie etwa im Falle, dass der Nuklear-Strahlungs-Detektor eine handgeführte Gamma-Kamera ist. Die Gamma-Kamera-Bilder würden die Zählrate von jedem Pixel der Kamera angeben.
  • Die Position und Orientierung vom Nuklear-Detektor (20), d.h. die Nuklear-Detektor-Koordinaten (41) werden von dem Nuklear-Nachführsystem (40) erfasst. Diese sind üblicherweise ein Vektor mit einer 3D Position und 3 Euler-Winkel. Alternativ kann man auch ein 4D Quaternion um die 3 Euler-Winkel nummerisch stabiler darzustellen.
  • Beide, die Detektor-Messungen (21) und Nuklear-Detektor-Koordinaten (41) werden vom Datenerfassungs-Modul (60) erfasst. In einer Ausführung der Erfindung kann das Datenerfassungs-Modul (60) diese Daten synchronisieren. Somit kann jeder Detektor-Messung eine Nuklear-Detektor-Koordinate zugeordnet werden. Eine mögliche Implementierung diesem ist die Benutzung von Tabellen, wo alle erfassten Daten gespeichert werden und dann Zuordnungs-Algorithmen, jeder Detektor-Messung die am Nächsten liegende Nuklear-Detektor-Koordinate zuordnet.
  • Die Nuklear-Detektor-Messungen (21) und Nuklear-Detektor-Koordinaten (41) können in einer weiteren Ausführung der Erfindung durch eigenen Zeitstempeln einer gemeinsamen Uhr, von eigenen Uhren mit bekannten Zeitunterschieden oder nach Annahme einer bekannten Übertragungsverzögerung zu einander zugeordnet werden. Alternativ können diese Daten in einem sogenannten Ring-Buffer mit den eigenen Zeitstempeln oder neue Zeitstempeln. die vom Datenerfassungs-Modul (60) gegeben werden, gespeichert werden und bei Bedarf zugeordnet werden. Das „Ring“ im Nahmen kommt aus der Tatsache, dass alte Messungen ab einem bestimmten Zeitpunkt überschrieben werden.
  • Eine weitere Ausführung der Erfindung kann Interpolations-Algorithmen, wie etwa lineare Interpolations-Algorithmen oder kubische Interpolations-Algorithmen oder Filter in der Zeit Domäne, wie etwa Kalman Filter oder Partikel-Filter, für eine bessere Zuordnung von Detektor-Messungen (21) und Nuklear-Detektor-Koordinaten (41) benutzen.
  • Auf der Seite vom Ultraschall, liefert die Ultraschallsonde (30) Ultraschall-Signale (31) wie etwa lineare Messungen (A-Modus-Ultraschall), 2D Bilder (B-Modus-Ultraschall), 2D Doppler-Bilder (normales Doppler, Power-Doppler, etc), Elastographie-Bilder oder 3D Bilder, u.a.
  • Die Position und Orientierung von der Ultraschallsonde (30) wird auch von einem Nachführsystem erfasst, und zwar das Ultraschall-Nachführsystem (50).
  • Die Ultraschall-Signale (31) und die Ultraschall-Sonden-Koordinaten (51) werden auch zum Datenerfassungs-Modul (60) geschickt und können in einer Ausführung der Erfindung mit den Nuklear-Detektor-Messungen (21) und den Nuklear-Detektor-Koordinaten (41) synchronisiert werden.
  • In einer weiteren Ausführungsform kann das Datenerfassungs-Modul (60) alle Daten die vom Datenerfassungs-Modul (60), diese Daten zusammen als „komplette Daten“ (61) bezeichnet, vorbearbeiten, wie etwa durch der Benutzung von Filtern, um eindeutige „Outliers“ oder unterschiedliche bekannte Rauschsignale aus den kompletten Daten (61) zu beseitigen.
  • Die kompletten Daten (61), ob vorverarbeitet, synchronisiert oder unberührt, werden dann zum Bildrekonstruktions-Modul (70) geschickt. Dieses Modul hat mehrere Aufgaben:
    • 1. Es muss ein Volumen für die Bildrekonstruktion bestimmen. Dieses kann vorbestimmt sein, aber kann auch aus den Nuklear-Detektor-Koordinaten (41) und den Ultraschall-Sonden-Koordinaten (51) berechnet werden, indem man akkumuliert welche 3D Positionen am häufigsten von dem Nuklear-Detektor (20) und/oder der Ultraschall-Sonde (30) erfasst wurden. Dafür ist eine Kalibrierung der beiden Handteile nötig, um zuordnen zu können, wo das Gesichtsfeld der beiden Handteile sich befinde jeweils relativ zu den Elementen die von den jeweiligen Nachführsystemen erfasst werden. Weitere Methoden das Volumen für die Bildrekonstruktion zu berechnen können in der deutschen Anmeldung 102011053708.2 von einem der Erfinder dieser Erfindung gefunden werden.
    • 2. Es muss die Information in den Ultraschall-Signalen (31) und den Ultraschall-Sonden-Koordinaten (51) benutzen, z.B. in einer Ausführung um eine Schwächungs-Karte zu bestimmen. Eine Schwächungs-Karte kann später bei der Bildrekonstruktion benutzt werden. Das Bildrekonstruktions-Modul (70) kann in einer anderen Ausführung auch aus n Ultraschall-Signalen (31) und den Ultraschall-Sonden-Koordinaten (51) eine Streuungs-Karte berechnen. Andere Aufgaben von dem Bildrekonstruktions-Modul (70) können die Segmentierung von Organen oder Teile davon, die Kompensation von Bewegungen, usw.
    • 3. Es muss dann ein Nuklear-Bild (71) aus den Nuklear-Detektor-Messungen (21) und den Nuklear-Detektor-Koordinaten (41) in Betracht der aus den Ultraschall-Signalen (31) und Ultraschall-Sonden-Koordinaten (51) gewonnen Information rekonstruieren (wie etwa Schwächungs-Karten, Streuungs-Karten, Segmentierung von Organen, geschätzte Bewegungen und/oder Deformationen, etc.). Zum Errechnen des Nuklear-Bildes (71) kann das Nuklear-Bildrekonstruktionsmodul (70) übliche Methoden der Bildrekonstruktion benutzen, wie etwa iterative Bildrekonstruktions-Methoden. Eine Vorbearbeitung der Eingangsdaten oder eine Nachbearbeitung der rekonstruierten Bilddaten können auch im Nuklear-Bildrekonstruktionsmodul (70) implementiert werden. Beispiele solcher Vorbearbeitungsmethoden sind Plausibilitätsmethoden, die nicht plausible Messungen detektieren, Filtermethoden, die potentielle Rauschen in den Aufnahmen glätten, Informations-Berechnungsmethoden, die das Gebiet berechnen, wo das Errechnen des Nuklear-Bilds hinreichende Information hat, etc. Details wie eine solches Nuklear-Bild errechnet werden kann und wie solche Filter angewendet werden können, kann man in der deutschen Anmeldungen 102008025151 von einer Subgruppe der Erfinder dieser Erfindung finden. Weitere Details sind auch in der deutschen Anmeldung 102011053708.2 von eins der Erfinder dieser Erfindung.
  • zeigt Ausführungsformen der Erfindung, bei denen das Nuklear-Nachführungs-System (40) und das Ultraschall-Nachführungs-System (50) das gleiche System sind.
  • Hier ist das Nuklearstrahlungs-Detektor (20) eine konventionelle Gamma-Sonde, die Gamma-Strahlung im Energiebereich 27–364 keV erfasst und eine laterale Abschirmung hat, so dass im Grunde genommen, nur Strahlung die aus einem engen Kegel in Richtung der Hauptachse der Gamma-Sonde gemessen wird. Die Nuklear-Messungen sind Zählraten in CPS.
  • Der Nuklearstrahlungs-Detektor (20) wird durch ein optisches passives Lokalisationssystem nachverfolgt, hier die Ausführung des Nuklear-Nachführsystems (40). Das Nuklear-Nachführsystem (40) besteht aus einem stationären Nachführsystem-Teil (42), hier z.B. zwei Infrarotkameras mit synchronisierten Infrarot-LEDs und einem beweglichen Nachführsystem-Teil, hier z.B. Infrarot-Reflektoren auf dem Nuklear-Detektor (43) und auf der Ultraschall-Sonde (54).
  • Diese Abbildung zeigt relativ klar, wie die unterschiedlichen Koordinaten in einem gemeinsamen Koordinaten-System, das Koordinaten-System des hybriden-Bildes konvertiert werden. Durch Kalibration oder aus mechanischen Zeichnungen kann man die Transformation (z.B. eine 4×4 Transformationsmatrix, wenn man homogene Koordinaten benutzt) von den Infrarot-Reflektoren auf dem Nuklear-Detektor (43) zum Detektor-Material vom Nuklearstrahlungs-Detektor (24) bestimmen – Transformation T1.
  • Die Transformation vom Nuklear-Nachführungs-System (40) zu den Infrarot-Reflektoren auf dem Nuklear-Detektor (43) – Transformation T2 – wird in Echtzeit vom Nuklear-Nachführungs-System (40) bestimmt.
  • Ähnlich wie beim Nuklear-Detektor (20) wird vom Nuklear-Nachführungs-System (40), das in dieser Ausführung gleich mit zum Ultraschall-Nachführungs-System (50) ist, auch die Ultraschall-Sonde (30) nachgeführt. Dafür wird diese mit Infrarot-Reflektoren (54) aufgerüstet. Somit kann auch die Transformation T3 – vom Nuklear-Nachführungs-System (40) zu den Infrarot-Reflektoren auf der Ultraschall-Sonde (44) bestimmt werden.
  • Durch Ultraschall-Kalibrations-Methoden wie etwa eine „Single-Wall-Calibration“ oder eine Raster-basierte Kalibrierung kann die Transformation von den Infrarot-Reflektoren auf der Ultraschall-Sonde (54) zur Ebene vom Ultraschall-Bild (das Ultraschall-Signal (31) in dieser Ausführung) bestimmen – Transformation T4.
  • Somit kann man die Nuklear-Detektor-Messungen (21) und die Ultraschall-Signale (31) in einem beliebigen gemeinsamen Koordinaten-System konvertieren. Dort können sie dann benutzt werden, um ein hybrides Bild zu rekonstruieren.
  • zeigt eine Ausführungsform der Erfindung wie in mit dem Unterschied, dass man eine Referenz für den Gegenstand oder Lebewesen (81) benutzt wird. Diese Referenz wird vom gemeinsamen Nachführsystem nachgeführt, so dass die Transformation vom Nuklear-Nachführungs-System (40) zu den Infrarot-Reflektoren auf der Referenz für den Gegenstand oder Lebewesen (45) – Transformation T5 – vom Nachführsystem bestimmt wird.
  • Durch Kalibration oder Algorithmen zum Berechnen des Volumens, wo das hybride Bild rekonstruiert wird (wie etwa in der Beschreibung von ) kann auch T6 bestimmt werden. Somit können die kompletten Daten (61) in einem gemeinsamen Koordinaten-System konvertiert werden.
  • Die Benutzung von einer Referenz für den Gegenstand oder Lebewesen (81) bringt mit sich Vorteile. Z.B. kann sich der Gegenstand oder Lebewesen (80) sich rigid bewegen, ohne dass neue Daten aufgenommen werden müssen. Des Weiteren kann sich das Nachführ-System auch bewegen ohne die Validität der bisherig erfassten Daten zu verlieren.
  • zeigt eine Art und Weise, gemäß Ausführungsformen aus einem rekonstruierten 3D Nuklear-Bild (71) und ein 2D Ultraschall-Bild ein hybrides Bild zu generieren. In dieser Ausführung wird das 3D Nuklear-Bild (71) und ein Ultraschall-Bild (hier die Ausführung der Ultraschall-Signale (31)) in gleichen Koordinaten konvertiert. Die Ebene des Ultraschall-Bildes wird dann mit dem Volumen des 3D-Nuklear-Bildes geschnitten. Aus der Intersektion des Nuklear-Bildes und der Ultraschall-Signale (12) wird ein 2D-Nuklear-Bild generiert, dass dann auf dem Ultraschall-Bild überlagert werden kann. Das resultierende Bild ist somit ein 2D-Ultraschall-Bild (z.B. in grauen Farben) auf welchem im Bereich der Intersektion des Nuklear-Bildes und der Ultraschall-Signale (12) farblich die Radioaktivität-Verteilung des 3D-Nuklear-Bild (71) überlagert wird.
  • zeigt eine Schrittfolge wie Ausführungsformen der Erfindung benutzt werden können. In einem ersten Schritt wird durch bewegen der Ultraschall-Sonde (30) eine Ultraschall-Aufnahme gemacht. Anschließend, ohne das Lebewesen oder Gegenstand (80) zu bewegen, wird in dieser Ausführung den Nuklear-Detektor bewegt und werden Nuklear-Detektor-Messungen aufgenommen. In dieser Ausführung ist der Nuklear-Detektor ein Detektor, der Strahlung im Energiebereich 27–364 keV erfasst, so dass man bei der resultierende Nuklear-Bildgebung von Freihand SPECT sprechen kann. Bevor die Nuklear-Detektor-Messungen weiter benutzt werden, wird in der vorgeschlagenen Schrittfolge eine zweite Ultraschall-Aufnahme gemacht. Sie dient dazu Deformationen und Bewegungen des Lebewesens oder Gegenstandes (80) zu detektieren und entsprechend dieser können die Nuklear-Detektor-Koordinaten angepasst werden, um diese Deformation und Bewegungen zu kompensieren. Am Ende der Schrittfolge wird ein 3D-Nuklear-Bild (71) mit der Information der Deformation und Bewegung rekonstruiert und anschließend werden die Ultraschall-Signale und das 3D-Nuklear-Bild fusioniert dargestellt.
  • zeigt eine weitere Schrittfolge, wo im Kontrast zu der Schrittfolge von , die Ultraschall-Aufnahme und die Freihand-SPECT-Aufnahme parallel laufen. Dies ist möglich, wenn man den Nuklear-Detektor (20) und Ultraschall-Sonde (30) entweder gleichzeitig bewegt, oder sie mechanisch koppelt. Zwei mögliche Implementierungen dieser mechanischen Koppelung sind in und 8 zu sehen.
  • zeigt ein mechanisch gekoppeltes Nuklear-Detektor-Ultraschall-Sonde-Paar gemäß Ausführungsformen. In einem Gehäuse werden an der einen Seite Ultraschall-Emitter/Detektoren (32), wie etwa piezoelektrische Kristalle angelegt. Diese können Ultraschall-Bilder im Zusammenhang mit einer Ultraschall-Elektronik (35) und einer Rechnereinheit (nicht in der Abbildung) generieren. Hinter der Ultraschall-Emitter/Detektoren (32) wird ein Kollimator (27) eingebaut, die nur Nuklear-Strahlung von einer Richtung in das Detektor-Material vom Nuklearstrahlungs-Detektor (24) durchlässt. Seitenabschirmung wird durch eine Abschirmung vom Nuklearstrahlungs-Detektor (26) erreicht. Die Nuklear-Strahlung die bis zum Detektor-Material (24) kommt wird dann detektiert und das resultierende Signal von der Elektronik vom Nuklearstrahlungs-Detektor (26) in Nuklear-Detektor-Messungen (21) bearbeitet.
  • zeigt eine weitere Ausführungsform von einem mechanisch gekoppelten Nuklear-Detektor-Ultraschall-Sonde-Paar. Hier ist das Gehäuse viel kleiner als in der Ausführung von . Der Nuklear-Detektor (20) ist sogar ein „0D“ Detektor. Die Ultraschall-Sonde (30) besteht hier aus einem Ring von Ultraschall-Emitter/Detektoren, die um den Kollimator (27) und dem Material des Nuklear-Detektors (24) platziert sind.
  • zeigt wie man Information aus einem Ultraschall-Signal (31), hier ein Power-Doppler-Ultraschall-Bild, gemäß Ausführungsformen gewinnen kann, die dann in der Bildrekonstruktion benutzt werden kann. Die Information ist hier eine Segmentierung von Gebieten wo Blut sich befindet (72a) und wo Weichgewebe sind befindet (72b). Diese Information kann als a priori Information in der Bildrekonstruktion benutzt werden. Details wie man a priori Information in der Bildrekonstruktion einfließen kann, sind in der deutschen Anmeldung 102008025151 von einer Subgruppe der Erfinder dieser Erfindung und in der deutschen Anmeldung 102011053708.2 von einem der Erfinder dieser Erfindung gefunden werden.
  • zeigt, wie man andere Information gemäß Ausführungsformen aus einem Ultraschall-Signal (31), hier ein B-Modus-Ultraschall-Bild, gewinnen kann. In diesem Fall wird das B-Modus-Ultraschall-Bild bearbeitet und durch passende „Look-up-tables“ die Echogenität zu Röntgenschwächung zuordnen zu einer Schwächungs-Karte konvertiert. Es resultieren somit unterschiedliche Regionen (72a, 72b, 72c, 72d) mit unterschiedlichen Schwächungen. Diese Schwächungskarte kann dann in der Bildrekonstruktion benutzt werden. Details wie man Schwächungs-Karten in der Bildrekonstruktion einfließen kann, sind in der deutschen Anmeldung 102008025151 von einer Subgruppe der Erfinder dieser Erfindung und in der deutschen Anmeldung 102011053708.2 von einem der Erfinder dieser Erfindung gefunden werden.
  • zeigt praktische Implementierungen von Ausführungsformen der Erfindung. Ein Nuklear-Detektor (20), hier eine kabellose Gamma-Sonde, schickt Nuklear-Detektor-Messungen (21) an das Datenerfassungs-Modul (60), dass hier in 2 aufgeteilt ist (60a und 60b). Des Weiteren erfasst das Nuklear-Nachführ-System (40) mittels eines optischen Kamera-System (42) und passiven Reflektoren auf dem Nuklear-Detekor (43) und auf der Referenz vom Gegenstand oder Lebewesen (44) die Nuklear-Detektor-Koordinaten und Referenz-Koordinaten. Ein elektromagnetisches Nachführ-System, hier das Ultraschall-Nachführ-System (50), besteht aus einem Feldgenerator (52) und elektromagnetischen Sensoren auf der Ultraschall-Sonde (53) und der Referenz vom Gegenstand oder Lebewesen (54). Die Ultraschall-Signale (31), sowie die Ultraschall-Sonde-Koordinaten (51) und Referenz-Koordinaten werden vom Daten-Erfassungs-Modul (60) erfasst. Die kompletten Daten werden dann am Rekonstruktions-Modul (70) geschickt und nach der Bildrekonstruktion an der Anzeige (90) dem Benutzer angezeigt.
  • zeigt eine vereinfachte Variante vom System von . Hier ist der Nuklear-Detektor (20) eine handgeführte Gamma-Kamera die keine Störeffekte auf das elektromagnetische Nachführ-System hat und somit von diesem nachgeführt werden kann. Das Nuklear-Nachführ-System (40) und das Ultraschall-Nachführ-System (50) sind in dieser Ausführung nur eins.
  • Gemäß Ausführungsformen wird ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung (10) vorgeschlagen. Es umfasst
    • – einen handgeführter Nuklearstrahlungs-Detektor (20),
    • – eine handgeführte Ultraschall-Sonde (30),
    • – ein Nuklear-Nachführsystem (40) zum Nachführen des Nuklearstrahlungs-Detektors (20) während des Messens einer Nuklearstrahlung und zum Erhalten von Nuklearstrahlungs-Detektor-Koordinaten, die eine Position des nachgeführten Nuklearstrahlungs-Detektors in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren,
    • – ein Ultraschall-Nachführsystem (50) zum Nachführen der Ultraschall-Sonde (30) während der Aufnahme von Ultraschall-Signalen, so dass Ultraschall-Sonden-Koordinaten erhalten werden, die eine Position der nachgeführten Ultraschall-Sonde in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren, und
    • – ein Datenerfassungs-Modul (60), das Nuklearstrahlungs-Detektor-Messungen, Nuklearstrahlungs-Detektor-Koordinaten, die Ultraschall-Signale vom Ultraschall-System (50), und Ultraschall-Sonden-Koordinaten erfasst und mit einem Bildkoordinatensystem eines hybriden Bilds zusammenbringt, und
    • – ein Nuklear-Bildrekonstruktionsmodul (70) zum Rekonstruieren eines Nuklear-Bildes aus Nuklearstrahlungs-Detektor-Messungen, Ultraschall-Signalen, Nuklearstrahlungs-Detektor-Koordinaten und Ultraschall-Signal-Koordinaten in dem Bildkoordinatensystem eines hybriden Bildes.
  • Gemäß Ausführungsformen können das Nuklear-Nachführsystem (40) und das Ultraschall-Nachführsystem (50) Teil des gleichen Nachführsystems sein.
  • Gemäß Ausführungsformen sind der Nuklearstrahlungs-Detektor (20) und die Ultraschall-Sonde (30) in einer Handsonde integriert.
  • Gemäß Ausführungsformen ist das Nuklear-Nachführsystem (40) und das Ultraschall-Nachführsystem (50) jeweils ausgewählt sind aus der Gruppe bestehend aus:
    • – optischen passiven Lokalisationssystemen,
    • – optischen aktiven Lokalisationssystemen,
    • – elektromagnetischen Lokalisationssystemen,
    • – mechanischen Lokalisationssystemen,
    • – Beschleunigungssensor- oder Gyroskop- basierten Lokalisationssystemen,
    • – Schall- oder Ultraschalllokalisationssystemen,
    • – radioaktiven Lokalisationssystemen,
    • – RF-basierten Trackingsystemen, oder
    • – einer Kombination mehrerer dieser Lokalisationssysteme.
  • Gemäß Ausführungsformen kann ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung (10) weiter umfassen ein Referenzelement (81), das an einem Gegenstand oder Lebewesen (80) fixiert ist, und/oder an einem anderen Element fixiert ist, welches relativ zu dem Gegenstand oder Lebewesen (80) fixiert ist, wobei das Referenzelement (81) vom Nuklear-Nachführsystem (40) und vom Ultraschall-Nachführsystem (50) nachgeführt werden.
  • Gemäß Ausführungsformen kann ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung (10) weiter ein Auswertesystem umfassen, welches eine Soll-Position und Orientierung des Nuklearstrahlungs-Detektors (20) berechnet aus mindestens einem Nuklear-Bild-Qualitätswert, der aus vorherigen Nuklearstrahlungs-Detektor-Messungen und Nuklearstrahlungs-Detektor-Koordinaten kontinuierlich berechnet wird, und ein Ausgabesystem (90) zum Ausgeben einer Anweisung zum Bewegen des Nuklearstrahlungs-Detektors an die Soll-Position und Orientierung an einen Benutzer und/oder Roboter.
  • Gemäß Ausführungsformen kann ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung (10) weiter umfassen: eine Schnittstelle zum Empfangen von:
    • – Daten zur Oberfläche des abzubildenden Gegenstands oder Lebewesens (80),
    • – Daten zur Gewichtsverteilung des abzubildenden Gegenstands oder Lebewesens (80), oder
    • – A-priori-Bildinformationen des Gegenstands oder Lebewesens (80).
  • Gemäß Ausführungsformen kann ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung (10) weiter ein chirurgisches oder interventionelles Instrument (100) umfassen, das vom Nuklear-Nachführsystem (40), vom Ultraschall-Nachführsystem (50), oder von beiden Nachführsystemen nachgeführt wird.
  • Ausführungsformen betreffen ein Verfahren zur hybriden Bildgebung, umfassend:
    • – die Detektion von nuklearer Strahlung,
    • – das Nachführen eines Nuklearstrahlungs-Detektors (20) während des Messens einer nuklearen Strahlung, so dass Nuklearstrahlungs-Detektor-Koordinaten erhalten werden, die eine Position des nachgeführten Nuklearstrahlungs-Detektors in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren,
    • – die Aufnahme von Ultraschall-Signalen,
    • – das Nachführen der Ultraschall-Sonde (30) während der Aufnahme von Ultraschall-Signalen, so dass Ultraschall-Signal-Koordinaten erhalten werden, die eine Position der nachgeführten Ultraschall-Sonde in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren,
    • – die Erfassung von Nuklearstrahlungs-Detektor-Messungen, den Nuklearstrahlungs-Detektor-Koordinaten, Ultraschall-Signale und den Ultraschall-Signal-Koordinaten, und Zusammenbringen mit dem Bildkoordinatensystem des hybriden Bildes, und
    • – die Rekonstruktion eines Nuklear-Bildes aus Nuklearstrahlungs-Detektor-Messungen, Ultraschall-Signalen, Nuklearstrahlungs-Detektor-Koordinaten und Ultraschall-Sonden-Koordinaten in dem Bildkoordinatensystem eines hybriden Bildes.
  • Gemäß Ausführungsformen kann das Verfahren zur hybriden Bildgebung weiter umfassen: das Berechnen der Soll-Position und Orientierung des Nuklearstrahlungs-Detektors und das nachfolgende Ausgeben einer Anweisung zum Bewegen des Nuklearstrahlungs-Detektors an die Soll-Position und Orientierung an einen Benutzer oder Roboter.
  • Gemäß Ausführungsformen kann das Verfahren zur hybriden Bildgebung weiter die Benutzung von Information mindestens einer der folgenden zur Rekonstruktion eines Nuklearbilds umfassen:
    • – der Position der Referenz (80),
    • – der Oberfläche des abzubildenden Gegenstands oder Lebewesens (80),
    • – der Gewichtsverteilung des abzubildenden Gegenstands oder Lebewesens (80), oder
    • – der a-priori-Bildinformation des Gegenstands oder Lebewesens (80). in der Berechnung des dreidimensionalen Nuklearbildes.
  • Gemäß Ausführungsformen kann das Verfahren zur hybriden Bildgebung weiter umfassen: das Nachführen eines chirurgischen oder interventionellen Instruments (100).
  • Gemäß Ausführungsformen kann das Verfahren zur hybriden Bildgebung weiter umfassen: das Darstellen der Relation zwischen dem chirurgischen oder interventionellen Instrument, und dem hybriden Bild, oder das Navigieren des chirurgischen oder interventionellen Instrumenten (100) zu einer Stelle in dem hybriden Bild.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6455856 [0008]
    • EP 2104919 A2 [0014]
    • US 6512943 [0019]
    • US 6628984 [0020]
    • DE 102011053708 [0049, 0049, 0066, 0067]
    • DE 102008025151 [0049, 0066, 0067]
  • Zitierte Nicht-Patentliteratur
    • T. Wendler, A. Hartl, T. Lasser, J. Traub, F. Daghighian, S. I. Ziegler, N. Navab; Towards intra-operative 3D nuclear imaging: reconstruction of 3D radioactive distributions using tracked gamma probes; Proceedings of Medical Image Computing and Computer-Assisted Intervention (MICCAI 2007), Brisbane, Australia, October 29 – November 2 2007, LCNS 4792 (2), pp. 252–260 [0016]
    • T. Wendler, K. Herrmann, A. Schnelzer, T. Lasser, J. Traub, O. Kutter, A. Ehlerding, K. Scheidhauer, T. Schuster, M. Kiechle, M. Schwaiger, N. Navab, S. I. Ziegler, A. K. Buck; First demonstration of 3-D lymphatic mapping in breast cancer using freehand SPECT; European Journal of Nuclear Medicine and Molecular Imaging, Springer Berlin/Heidelberg, 2010 Aug;37(8):1452–61 [0016]
    • T. Wendler, T. Lasser, J. Traub, S. I. Ziegler, N. Navab; Freehand SPECT / ultrasound fusion for hybrid image-guided resection; Proceedings of Annual Congress of the European Association of of Nuclear Medicine – EANM 2009, Barcelona, Spain, October 2009 [0017]
    • T. Wendler et al. [0020]

Claims (13)

  1. Ein kombiniertes Nuklear- und Ultraschall-System zur hybriden Bildgebung (10), umfassend: – ein handgeführter Nuklearstrahlungs-Detektor (20), – eine handgeführte Ultraschall-Sonde (30), – ein Nuklear-Nachführsystem (40) zum Nachführen des Nuklearstrahlungs-Detektors (20) während des Messens einer Nuklearstrahlung und zum Erhalten von Nuklearstrahlungs-Detektor-Koordinaten, die eine Position des nachgeführten Nuklearstrahlungs-Detektors in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren, – ein Ultraschall-Nachführsystem (50) zum Nachführen der Ultraschall-Sonde (30) während der Aufnahme von Ultraschall-Signalen, so dass Ultraschall-Sonden-Koordinaten erhalten werden, die eine Position der nachgeführten Ultraschall-Sonde in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren, und – ein Datenerfassungs-Modul (60), das Nuklearstrahlungs-Detektor-Messungen, Nuklearstrahlungs-Detektor-Koordinaten, die Ultraschall-Signale vom Ultraschall-System (50), und Ultraschall-Sonden-Koordinaten erfasst und mit einem Bildkoordinatensystem eines hybriden Bilds zusammenbringt, und – ein Nuklear-Bildrekonstruktionsmodul (70) zum Rekonstruieren eines Nuklear-Bildes aus Nuklearstrahlungs-Detektor-Messungen, Ultraschall-Signalen, Nuklearstrahlungs-Detektor-Koordinaten und Ultraschall-Signal-Koordinaten in dem Bildkoordinatensystem eines hybriden Bildes.
  2. Ein kombiniertes Nuklear- und Ultraschall-System gemaäß Anspruch 1, wobei das Nuklear-Nachführsystem (40) und das Ultraschall-Nachführsystem (50) Teil des gleichen Nachführsystems sind.
  3. Ein kombiniertes Nuklear- und Ultraschall-System gemäß einem der vorherigen Ansprüche, wobei der Nuklearstrahlungs-Detektor (20) und die Ultraschall-Sonde (30) in einer Handsonde integriert sind.
  4. Ein kombiniertes Nuklear- und Ultraschall-Systemgemäß einem der vorigen Ansprüche, wobei das Nuklear-Nachführsystem (40) und das Ultraschall-Nachführsystem (50) jeweils ausgewählt sind aus der Gruppe bestehend aus: – optischen passiven Lokalisationssystemen, – optischen aktiven Lokalisationssystemen, – elektromagnetischen Lokalisationssystemen, – mechanischen Lokalisationssystemen, – Beschleunigungssensor- oder Gyroskop- basierten Lokalisationssystemen, – Schall- oder Ultraschalllokalisationssystemen, – radioaktiven Lokalisationssystemen, – RF-basierten Trackingsystemen, oder – einer Kombination mehrerer dieser Lokalisationssysteme.
  5. Ein kombiniertes Nuklear- und Ultraschall-System gemaäß einem der vorherigen Ansprüche, weiter umfassend: – ein Referenzelement (81), das an einem Gegenstand oder Lebewesen (80) fixiert ist, und/oder – an einem anderen Element fixiert ist, welches relativ zu dem Gegenstand oder Lebewesen (80) fixiert ist, – wobei das Referenzelement (81) vom Nuklear-Nachführsystem (40) und vom Ultraschall-Nachführsystem (50) nachgeführt werden.
  6. Ein kombiniertes Nuklear- und Ultraschall-System gemäß einem der vorherigen Ansprüche, weiter umfassend – ein Auswertesystem, welches eine Soll-Position und Orientierung des Nuklearstrahlungs-Detektors (20) berechnet aus mindestens einem Nuklear-Bild-Qualitätswert, der aus vorherigen Nuklearstrahlungs-Detektor-Messungen und Nuklearstrahlungs-Detektor-Koordinaten kontinuierlich berechnet wird, und – ein Ausgabesystem (90) zum Ausgeben einer Anweisung zum Bewegen des Nuklearstrahlungs-Detektors an die Soll-Position und Orientierung an einen Benutzer und/oder Roboter.
  7. Ein kombiniertes Nuklear- und Ultraschall-System (10), gemäß einem der der vorherigen Ansprüche, weiter umfassend eine Schnittstelle zum Empfangen von: – Daten zur Oberfläche des abzubildenden Gegenstands oder Lebewesens (80), – Daten zur Gewichtsverteilung des abzubildenden Gegenstands oder Lebewesens (80), oder – a-priori-Bildinformationen des Gegenstands oder Lebewesens (80).
  8. Ein kombiniertes Nuklear- und Ultraschall-System gemäß einem der vorherigen Ansprüche, weiter umfassend ein chirurgisches oder interventionelles Instrument (100), das vom Nuklear-Nachführsystem (40), vom Ultraschall-Nachführsystem (50), oder von beiden Nachführsystemen nachgeführt wird.
  9. Ein Verfahren zur hybriden Bildgebung, umfassend – die Detektion von nuklearer Strahlung, – das Nachführen eines Nuklearstrahlungs-Detektors (20) während des Messens einer nuklearen Strahlung, so dass Nuklearstrahlungs-Detektor-Koordinaten erhalten werden, die eine Position des nachgeführten Nuklearstrahlungs-Detektors in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren, – die Aufnahme von Ultraschall-Signalen, – das Nachführen der Ultraschall-Sonde (30) während der Aufnahme von Ultraschall-Signalen, so dass Ultraschall-Signal-Koordinaten erhalten werden, die eine Position der nachgeführten Ultraschall-Sonde in Relation zu einem Bildkoordinatensystem eines hybriden Bildes repräsentieren, – die Erfassung von Nuklearstrahlungs-Detektor-Messungen, den Nuklearstrahlungs-Detektor-Koordinaten, Ultraschall-Signale und den Ultraschall-Signal-Koordinaten, und Zusammenbringen mit dem Bildkoordinatensystem des hybriden Bildes, und – die Rekonstruktion eines Nuklear-Bildes aus Nuklearstrahlungs-Detektor-Messungen, Ultraschall-Signalen, Nuklearstrahlungs-Detektor-Koordinaten und Ultraschall-Sonden-Koordinaten in dem Bildkoordinatensystem eines hybriden Bildes.
  10. Ein Verfahren zur hybriden Bildgebung gemäß Anspruch 9, weiter umfassend das Berechnen der Soll-Position und Orientierung des Nuklearstrahlungs-Detektors und das nachfolgende Ausgeben einer Anweisung zum Bewegen des Nuklearstrahlungs-Detektors an die Soll-Position und Orientierung an einen Benutzer oder Roboter.
  11. Ein Verfahren zur hybriden Bildgebung gemäß einem der Ansprüche 9 bis 10, weiter umfassend die Benutzung von Information mindestens einer der folgenden zur Rekonstruktion eines Nuklearbilds: – der Position der Referenz (80), – der Oberfläche des abzubildenden Gegenstands oder Lebewesens (80), – der Gewichtsverteilung des abzubildenden Gegenstands oder Lebewesens (80), oder – der a-priori-Bildinformation des Gegenstands oder Lebewesens (80),
  12. Ein Verfahren zur hybriden Bildgebung gemäß einem der Ansprüche 9 bis 11, weiter umfassend das Nachführen eines chirurgischen oder interventionellen Instruments (100).
  13. Ein Verfahren zur hybriden Bildgebung gemäß der einem der Ansprüche 9 bis 12, weiter umfassend das Darstellen der Relation zwischen dem chirurgischen oder interventionellen Instrument, und dem hybriden Bild oder das Navigieren des chirurgischen oder interventionellen Instrumenten (100) zu einer Stelle in dem hybriden Bild.
DE102012111386.6A 2012-11-23 2012-11-23 Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen Ceased DE102012111386A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102012111386.6A DE102012111386A1 (de) 2012-11-23 2012-11-23 Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen
EP13795492.1A EP2922471A1 (de) 2012-11-23 2013-11-25 Hybrides bildgebungssystem und verfahren für intraoperative, interventionelle und diagnostische anwendungen
US14/647,070 US20150305700A1 (en) 2012-11-23 2013-11-25 Hybrid imaging system and method for intraoperative, interventional, and diagnostic applications
PCT/EP2013/074626 WO2014080013A1 (de) 2012-11-23 2013-11-25 Hybrides bildgebungssystem und verfahren für intraoperative, interventionelle und diagnostische anwendungen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012111386.6A DE102012111386A1 (de) 2012-11-23 2012-11-23 Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen

Publications (1)

Publication Number Publication Date
DE102012111386A1 true DE102012111386A1 (de) 2014-05-28

Family

ID=49641760

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012111386.6A Ceased DE102012111386A1 (de) 2012-11-23 2012-11-23 Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen

Country Status (4)

Country Link
US (1) US20150305700A1 (de)
EP (1) EP2922471A1 (de)
DE (1) DE102012111386A1 (de)
WO (1) WO2014080013A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014108178A1 (de) * 2014-06-11 2015-12-17 Universitätsklinikum Jena Verfahren zur Bestimmung des Ursprungsortes eines Strahlungssignals in einem Messbereich und Messgerät zur simultanen Erfassung von Strahlungsereignissen zerfallender Radionuklide in dem Messbereich
WO2016012556A1 (de) * 2014-07-25 2016-01-28 Surgiceye Gmbh Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung
WO2017055435A1 (en) * 2015-09-29 2017-04-06 Institut National De La Sante Et De La Recherche Medicale (Inserm) Method for determining a property of an object and associated device
CN108992084A (zh) * 2018-09-07 2018-12-14 广东工业大学 使用ct系统与超声系统组合成像的方法及ct-超声检查设备
EP3607885A1 (de) * 2018-08-09 2020-02-12 Samsung Medison Co., Ltd. Ultraschalldiagnosevorrichtung

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108095761B (zh) 2012-03-07 2021-10-15 齐特奥股份有限公司 空间对准设备、空间对准系统及用于指导医疗过程的方法
WO2015173841A2 (en) 2014-05-16 2015-11-19 Istituto Nazionale Di Fisica Nucleare Echo-scintigraphic probe for medical applications and relevant diagnostic method
US10617401B2 (en) 2014-11-14 2020-04-14 Ziteo, Inc. Systems for localization of targets inside a body
WO2020210532A1 (en) 2019-04-09 2020-10-15 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
JP7146697B2 (ja) * 2019-06-21 2022-10-04 富士フイルム株式会社 医用画像撮影システム
CN114299072B (zh) * 2022-03-11 2022-06-07 四川大学华西医院 一种基于人工智能的解剖变异识别提示方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6455856B1 (en) 2000-06-02 2002-09-24 Koninklijke Philips Electronics N.V. Gamma camera gantry and imaging method
US6512943B1 (en) 2000-05-22 2003-01-28 Wisconsin Alumni Research Foundation Combined ultrasound-radionuclide device for percutaneous ultrasound-guided biopsy and method of use
US6628984B2 (en) 2000-04-12 2003-09-30 Pem Technologies, Inc. Hand held camera with tomographic capability
DE102008025151A1 (de) 2007-05-24 2008-12-18 Surgiceye Gmbh Bilderzeugungsapparat und -methode zur Nuklearbildgebung
EP2104919A2 (de) 2006-11-27 2009-09-30 Koninklijke Philips Electronics N.V. System und verfahren zur fusionierung von echtzeit-ultraschallbildern mit zuvor erfassten medizinischen bildern
DE102011053708A1 (de) 2011-09-16 2013-03-21 Surgiceye Gmbh Nuklearbildsystem und verfahren zum aktualisieren eines ursprünglichen nuklearbilds

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4995396A (en) 1988-12-08 1991-02-26 Olympus Optical Co., Ltd. Radioactive ray detecting endoscope
WO2004042546A1 (en) * 2002-11-04 2004-05-21 V-Target Technologies Ltd. Apparatus and methods for imaging and attenuation correction
US7750311B2 (en) * 2005-02-25 2010-07-06 Intramedical Imaging, Llc Positron emission detectors and configurations
RU2009128074A (ru) 2006-12-21 2011-01-27 Конинклейке Филипс Электроникс Н.В. (Nl) Комплексная система визуализации методом spect и ультразвуковой терапии
US8831708B2 (en) * 2011-03-15 2014-09-09 Siemens Aktiengesellschaft Multi-modal medical imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6628984B2 (en) 2000-04-12 2003-09-30 Pem Technologies, Inc. Hand held camera with tomographic capability
US6512943B1 (en) 2000-05-22 2003-01-28 Wisconsin Alumni Research Foundation Combined ultrasound-radionuclide device for percutaneous ultrasound-guided biopsy and method of use
US6455856B1 (en) 2000-06-02 2002-09-24 Koninklijke Philips Electronics N.V. Gamma camera gantry and imaging method
EP2104919A2 (de) 2006-11-27 2009-09-30 Koninklijke Philips Electronics N.V. System und verfahren zur fusionierung von echtzeit-ultraschallbildern mit zuvor erfassten medizinischen bildern
DE102008025151A1 (de) 2007-05-24 2008-12-18 Surgiceye Gmbh Bilderzeugungsapparat und -methode zur Nuklearbildgebung
DE102011053708A1 (de) 2011-09-16 2013-03-21 Surgiceye Gmbh Nuklearbildsystem und verfahren zum aktualisieren eines ursprünglichen nuklearbilds

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
T. Wendler et al.
T. Wendler, A. Hartl, T. Lasser, J. Traub, F. Daghighian, S. I. Ziegler, N. Navab; Towards intra-operative 3D nuclear imaging: reconstruction of 3D radioactive distributions using tracked gamma probes; Proceedings of Medical Image Computing and Computer-Assisted Intervention (MICCAI 2007), Brisbane, Australia, October 29 - November 2 2007, LCNS 4792 (2), pp. 252-260
T. Wendler, K. Herrmann, A. Schnelzer, T. Lasser, J. Traub, O. Kutter, A. Ehlerding, K. Scheidhauer, T. Schuster, M. Kiechle, M. Schwaiger, N. Navab, S. I. Ziegler, A. K. Buck; First demonstration of 3-D lymphatic mapping in breast cancer using freehand SPECT; European Journal of Nuclear Medicine and Molecular Imaging, Springer Berlin/Heidelberg, 2010 Aug;37(8):1452-61
T. Wendler, T. Lasser, J. Traub, S. I. Ziegler, N. Navab; Freehand SPECT / ultrasound fusion for hybrid image-guided resection; Proceedings of Annual Congress of the European Association of of Nuclear Medicine - EANM 2009, Barcelona, Spain, October 2009

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014108178A1 (de) * 2014-06-11 2015-12-17 Universitätsklinikum Jena Verfahren zur Bestimmung des Ursprungsortes eines Strahlungssignals in einem Messbereich und Messgerät zur simultanen Erfassung von Strahlungsereignissen zerfallender Radionuklide in dem Messbereich
US10524748B2 (en) 2014-06-11 2020-01-07 Universitaetsklinikum Jena Method for determining the locations of origin of radiation signals in a measurement zone, and measuring device for simultaneously detecting radiation events of decaying radionuclides in the measurement zone
WO2016012556A1 (de) * 2014-07-25 2016-01-28 Surgiceye Gmbh Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung
WO2017055435A1 (en) * 2015-09-29 2017-04-06 Institut National De La Sante Et De La Recherche Medicale (Inserm) Method for determining a property of an object and associated device
EP3607885A1 (de) * 2018-08-09 2020-02-12 Samsung Medison Co., Ltd. Ultraschalldiagnosevorrichtung
CN108992084A (zh) * 2018-09-07 2018-12-14 广东工业大学 使用ct系统与超声系统组合成像的方法及ct-超声检查设备
CN108992084B (zh) * 2018-09-07 2023-08-01 广东工业大学 使用ct系统与超声系统组合成像的方法及ct-超声检查设备

Also Published As

Publication number Publication date
EP2922471A1 (de) 2015-09-30
US20150305700A1 (en) 2015-10-29
WO2014080013A1 (de) 2014-05-30

Similar Documents

Publication Publication Date Title
DE102012111386A1 (de) Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen
EP2165215B1 (de) Bilderzeugungsapparat und -methode zur nuklearbildgebung
DE102005048892B4 (de) Vorrichtung zur Durchführung von Rotablation sowie medizinische Behandlungseinrichtung
DE102006026490B4 (de) Radiotherapievorrichtung mit Angiographie-CT-Vorrichtung
DE102005036322A1 (de) Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion
DE102005048853A1 (de) Bildgebende medizinische Modalität
DE102005053994A1 (de) Diagnosevorrichtung für kombinierte und/oder kombinierbare radiographische und nuklearmedizinische Untersuchungen sowie entsprechendes Diagnoseverfahren
DE102008030244A1 (de) Verfahren zur Unterstützung von perkutanen Interventionen
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE102012213456A1 (de) Katheter mit Ultraschallsensor und Verfahren zum Erzeugen einer Volumengrafik mittels des Katheters
DE102008002864A1 (de) Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren
DE102004030836A1 (de) Verfahren zur Bilddarstellung eines in einen sich rhythmisch oder arhythmisch bewegenden Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments, insbesondere eines Katheters
DE102007034953B4 (de) Verfahren zur Bewegungsvorgänge berücksichtigenden Aufnahme von Messdaten eines Patienten und zugehörige medizinische Einrichtung
DE102007034955A1 (de) Verfahren zur Bewegungsvorgänge berücksichtigenden Aufnahme von Messdaten eines Patienten und zugehörige medizinische Einrichtung
DE102012201798A1 (de) Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung
DE102005029270A1 (de) Katheter, Kathetereinrichtung und bildgebende Diagnosevorrichtung
DE102019201227A1 (de) Bildgebendes Gerät und Verfahren zum Erzeugen eines bewegungskompensierten Bildes oder Videos, Computerprogrammprodukt und computerlesbares Speichermedium
DE102010013498B4 (de) Verfahren zum Ermitteln von dreidimensionalen Volumendaten, Bildgebungsvorrichtung und Datenträger
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE102014205313A1 (de) Verfahren zur Registrierung einer Nahinfrarotspektroskopiekarte und eines Anatomiebilddatensatzes und Röntgeneinrichtung
DE102012217634A1 (de) Patientenlagerungsvorrichtung, medizinisches Bildgebungssystem und Verfahren zur medizinischen Bildgebung
DE102007009177B4 (de) Verfahren zu dreidimensionalen Lokalisation eines Instruments für einen interventionellen Eingriff sowie zugehörige Einrichtung
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102014210051A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers
DE102011083853B4 (de) Fusionierte SPECT/C-Bogen-Bildgebung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034000000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final