WO2016012556A1 - Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung - Google Patents

Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung Download PDF

Info

Publication number
WO2016012556A1
WO2016012556A1 PCT/EP2015/066916 EP2015066916W WO2016012556A1 WO 2016012556 A1 WO2016012556 A1 WO 2016012556A1 EP 2015066916 W EP2015066916 W EP 2015066916W WO 2016012556 A1 WO2016012556 A1 WO 2016012556A1
Authority
WO
WIPO (PCT)
Prior art keywords
detector
nuclear
camera
optical
probe
Prior art date
Application number
PCT/EP2015/066916
Other languages
English (en)
French (fr)
Inventor
Stefan Wiesner
Thomas Wendler
Jörg TRAUB
Original Assignee
Surgiceye Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Surgiceye Gmbh filed Critical Surgiceye Gmbh
Publication of WO2016012556A1 publication Critical patent/WO2016012556A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/42Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4258Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector for detecting non x-ray radiation, e.g. gamma radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules

Definitions

  • the present invention relates to an image forming apparatus and methods, particularly to a corresponding system of nuclear imaging devices or other functional detectors with ultrasound probes.
  • High quality imaging is of great interest to a wide range of applications. Particularly in the medical field, where the health of a patient may depend on it, the best possible imaging, for example, as a basis for operations on the patient is desirable.
  • medical images are either generated preoperatively, such as computed tomography (CT), magnetic resonance imaging (NMR, MR, MRI, MRI), positron emission tomography (PET), single photon emission tomography (SPECT), ultrasound (US) - or otherwise produced intraoperatively, such as by CT, MRI, ultrasound or freehand SPECT.
  • CT computed tomography
  • NMR magnetic resonance imaging
  • MR positron emission tomography
  • PET single photon emission tomography
  • US ultrasound
  • register images for example registering an anatomical image, such as a CT, MRI or ultrasound image, with a functional image, such as a PET or SPECT image, ie an image representing the spatial distribution of a function makes a body activity visible.
  • Such registered images may, for example, help in tumor surgery to decide which tissue pieces to excise from the anatomical and functional information. Desirable are as current and as possible high-quality images, as it can be avoided to damage healthy tissue or accidentally not remove accidental.
  • the fusion takes place by registering the two image types.
  • the registration can be carried out point-based, point / level-based, or image-based.
  • Functional information is generally not available in real time.
  • the tracking ie the tracking, of often hand-held freely movable nuclear probes or detectors, in particular during a surgical procedure, by tracking systems (tracking systems) for determining the position and orientation of surgical instruments and imaging devices is known.
  • tracking systems tilt systems
  • the position of the nuclear detector and the other imaging probes or detectors is generally on a external tracking system performed.
  • optical tracking markers are usually mounted on a nuclear probe or the nuclear detector, as well as on the other imaging probes, such as a single ultrasound probe, as shown in WO 2014 080013 AI.
  • the tracking system is designed as an external device that detects the position of the tracking markers via an optical image sensor, for example.
  • the data obtained are processed in a control unit and thus determines the position of the individual probes, such as in the surgical field.
  • radio-based or electromagnetic tracking methods which are implemented in the products Aurora of the company Northern Digital and DriveBAY from Ascension.
  • the object of the present invention is to provide a system and method for fused imaging that avoids the disadvantages of the known approaches.
  • a medical imaging system comprises a nuclear detector, an ultrasound probe, an optical camera, and a control unit, wherein the optical camera is mounted on one of the nuclear detector and the ultrasound probe, and the control unit is adapted to detect the position of the others detected by the optical camera Nuclear detector and the ultrasonic probe in a coordinate system that is fixed to the camera.
  • a method for medical imaging comprises providing a nuclear detector, providing an ultrasound probe, providing an optical camera, wherein the optical camera is attached to one of the nuclear detector and the ultrasound probe, providing a control unit, acquiring data of the nuclear detector, acquiring ultrasound data, taking data of the optical camera, and calculating the position of the other of the nuclear detector and the ultrasonic probe detected by the optical camera, in a coordinate system fixed to the camera, and projecting image data of the nuclear detector onto the ultrasonic image data.
  • a medical imaging system is proposed.
  • It comprises a functional detector, an ultrasound probe, an optical camera, a control unit, wherein the optical camera is mounted on one of the functional detector and the ultrasound probe, and the control unit is adapted to detect the position of the other of each detected by the optical camera the functional detector and the ultrasonic probe in a coordinate system that is fixed to the camera.
  • FIG. 1 shows a system according to embodiments
  • FIG. 2 shows another system according to embodiments
  • FIG. 3 schematically shows an example image with a system of FIG. 1 or 2;
  • FIG. 4 shows another system according to embodiments
  • FIG. 5 shows another system according to embodiments
  • FIG. 6 schematically shows a part of the image genesis with a system according to embodiments
  • FIG. 7 schematically shows a part of the image genesis for three different cases with systems according to embodiments;
  • FIG. 8 shows another system according to embodiments;
  • FIG. 9 schematically shows a part of the image genesis for systems according to embodiments.
  • FIG. 10 schematically shows another system according to FIG.
  • FIG. 11 schematically shows a further system according to FIG.
  • FIG. 12 schematically shows a further system according to FIG.
  • the term “pose” is used herein as generally known to indicate both the (3D) position of an object in space and its orientation “Real time” with respect to imaging systems according to embodiments understood that the clock rate of the generation of images (“refresh rate”) is less than or equal to 1 second, and an integration time less than or equal to 30 seconds.
  • the term “quality value” or “quality parameter”, generally referred to herein as Q, represents a parameter used in the context of this application that is capable of representing the quality of the image representations, representations, etc. discussed herein, and in computer-aided methods to be processed.
  • Q can be based on the most diverse mathematical quantities, as described in more detail below, from (non-limiting enumeration) scalars via vectors to arbitrary-dimensional matrices, vector fields or combinations of the aforementioned. Further methods for determining quality parameters Q of a computer-generated image from a nuclear probe are described in patent application 102008025151.8 approximately on pages 37 to 42, the relevant teaching of which is hereby incorporated by reference in its entirety.
  • tracking systems, probes, detectors, etc. described herein are generally connected via interfaces to at least one evaluation unit and output unit and / or to each other.
  • interfaces can be connected via wireless radio systems or by cable.
  • Embodiments generally relate to a medical imaging system. It includes at least one nuclear detector and one ultrasound probe. An optical camera is attached to the nuclear detector or the ultrasound probe. The camera detects the other probe during use of the system, that is, when the optical camera attached to the nuclear detector, the position of the ultrasonic probe is detected. When the camera is attached to the ultrasound probe, it detects the position of the nuclear detector. The data from the nuclear detector, ultrasound probe and optical camera are processed by a control unit.
  • the nuclear detector can also be multi-part, eg in the form of a PET coincidence detector.
  • embodiments are proposed in which the nuclear detector is replaced by another functional detector which functions without application of radioactive markers, but z, B. works with optical, magnetic or other methods. In this case, for example, optical or photoactive substances or magnetic substances are applied to the patient, which accumulate in the tissue to be detected by the functional detector.
  • embodiments of the invention have the following advantages.
  • a registration a fusion of anatomical ultrasound image data with functional, that is image data from the nuclear imaging can be made. This is possible without using an external, conventional tracking system.
  • the system is mobile or easy to transport and at the same time inexpensive.
  • Existing functional detectors may be retrofitted with ultrasound imaging to obtain embodiments of the invention.
  • the fused image data is available in real time, so the process is real-time capable. In embodiments with functional detectors other than nuclear detectors, as described above, this is done without the need for a radioactive load on the patient.
  • the term “nuclear detector” is used generally for detectors and detection devices used for detection the radiation of a radioactive source in or on the body of a person serve.
  • the bandwidth of the term ranges from, for example, a one-dimensional (1D) gamma probe via a 2D gamma camera to combinations of different types of detectors, which are explained in more detail below with reference to the figures.
  • the nuclear detector may also include mechanical components for holding or attaching the actual detectors or sub-detectors, such as frames or brackets, as well as about a patient table.
  • a medical imaging system 10 comprises a nuclear detector 15 and an ultrasound probe 20.
  • An optical camera 25, also referred to below as the camera 25, is attached to the ultrasound probe 20.
  • the camera 25 detects the image of the ultrasound probe 20 during use of the system 10.
  • the data of the nuclear detector 15, the ultrasound probe 20 and the optical camera 25 are processed by a control unit 30.
  • the control unit 30 carries out a 3D image recognition, which is explained in more detail below, by means of the image data supplied by the optical camera 25 and determines therefrom the relative position of the position of the nuclear detector 15. This is typically done with reference to a coordinate system originating at the Camera 25 has, about the Cartesian coordinate system shown in Fig.
  • the tissue region 110 has accumulated a previously injected the patient radioactive marker substance and lies in the detection field (dashed) of the nuclear probe 15.
  • the tissue region 109 also has an increased level of radiation, but is in Moment of the illustration in Fig. 1 not in the detection field of the nuclear probe 15th
  • the nuclear detector may be multi-part, eg (non-limiting) in the form of a PET coincidence detector.
  • the field of view of the camera 25 is typically chosen to be large enough, for example in the wide-angle range, to approximately the entire range of motion of both sub-detectors of a two-piece PET coincidence detector to capture.
  • the camera may be configured to detect only one of the sub-detectors, the position of the other or the other sub-detectors being determined purely mathematically from the known geometric relationship of the two or more sub-detectors.
  • multiple cameras may be used, each having one of the sub-detectors in view.
  • the control unit 30 calculates an image in real time from the data of the ultrasound probe and combines or merges this image with an image which the control unit 30 continuously calculates from the data of the nuclear detector 15. This fusion is carried out according to known from the prior art algorithms from the image data of the nuclear detector 15 and the ultrasound probe 20, in conjunction with the calculated spatial relationship of the above two, based on a three-dimensional image analysis explained in more detail below. Compared to conventional methods, the respective intermediate step of calculating the spatial relationship of the nuclear detector and the ultrasound probe with respect to one or more external tracking systems is eliminated since the spatial relationship of the nuclear detector and the ultrasound probe to each other is calculated directly from the image data of the optical camera.
  • the optical marker 35 can be attached to the movable SPECT sensor and detected by the optical camera 25.
  • an image recognition can be carried out, from which the position of the SPECT detector is calculated by three-dimensional image analysis, so as to determine the relative position between SPECT sensor and ultrasound probe.
  • the video-based orientation of an object can, as described above, be accomplished by means of reference markers on the object, or without such markers. Both variants use calibrated camera images, ie the focal length and the image center of the optical Camera are known.
  • reference markers for example, circular or spherical, square, monochrome or patterned markers are placed on the object to be tracked and their position on the object initially calibrated (measured). Detection algorithms then recognize the geometric patterns (circles, lines, patterns) in the camera image. From this two-dimensional (2D) information, the 3D position of the object can then be calculated.
  • 2D two-dimensional
  • Features points, lines, corners, texture patterns
  • the 3D detection algorithm correlates these features with the 3D model and thus calculates the position of the object relative to the camera 25.
  • the position of the nuclear probe 15 or the ultrasound probe 20 without the presence of optical markers 35 can be determined by the control unit 30.
  • FIG. 2 shows another medical imaging system 10 according to embodiments. This is based on the system of FIG. 1, but in addition an optical marker 35 is attached to the nuclear detector 15.
  • the image recognition by the control unit 30 can thus be carried out on the basis of the optical marking 35 identified in the image data, which preferably consists of a plurality of spatially-spaced points or markers.
  • the location information obtained from the three-dimensional image analysis as described above of the position of the optical marker 35 is used by the control unit 30 as in the example of FIG Nuclear detector 15 with respect to the ultrasonic probe 20, and to calculate the fixed thereto coordinate system.
  • the optical camera 25 may also be placed on the nuclear probe 15, respectively, and the optical marker 35 on the ultrasonic probe 20.
  • FIG. 3 shows an above-described projection of the image data 110 of the nuclear probe into the image plane 120 of the ultrasound probe calculated by the control unit 30.
  • the combined or merged image is shown by the control unit 30 on a screen 31 (see FIG. 1).
  • the dashed area represents the detection field of the nuclear probe 15, which intersects the image plane 120 in the image example of FIG.
  • FIG. 4 shows an embodiment in which a 2D gamma camera 50 is used instead of the one-dimensional (1D) nuclear detector 15 of FIGS. 1 and 2, which is typically a SPECT sensor.
  • This is rotatably arranged in the example about an axis along the patient's body P.
  • the control unit 30 can thus fuse the ultrasonic image and the data of the 2D gamma camera 50 from the image analysis of the movement of the optical marker 35.
  • FIG. 5 shows exemplary embodiments in which the nuclear detector 15 is a SPECT scanner 40.
  • the patient P lies on a table 105.
  • the optical camera 25 is (only by way of example, not necessarily) to the SPECT scanner 40 attached. It detects the optical marking 35, whereby the control unit 30 can determine the relative position between the SPECT scanner and the ultrasound probe by means of the above-described three-dimensional image analysis. It is irrelevant in which angular range the SPECT scanner 40 is located (direction or degree of freedom of movement indicated by arrows).
  • the control unit 30 can thus fuse the ultrasonic image and the data of the SPECT scanner 40 from the image analysis of the movement of the optical marking 35.
  • the SPECT scanner delivers a 1D signal that is projected from the control unit 30 to the image signal of the ultrasound probe.
  • FIG. 6 schematically shows the image signal of the 2D gamma camera 50 from FIG. 4.
  • the (as examples) three radioactively marked tissue regions 110 of the patient P are detected by the 2D gamma camera 50.
  • FIG. 7 schematically shows further examples of the fused representation of images of nuclear detectors and ultrasound probes according to exemplary embodiments.
  • Fig. 7A is a.
  • the detection field of the nuclear probe 15 (shown in phantom) intersects the ultrasound image plane 120 at the tissue region 110, which is consequently also shown after the fusion. This is symbolized by the count rate of 82 CPS (counts per second) of the nuclear detector.
  • Area 109 is drawn only for comparison and would not be shown in the fusion image.
  • the detection field of the nuclear probe does not intersect either of the two regions 109, none of which would be displayed.
  • FIG. 7B a similar situation as shown in FIG. 7A is shown, but the detection field of the nuclear probe is parallel to the image plane of the ultrasound image 120.
  • the detection field (hatched) of the nuclear probe intersects the marked area 110, resulting in the example count rate of 75 CPS.
  • the detection field does not intersect any of the Both areas 109, so they would not be shown in the fusion image (at this moment).
  • the detection field see, for example, the dashed region on the nuclear probe 15 in FIG. 1 to be inclined at an angle to the image plane Ultrasound probe runs.
  • FIG. 7C there is shown another case where the ultrasonic detection panel 120 is superimposed with the detection field of a 2D nuclear probe, left at orthogonal relationship of the ultrasonic image plane 120 and the detection field of the nuclear probe, in the right image in parallel course.
  • the radioactively marked area 110 is detected in this case, area 109 is not radioactive in the example of FIG. 7C and is therefore not detected, i. is to be regarded as "unobtrusive" in the medical sense.
  • FIG. 8 shows a basically similar construction to that shown in FIG. 4, wherein a PET coincidence detector 45 is used as the nuclear detector. This is rotatable about a longitudinal axis parallel to the patient P set up. As already described, the detection of the two sub-detectors of the PET coincidence detector 45 can be effected via the image of the camera 25 by the control unit 30 by means of the tracking of optical markers (not shown) attached to the detectors or by analysis of the detector form in the image of the camera 25 respectively.
  • Fig. 9 shows schematically the image formation in the system 10 of Fig. 8.
  • the ultrasound probe 20 detects an area of the patient P.
  • the radioactively marked area 110 in Fig. 8 lies in the area between the two sub-detectors of the PET coincidence detector 45.
  • the region 109 which is also marked is not in the detection field of the detector at the moment of the illustration of FIG.
  • the region 109 may also be represented functionally, or by methods of the detector.
  • Fig. 10 shows a structure similar to that shown in Fig. 8 according to embodiments.
  • the nuclear detector 15 is a 2D coincidence detector 60 for PET. This may also be provided with optical markers 35 as described with reference to other embodiments.
  • the image formation of the system 10 of Fig. 10 is shown schematically.
  • the detection field shown in dashed lines between the two sub-detectors of the 2D coincidence detector 60 is a radioactively marked tissue area 110.
  • the written in Fig. 9 applies.
  • a respective sensor arrangement 70 can be mounted on the ultrasound probe 20 and / or the nuclear detector 15. This serves to determine the relative position based on the sensor data by means of position sensors after an initial calibration, in which the two devices can be brought close to each other or together.
  • each sensor assembly is a combination of a gyro sensor, an SD acceleration sensor, and a geomagnetic field sensor, or a combination of any of the foregoing.
  • Each sensor assembly 70 is attached to at least one of the nuclear detector 15 and the ultrasound probe 20.
  • the sensor arrangement comprises at least one, or a combination, of a 3D gyrosensor 75, an SD accelerometer 80, and a geomagnetic sensor 85 (not shown).
  • the position data obtained in this way can be processed by the control unit 30 in addition to the relative optical position determination already described above between the nuclear detector 15 and the ultrasound probe 20. It is also possible in embodiments, with the appropriate accuracy of the sensors, only to use these for position determination, without the optical position determination.
  • the described sensor assembly 70 are also used to compensate for a short-term failure of the image of the optical camera by the data of the sensor array, such as accidental shading of the camera by a person.
  • position data about a patient P can additionally be obtained via second optical markings 36. These are mounted on the body surface and are received by the optical camera 25.
  • the position data thus obtained are processed by the control unit 30 and may be used, for example, to enrich the imaging with data on the external shape of the patient's body.
  • the mathematical integration or fusion of image data from a further imaging system can be integrated.
  • CT data and MRI data which are integrated into the fusion image of functional and anatomical data, are suitable for this purpose.
  • Medical imaging methods generally include providing a nuclear detector 15, 40, 45, 50, 60 in a block 200, providing an ultrasound probe in a block 210, providing an optical camera 25, the optical camera one of the nuclear detector and the ultrasound probe is mounted, in a block 220, providing a control unit 30 in a block 230, acquiring data of the nuclear detector in a block 240, acquiring ultrasound data in a block 250, taking data of the optical camera 25 in a block 260, calculating in a block the position of the other detected by the optical camera 25 from the nuclear detector 15, 40, 45, 50, 60 and the ultrasonic probe 20 in a coordinate system fixed to the camera 270, as well as projecting image data of the nuclear detector 15, 40, 45, 50, 60 onto the ultrasound image data in a Bl ock 280.
  • the nuclear detector included in the described embodiments may in principle also be replaced by another type of detector of a functional nature ("functional detector") in order to obtain further embodiments to dispense with the application of a radioactive marker substance or to replace it with other nonradioactive substances, eg to reduce the radiation exposure of the patient and operating personnel, eg the radioactive marker substance can be replaced by a magnetic marker substance, eg a suspension of magnetic microparticles in an injection solution.
  • this configuration can also be used to locate functional tissue areas, for example a structure enriched with the magnetic marker substance
  • a functional detector in particular a magnetic detector are replaced, where this is technically useful combined with the described examples.
  • FIGS. 1 and 2, 4 and 5 are in particular the exemplary embodiments shown in FIGS. 1 and 2, 4 and 5, in which such a magnetic sensor can replace the 1D nuclear detector and supply equivalent image information (in comparison to the nuclear detector) for further processing by the control unit 30.
  • optical detectors such as Fluorenzenzless, multispectral cameras or hand-held optical probes, where, for example, fluorescent or luminescent markers that have been previously applied to the patient can detect.

Abstract

Ein System zur medizinischen Bildgebung umfasst eine funktionellen Detektor, eine Ultraschallsonde, eine optische Kamera, und eine Kontrolleinheit, wobei die optische Kamera an einem von dem funktionellen Detektor und der Ultraschallsonde angebracht ist, und die Kontrolleinheit dazu eingerichtet ist, die Position der von der optischen Kamera erfassten jeweils anderen von der funktionellen Detektor und der Ultraschallsonde in einem Koordinatensystem zu errechnen, das ortsfest zur Kamera ist. Weiter wird ein entsprechendes Verfahren vorgeschlagen.

Description

BILDERZEUGUNGSAPPARAT UND -VERFAHREN MIT KOMBINATION VON FUNKTIONALER BILDGEBUNG UND ULTRASCHALLBILDGEBUNG
[001] Die vorliegende Erfindung bezieht sich auf eine Vorrichtung zur Bilderzeugung und Methoden zur Bilderzeugung, speziell auf ein entsprechendes System aus Nuklearbild-gebenden Geräten oder anderen funktionalen Detektoren mit Ultraschallsonden.
TECHNISCHER HINTERGRUND
[002] Qualitativ hochwertige Bilderzeugung ist von großem Interesse für einen weiten Bereich von Anwendungen. Insbesondere im medizinischen Bereich, wo die Gesundheit eines Patienten davon abhängen kann, ist eine bestmögliche Bilderzeugung beispielsweise als Basis für Operationen am Patienten wünschenswert.
[003] Für gewöhnlich werden medizinische Bilder entweder präoperativ erzeugt, wie etwa durch Computertomographie (CT), Kernspintomographie (NMR, MR, MRI, MRT), Positronen-Emissions-Tomographie (PET), Einzelphotonen-Emissions-Tomographie (SPECT), Ultraschall (US) - oder andererseits intraoperativ erzeugt, wie etwa durch CT, MRI, Ultraschall oder Freihand-SPECT. Auch ein Registrieren von Bildern ist bekannt, beispielsweise das Registrieren eines anatomischen Bildes, wie etwa eines CT-, MRI- oder Ultraschallbilds mit einem funktionellen Bild wie etwa einem PET- oder SPECT-Bild, d.h. einem Bild, das die örtliche Verteilung einer Funktion bzw. einer Körperaktivität sichtbar macht. Solche registrierten Bilder können beispielsweise bei Tumoroperationen helfen zu entscheiden, welche Gewebeteile aus der anatomischen und funktionellen Information herauszuschneiden sind. Wünschenswert sind möglichst aktuelle und hochwertige Bilder, da so vermieden werden kann, gesundes Gewebe zu schädigen oder krankes aus Versehen nicht zu entfernen.
[004] Aus dem Stand der Technik ist die Kombination von nuklearbildgebenden Verfahren mit anatomischen Bilddaten bekannt. Zu nennen sind etwa die Produkte BrightView XCT des Unternehmens Philips, bei dem Daten aus SPECT und CT kombiniert werden, oder das Siemens Biograph TruePoint zur Kombination von PET-Daten mit CT-Daten. Bei solchen Systemen ist eine Registrierung zwischen den Daten aus anatomischer Bildgebung und funktioneller (nuklearbildgebender) Bildgebung durch Nutzung der konstruktiv bedingten, bekannten geometrischen Zusammenhänge zwischen den beiden Detektortypen möglich.
[005] Bei anderen Systemen erfolgt die Fusion durch Registrierung der beiden Bildarten. Die Registrierung kann dabei Punkt-basiert, Punkt/Ebenebasiert, oder Bild-basiert durchgeführt werden. Funktionelle Informationen sind dabei generell nicht in Echtzeit verfügbar. Bekannt ist insbesondere das Tracking, also die Nachverfolgung, von oft handgehaltenen freibeweglichen Nuklearsonden bzw. -Detektoren, insbesondere während eines chirurgischen Eingriffs, durch Trackingsysteme (Nachverfolgungssysteme) zur Bestimmung der Position und Orientierung von Operationsinstrumenten und Bildgebungsgeräten. Dies ist etwa in dem Artikel von T. Oliveira-Santos et al.: "A navigation System for percutaneous needle interventions based on PET/CT images: Design, Workflow and error analysis of soft tissue and bone punctures", in: Computer Aided Surgery, 2011, Vol. 16, No. 5, Seiten 203-219 beschrieben. Realisiert ist dies etwa in dem Produkt CAS-One IR des Unternehmens Cascination.
[006] Bei der Kombination von Bildern aus funktionalen Daten von Nukleardetektoren mit anderen bildgebenden Verfahren, insbesondere Ultraschall, wird die Positionsbestimmung des Nukleardetektors und der weiteren bildgebenden Sonden oder Detektoren im allgemeinen über ein externes Trackingsystem durchgeführt. Dazu sind meist optische Tracking- Marker auf einer Nuklearsonde bzw. dem Nukleardetektor, sowie auf den weiteren bildgebenden Sonden wie etwa einer einzelnen Ultraschallsonde angebracht, wie dies in der WO 2014 080013 AI gezeigt ist. Das Trackingsystem ist dabei als externes Gerät ausgeführt, das etwa über einen optischen Bildsensor die Position der Trackingmarker detektiert. Die gewonnenen Daten werden dabei in einer Kontrolleinheit verarbeitet und so die Position der einzelnen Sonden bestimmt, etwa im Operationsfeld. Bekannt sind zudem funkgestützte bzw. elektromagnetische Trackingverfahren, die etwa in den Produkten Aurora des Unternehmens Northern Digital sowie DriveBAY von Ascension realisiert sind.
[007] Es ist zudem auch eine Kombination eines SPECT-Systems mit einem Ultraschall-System bekannt, wobei die beiden Sonden jeweils von eigenen Tracking-Systemen nachverfolgt werden. Mittels einer gemeinsamen kalibrierten Referenz wird die Transformation zwischen den Koordinatensystemen der beiden Tracking-Geräte ermittelt. Die Fusion der beiden Bildsignale kann somit registrierungsfrei erfolgen, jedoch stehen keine funktionalen Informationen in Echtzeit zur Verfügung. Dies ist etwa aus der WO 2014 080013 AI bekannt. Weitere Ansätze umfassen in Ultraschall- Sonden integrierte Gammakameras, wobei jedoch durch die Orthogonalität der Ebenen des Gamma-Kamera-Bilds und des Ultraschall-Bilds eine Fusion erschwert wird. Dies wurde etwa gezeigt in R. Pani, R. Pellegrini et al.: "Dual Modality Ultrasound-SPECT Detector for Molecular Imaging".
[008] Zudem gibt es einen Trend, funktionale Nuklearbildgebung durch weniger Patienten-belastende, alternative funktionale Bildgebung zu ersetzen, z.B. in der Tumordiagnostik.
[009] Nachteile der bekannten Ansätze sind zum Beispiel ein komplizierter Aufbau, großer Platzbedarf, hohe Kosten und eine generelle Inflexibilität in Bezug auf die Verwendung von Standard-Ultraschallsonden bzw. -geräten.
[010] Vor diesem Hintergrund ist die Aufgabe der vorliegenden Erfindung, ein System und Verfahren zur fusionierten Bildgebung bereitzustellen, das die Nachteile der bekannten Ansätze vermeidet.
ZUSAMMENFASSUNG
[011] Die oben angesprochenen Probleme werden zumindest teilweise gelöst durch Systeme zur medizinischen Bildgebung gemäß Anspruch 1 und 15, und ein Verfahren gemäß Anspruch 7. [012] In einem Ausführungsbeispiel wird ein System zur medizinischen Bildgebung vorgeschlagen. Es umfasst einen Nukleardetektor, eine Ultraschallsonde, eine optische Kamera, und eine Kontrolleinheit, wobei die optische Kamera an einem von dem Nukleardetektor und der Ultraschallsonde angebracht ist, und die Kontrolleinheit dazu eingerichtet ist, die Position der von der optischen Kamera erfassten jeweils anderen von dem Nukleardetektor und der Ultraschallsonde in einem Koordinatensystem zu errechnen, das ortsfest zur Kamera ist.
[013] In einem weiteren Ausführungsbeispiel wird ein Verfahren zur medizinischen Bildgebung vorgeschlagen. Es umfasst das Bereitstellen eines Nukleardetektors, Bereitstellen einer Ultraschallsonde, Bereitstellen einer optischen Kamera, wobei die optische Kamera an einem von dem Nukleardetektor und der Ultraschallsonde angebracht ist, das Bereitstellen einer Kontrolleinheit, Aufnehmen von Daten des Nukleardetektors, Aufnehmen von Ultraschalldaten, Aufnehmen von Daten der optischen Kamera, und das Errechnen der Position der von der optischen Kamera erfassten jeweils anderen von dem Nukleardetektor und der Ultraschallsonde, in einem Koordinatensystem, das ortsfest zur Kamera ist, sowie das Projizieren von Bilddaten des Nukleardetektors auf die Ultraschallbilddaten. [014] In einem weiteren Ausführungsbeispiel wird ein System zur medizinischen Bildgebung vorgeschlagen. Es umfasst einen funktionalen Detektor, eine Ultraschallsonde, eine optische Kamera, eine Kontrolleinheit, wobei die optische Kamera an einem von dem funktionalen Detektor und der Ultraschallsonde angebracht ist, und die Kontrolleinheit dazu eingerichtet ist, die Position des von der optischen Kamera erfassten jeweils anderen von dem funktionalen Detektor und der Ultraschallsonde in einem Koordinatensystem zu errechnen, das ortsfest zur Kamera ist.
[015] Weitere Ausführungsbeispiele betreffen ein Verfahren zur Bildgebung mittels eines Systems mit einem funktionalen Detektor.
[016] Weitere Merkmale, Aspekte und Details, die mit hier beschriebenen Ausführungsformen kombiniert werden können, werden in den abhängigen Ansprüchen, der Beschreibung und den Abbildungen offenbart.
KURZBESCHREIBUNG DER ABBILDUNGEN [017] Damit die zuvor aufgeführten Merkmale im Detail besser verstanden werden können, wird eine speziellere Beschreibung mit Bezug auf Ausführungsformen der Erfindung gegeben. Die beigefügten Abbildungen beziehen sich auf Ausführungsformen der Erfindung und werden im folgenden kurz beschrieben: [018] Figur 1 zeigt ein System gemäß Ausführungsformen;
[019] Figur 2 zeigt ein weiteres System gemäß Ausführungsformen;
[020] Figur 3 zeigt schematisch ein Beispielbild mit einem System der Fig. 1 oder 2;
[021] Figur 4 zeigt ein weiteres Systems gemäß Ausführungsformen; [022] Figur 5 zeigt ein weiteres System gemäß Ausführungsformen; [023] Figur 6 zeigt schematisch einen Teil der Bildgenese mit einem System gemäß Ausführungsformen;
[024] Figur 7 zeigt schematisch einen Teil der Bildgenese für drei verschiedene Fälle mit Systemen gemäß Ausführungsformen; [025] Figur 8 zeigt ein weiteres Systems gemäß Ausführungsformen;
[026] Figur 9 zeigt schematisch einen Teil der Bildgenese für Systeme gemäß Ausführungsformen;
[027] Figur 10 zeigt schematisch ein weiteres System gemäß
Ausführungsformen; [028] Figur 11 zeigt schematisch ein weiteres System gemäß
Ausführungsformen;
[029] Figur 12 zeigt schematisch ein weiteres System gemäß
Ausführungsformen.
AUSFÜHRLICHE BESCHREIBUNG
[030] Der Begriff „Pose" wird hierin verwendet, wie allgemein bekannt, als sowohl die (3D-) Position eines Objekts im Raum angebend, als auch dessen Orientierung bzw. Lage. [031] Im Kontext der vorliegenden Anmeldung wird unter dem Begriff „Echtzeit" in Bezug auf bildgebende Systeme gemäß Ausführungsbeispielen verstanden, dass die Taktrate der Erzeugung von Bildern („Refresh Rate") etwa kleiner oder gleich 1 Sekunde ist, und eine Integrationszeit kleiner oder gleich 30 Sekunden. [032] Der Begriff „Qualitätswert" oder „Qualitätsparameter", hier allgemein mit Q bezeichnet, repräsentiert einen im Kontext dieser Anmeldung verwendeten Parameter, der geeignet ist, die Qualität der hierin behandelten Bild-Darstellungen, Repräsentationen etc. zu repräsentieren und in rechnergestützten Verfahren verarbeitet zu werden. Q kann dabei, je nach gewähltem zugrundeliegenden Verfahren, auf den verschiedensten mathematischen Größen beruhen, wie unten näher beschrieben wird, von (nicht-limitierende Aufzählung) Skalaren über Vektoren bis hin zu beliebig- dimensionalen Matrizen, Vektorfeldern oder Kombinationen der vorgenannten. Weitere Verfahren zur Bestimmung von Qualitätsparametern Q eines computergenerierten Bilds aus einer Nuklearsonde sind in Patentanmeldung 102008025151.8 etwa auf den Seiten 37 bis 42 beschrieben, deren diesbezügliche Lehre hiermit durch Verweis komplett einbezogen ist.
[033] Ferner sind die hierin beschriebenen Trackingsysteme, Sonden, Detektoren, etc. im Allgemeinen über Schnittstellen mit mindestens einer Auswertungseinheit und Ausgabeeinheit und/oder miteinander verbunden. Diese aus dem Stand der Technik bekannten Schnittstellen können über kabellose Funksysteme oder per Kabel verbunden sein.
[034] Ferner sind hier genannte Mittel bzw. Auswerteeinheiten oder Kontrolleinheiten, etwa zum Zweck der Berechnung von 3D-Bildern, von Transformationen, zur Synchronisierung, etc., im allgemeinen als handelsübliche Rechnersysteme (Personal Computer bzw. Workstation) realisiert, auf denen entsprechend den Ausführungsbeispielen Algorithmen in Form von Computerprogrammen realisiert sind. [035] Ausführungsbeispiele betreffen generell ein System zur medizinischen Bildgebung. Es umfasst mindestens einen Nukleardetektor und eine Ultraschallsonde. Eine optische Kamera ist an dem Nukleardetektor oder der Ultraschallsonde angebracht. Die Kamera erfasst während der Anwendung des Systems die jeweils andere Sonde, das heißt wenn die optische Kamera an dem Nukleardetektor angebracht ist, wird die Position der Ultraschallsonde erfasst. Ist die Kamera an der Ultraschallsonde angebracht, erfasst sie die Position des Nukleardetektors. Die Daten von Nukleardetektor, Ultraschallsonde und optischer Kamera werden von einer Kontrolleinheit verarbeitet. Diese ist dazu eingerichtet, die Position der von der optischen Kamera erfassten jeweils anderen von dem Nukleardetektor und der Ultraschallsonde in einem Koordinatensystem zu errechnen. Dabei ist das Koordinatensystem typischer- aber nicht notwendigerweise ortsfest zur Kamera. Der Nukleardetektor kann auch mehrteilig sein, z.B. in Form eines PET- Koinzidenzdetektors. Ferner werden Ausführungsbeispiele vorgeschlagen, bei denen der Nukleardetektor durch einen anderen funktionalen Detektor ersetzt ist, der ohne Applizierung radioaktiver Marker funktioniert, sondern z,B. mit optischen, magnetischen oder weiteren Verfahren arbeitet. Dabei werden dem Patienten z.B. optisch- bzw. foto-aktive Substanzen oder magnetische Substanzen appliziert, die sich im Gewebe akkumulieren, das mit dem funktionalen Detektor detektiert werden soll.
[036] Ausführungsformen der Erfindung haben dabei unter anderem die folgenden Vorteile. Unter Verzicht auf eine Registrierung kann eine Fusion von anatomischen Ultraschall-Bilddaten mit funktionalen, also Bilddaten aus der Nuklearbildgebung vorgenommen werden. Dies ist ohne Verwendung eines externen, konventionellen Tracking-Systems möglich. Das System ist mobil bzw. leicht transportabel und gleichzeitig kostengünstig. Vorhandene funktionelle Detektoren können mit Ultraschall-Bildgebung nachgerüstet werden, um Ausführungsformen der Erfindung zu erhalten. Zudem stehen die fusionierten Bilddaten in Echtzeit zur Verfügung, das Verfahren ist also echtzeitfähig. In Ausführungsbeispielen mit anderen funktionalen Detektoren als Nukleardetektoren, wie oben beschrieben, kommt dazu der Verzicht auf eine radioaktive Belastung des Patienten.
[037] In Kontext dieser Anmeldung wird der Begriff „Nukleardetektor" allgemein für Detektoren und Detektionsgeräte verwendet, die zur Detektion der Strahlung einer radioaktiven Quelle im oder am Körper eines Menschen dienen. Somit reicht die Bandbreite des Begriffs von beispielsweise einer eindimensionalen (1D) Gammasonde über eine 2D-Gammakamera bis hin zu Kombinationen verschiedener Detektortypen, die mit Bezug auf die Figuren unten näher erläutert sind. Insbesondere kann der Nukleardetektor auch mechanische Bauteile zum Halten oder der Befestigung der eigentlichen Detektoren oder Teildetektoren, wie Rahmen oder Bügel, sowie etwa einen Patiententisch umfassen.
[038] In Fig. 1 ist ein System 10 zur medizinischen Bildgebung gemäß Ausführungsbeispielen gezeigt. Es umfasst eine Nukleardetektor 15 und eine Ultraschallsonde 20. Eine optische Kamera 25, im Folgenden auch genannt Kamera 25, ist an der Ultraschallsonde 20 angebracht. Die Kamera 25 erfasst während der Anwendung des Systems 10 das Bild der Ultraschallsonde 20. Die Daten von Nukleardetektor 15, Ultraschallsonde 20 und optischer Kamera 25 werden von einer Kontrolleinheit 30 verarbeitet. Die Kontrolleinheit 30 führt eine - weiter unten genauer erläuterte - 3D-Bilderkennung mittels der von der optischen Kamera 25 gelieferten Bilddaten durch und bestimmt daraus die relative Position der Position des Nukleardetektors 15. Dies geschieht typischerweise in Bezug auf ein Koordinatensystem, das seinen Ursprung an der Kamera 25 hat, etwa das in Fig. 1 gezeigte kartesische Koordinatensystem mit den Achsen x, y, z. Dabei ist das Koordinatensystem typischer- aber nicht notwendigerweise ortsfest zur Kamera 25. Der Gewebebereich 110 hat eine zuvor dem Patienten injizierte radioaktive Markersubstanz akkumuliert und liegt im Detektionsfeld (gestrichelt) der Nuklearsonde 15. Der Gewebebereich 109 weist ebenfalls ein erhöhtes Strahlungsniveau auf, liegt aber im Moment der Darstellung in Fig. 1 nicht im Detektionsfeld der Nuklearsonde 15.
[039] Der Nukleardetektor kann mehrteilig sein, z.B. (nicht- limitierend) in Form eines PET- Koinzidenzdetektors. Dabei wird das Sichtfeld der Kamera 25 typischerweise groß genug gewählt, zum Beispiel im Weitwinkelbereich, um etwa den gesamten Bewegungsbereich beider Teildetektoren eines zweiteiligen PET-Koinzidenzdetektors zu erfassen. In Ausführungsformen kann zum Beispiel die Kamera ausgelegt sein, nur einen der Teildetektoren zu erfassen, wobei die Position des anderen oder der anderen Teildetektoren rein rechnerisch aus der bekannten geometrischen Beziehung der beiden oder mehrerer Teildetektoren bestimmt wird. In anderen Ausführungsbeispielen können auch mehrere Kameras verwendet werden, die jeweils einen der Teildetektoren im Blick haben.
[040] Die Kontrolleinheit 30 errechnet in Echtzeit ein Bild aus den Daten der Ultraschallsonde und verknüpft bzw. fusioniert dieses Bild mit einem Bild, das die Kontrolleinheit 30 fortlaufend aus den Daten des Nukleardetektors 15 berechnet. Diese Fusionierung wird dabei nach an sich aus dem Stand der Technik bekannten Algorithmen aus den Bilddaten des Nukleardetektors 15 und der Ultraschallsonde 20, in Verbindung mit der errechneten räumlichen Beziehung der beiden vorgenannten durchgeführt, die auf einer weiter unten näher erläuterten dreidimensionalen Bildanalyse beruht. Im Vergleich zu konventionellen Verfahren entfällt dabei der jeweilige Zwischenschritt der Berechnung der räumlichen Beziehung des Nukleardetektors und der Ultraschallsonde in Bezug auf ein bzw. mehrere externe Trackingsysteme, da die räumliche Beziehung des Nukleardetektors und der Ultraschallsonde zueinander direkt aus den Bilddaten der optischen Kamera berechnet wird.
[041] Dabei sind in Ausführungsbeispielen Varianten möglich - so kann der optische Marker 35 an dem beweglichen SPECT-Sensor angebracht sein und von der optischen Kamera 25 detektiert werden. Ebenso kann mit den Kameradaten eine Bilderkennung durchgeführt werden, aus der die Position des SPECT-Detektors per dreidimensionaler Bildanalyse berechnet wird, um so die relative Position zwischen SPECT-Sensor und Ultraschallsonde zu bestimmen. Die video-basierte Lagebestimmung eines Objektes kann, wie oben beschrieben, mittels Referenzmarkern auf dem Objekt, oder ohne solche Marker bewerkstelligt werden. Beide Varianten verwenden kalibrierte Kamerabilder, d.h. dass die Brennweite und das Bildzentrum der optischen Kamera bekannt sind. Bei Verwendung von Referenzmarkern werden z.B. kreis- oder kugelförmige, viereckige, einfarbige oder gemusterte Marker auf dem zu verfolgenden Objekt angebracht, und deren Position am Objekt zu Beginn kalibriert (vermessen). Detektionsalgorithmen erkennen dann die geometrischen Muster (Kreise, Linien, Muster) im Kamerabild. Aus diesen zweidimensionalen (2D) Informationen kann dann die 3D-Position des Objektes berechnet werden.
[042] Verzichtet man auf Marker, können geometrische Modelle des zu verfolgenden Objektes - also im vorliegenden Fall die Ultraschallsonde oder die Nuklearsonde - als Referenz verwendet werden. Features (Punkte, Linien, Ecken, Texturmuster) des Objektes werden dann aus den 2D- Videodaten der optischen Kamera 25 extrahiert. Der 3D-Detektionsalgorithmus korreliert diese Features mit dem 3D-Modell und errechnet somit die Lage des Objektes relativ zur Kamera 25. Somit kann die Position der Nuklearsonde 15 oder der Ultraschallsonde 20 ohne Vorhandensein von optischen Markern 35 von der Kontrolleinheit 30 bestimmt werden.
[043] Typischerweise werden dabei die Bilddaten des Nukleardetektors 15 in eine Bildebene der Ultraschallsonde projiziert. Das so fusionierte Bild wird dann etwa auf einem Bildschirm 31 dargestellt. [044] In der Fig. 2 ist ein weiteres System 10 zur medizinischen Bildgebung gemäß Ausführungsbeispielen gezeigt. Dieses baut auf dem System der Fig. 1 auf, jedoch ist zusätzlich eine optische Markierung 35 an dem Nukleardetektor 15 angebracht. Die Bilderkennung durch die Kontrolleinheit 30 kann somit anhand der in den Bilddaten identifizierten optischen Markierung 35 vorgenommen werden, die vorzugsweise aus mehreren räumlich beabstandeten Punkten bzw. Markern besteht. Die aus der dreidimensionalen Bildanalyse - wie oben beschrieben - der Position der optischen Markierung 35 gewonnene Ortsinformation wird, wie im Beispiel der Fig. 1, von der Kontrolleinheit 30 verwendet, um die Position des Nukleardetektors 15 in Bezug auf die Ultraschallsonde 20, bzw. das an dieser fixierte Koordinatensystem zu berechnen.
[045] Es versteht sich für den Fachmann ohne weitere Erklärungen, dass in beiden Fällen der Fig. 1 und Fig. 2 die optische Kamera 25 auch jeweils auf der Nuklearsonde 15 platziert werden kann, und die optische Markierung 35 auf der Ultraschallsonde 20.
[046] Fig. 3 zeigt eine oben beschriebene, von der Kontrolleinheit 30 berechnete Projektion der Bilddaten 110 der Nuklearsonde in die Bildebene 120 der Ultraschallsonde. Das kombinierte bzw. fusionierte Bild wird dabei von der Kontrolleinheit 30 auf einem Bildschirm 31 (siehe Fig. 1) gezeigt. Der gestrichelte Bereich stellt dabei das Detektionsfeld der Nuklearsonde 15 dar, die im Bildbeispiel der Fig. 3 die Bildebene 120 parallel schneidet.
[047] Die mit Bezug auf die Fig. 1 und 2 beschriebenen Beispiele gemäß Ausführungsformen stellen Grundformen dar, die durch Variierung von Bestandteilen variiert werden können.
[048] In Fig. 4 ist ein Ausführungsbeispiel gezeigt, bei dem anstelle des eindimensionalen (1D) Nukleardetektors 15 der Fig. 1 und Fig. 2, der typischerweise ein SPECT-Sensor ist, eine 2D-Gammakamera 50 verwendet wird. Diese ist im Beispiel drehbar um eine Achse längs des Patientenkörpers P angeordnet. Während die 2D-Gammakamera um den Patienten bewegt wird (entlang der Pfeile) und funktionale Daten liefert, wird ihre Position relativ zur Ultraschallsonde 20 durch die darauf montierte Kamera 25 überwacht. Die Kontrolleinheit 30 kann somit aus der Bildanalyse der Bewegung der optischen Markierung 35 das Ultraschallbild und die Daten der 2D-Gammakamera 50 fusionieren.
[049] Fig. 5 zeigt Ausführungsbeispiele, bei denen der Nukleardetektor 15 ein SPECT-Scanner 40 ist. Der Patient P liegt dabei auf einem Tisch 105. Die optische Kamera 25 ist (nur beispielhaft, nicht notwendigerweise) an dem SPECT-Scanner 40 angebracht. Sie detektiert die optische Markierung 35, wodurch die Kontrolleinheit 30 mittels der weiter oben beschriebenen dreidimensionalen Bildanalyse die relative Position zwischen SPECT-Scanner und Ultraschallsonde bestimmen kann. Dabei ist unerheblich, in welchem Winkelbereich sich der SPECT-Scanner 40 befindet (Richtung bzw. Freiheitsgrad der Bewegung durch Pfeile eingezeichnet). Die Kontrolleinheit 30 kann somit aus der Bildanalyse der Bewegung der optischen Markierung 35 das Ultraschallbild und die Daten des SPECT-Scanners 40 fusionieren. Der SPECT-Scanner liefert dabei ein 1D-Signal, dass von der Kontrolleinheit 30 auf das Bildsignal der Ultraschallsonde projiziert wird.
[050] Fig. 6 zeigt schematisch das Bildsignal der 2D-Gammakamera 50 aus der Fig. 4. Die (als Beispiele) drei radioaktiv markierten Gewebebereiche 110 des Patienten P werden dabei von der 2D-Gammakamera 50 detektiert. In Fig. 7 sind schematisch weitere Beispiele für die fusionierte Darstellung von Bildern von Nukleardetektoren und Ultraschallsonden gemäß Ausführungsbeispielen dargestellt. In Fig. 7A ist ein. Beispiel eines Fusionsbildes gezeigt, dass aus den Systemen in Fig. 1 und Fig. 2 stammt. Dabei schneidet das Detektionsfeld der Nuklearsonde 15 (gestrichelt dargestellt) die Ultraschall-Bildebene 120 bei dem Gewebebereich 110, der folglich nach der Fusion auch dargestellt wird. Dies ist durch die Zählrate von (beispielhaft) 82 CPS (counts per second) des Nukleardetektors symbolisiert. Bereich 109 ist nur zum Vergleich eingezeichnet und würde im Fusionsbild nicht dargestellt. Im rechten Bild von 7A schneidet das Detektionsfeld der Nuklearsonde dagegen keine der beiden Bereiche 109, von denen auch keiner dargestellt würde.
[051] In 7B ist eine ähnliche Situation wie in Fig. 7A gezeigt, wobei das Detektionsfeld der Nuklearsonde jedoch parallel zur Bildebene des Ultraschall- Bilds 120 verläuft. Im linken Bild schneidet das Detektionsfeld (schraffiert) der Nuklearsonde den markierten Bereich 110, was in der Beispiel-Zählrate von 75 CPS resultiert. Im rechten Bild von 7B schneidet das Detektionsfeld keinen der beiden Bereiche 109, weswegen sie im Fusionsbild (in diesem Moment) auch nicht dargestellt würden. Neben den in 7A und 7B dargestellten Fällen des senkrechten und parallelen Verlaufs des Nuklearsonden-Detektionsfelds zur Ultraschall-Bildebene ist es auch möglich, dass das Detektionsfeld (siehe z.B. auch gestrichelter Bereich an der Nuklearsonde 15 in Fig. 1) in schrägem Winkel zur Bildebene der Ultraschallsonde verläuft.
[052] In 7C ist ein anderer Fall gezeigt, bei dem das Ultraschall- Detektionsfeld 120 mit dem Detektionsfeld einer 2D-Nuklearsonde überlagert ist, links bei orthogonalem Verhältnis der Ultraschall-Bildebene 120 und des Detektionsfelds der Nuklearsonde, im rechten Bild bei parallelem Verlauf. Der radioaktiv markierte Bereich 110 wird dabei detektiert, Bereich 109 ist in dem Beispiel der Fig. 7C nicht radioaktiv und wird daher nicht detektiert, d.h. ist im medizinischen Sinn als„unauffällig" anzusehen.
[053] Fig. 8 zeigt einen prinzipiell ähnlichen Aufbau wie den in Fig. 4 gezeigten, wobei als Nukleardetektor ein PET- Koinzidenzdetektor 45 zum Einsatz kommt. Dieser ist drehbar um eine Längsachse parallel zum Patienten P eingerichtet. Wie bereits beschrieben, kann dabei die Erkennung der beiden Teildetektoren des PET- Koinzidenzdetektors 45 über das Bild der Kamera 25 durch die Kontrolleinheit 30 mittels der Verfolgung von an den Detektoren befestigten optischen Markern (nicht gezeigt) oder mittels Analyse der Detektorform im Bild der Kamera 25 erfolgen.
[054] Fig. 9 zeigt schematisch die Bildentstehung bei dem System 10 der Fig. 8. Die Ultraschallsonde 20 erfasst einen Bereich des Patienten P. Der radioaktiv markierte Bereich 110 liegt in der Fig. 8 im Bereich zwischen den beiden Teildetektoren des PET-Koinzidenzdetektors 45. Der ebenfalls markierte Bereich 109 liegt im Moment der Darstellung der Fig. 8 nicht im Detektionsfeld des Detektors. Durch Verfahren des Patiententisches 105 in Längsrichtung (des Patienten P) relativ zur Detektionsebene des Detektors kann der Bereich 109 ebenfalls funktional dargestellt werden, oder auch durch Verfahren des Detektors.
[055] Fig. 10 zeigt einen ähnlichen Aufbau wie den in Fig. 8 gezeigten gemäß Ausführungsbeispielen. Dabei ist der Nukleardetektor 15 ein 2D- Koinzidenzdetektor 60 für PET. Dieser kann, wie mit Bezug auf andere Ausführungsbeispiele beschrieben, ebenfalls mit optischen Markern 35 versehen sein. In Fig. 11 ist schematisch die Bildentstehung des Systems 10 der Fig. 10 dargestellt. In dem gestrichelt dargestellten Detektionsfeld zwischen den beiden Teildetektoren des 2D-Koinzidenzdetektors 60 befindet sich ein radioaktiv markierter Gewebebereich 110. Für den Bereich 109 gilt das bei der Fig. 9 Geschriebene.
[056] Ergänzend kann in weiteren Ausführungsbeispielen, wie in Fig. 12 gezeigt, jeweils eine Sensoranordnung 70 auf der Ultraschallsonde 20 und/oder dem Nukleardetektor 15 angebracht sein. Diese dient dazu, mittels Lagesensoren nach einer anfänglichen Kalibrierung, bei der die beiden Geräte nahe zusammen bzw. aneinander gebracht werden können, die relative Position anhand der Sensordaten zu bestimmen. Typischerweise ist jede Sensoranordnung eine Kombination aus einem Gyrosensor, einem SD- Beschleunigungssensor und einem Erdmagnetfeld-Sensor, oder jeweils eine Kombination von zwei der vorgenannten. Je eine Sensoranordnung 70 ist an mindestens einem von dem Nukleardetektor 15 und der Ultraschallsonde 20 angebracht. Die Sensoranordnung umfasst dabei mindestens eines, oder eine Kombination, von einem 3D-Gyrosensor 75, einem SD- Beschleunigungsmesser 80, und einem Erdmagnetfeld-Sensor 85 (nicht dargestellt). Die so gewonnenen Positionsdaten können zusätzlich zu der bereits oben beschriebenen, relativen optischen Positionsbestimmung zwischen dem Nukleardetektor 15 und der Ultraschallsonde 20, von der Kontrolleinheit 30 verarbeitet werden. Es ist in Ausführungsbeispielen auch möglich, bei entsprechender Genauigkeit der Sensoren nur diese zur Positionsbestimmung zu verwenden, ohne die optische Positionsbestimmung. Insbesondere kann die geschilderte Sensoranordnung 70 auch genutzt werden, um einen kurzfristigen Ausfall des Bildes der optischen Kamera durch die Daten der Sensoranordnung zu kompensieren, etwa bei versehentlicher Abschattung der Kamera durch eine Person. [057] In Ausführungsbeispielen können ergänzend Positionsdaten über einen Patienten P über zweite optische Markierungen 36 gewonnen werden. Diese sind auf der Körperoberfläche angebracht und werden von der optischen Kamera 25. Die so gewonnenen Positionsdaten werden von der Kontrolleinheit 30 verarbeitet und können etwa genutzt werden, um die Bilderzeugung mit Daten zur äußeren Form des Körpers des Patienten anzureichern. Alternativ oder ergänzend kann außerdem in Ausführungsbeispielen die rechnerische Integration bzw. Fusion von Bilddaten aus einem weiteren bildgebenden System integriert werden. Dazu eignen sich insbesondere CT-Daten und MRT- Daten, die in das Fusionsbild aus funktionalen und anatomischen Daten integriert werden .
[058] Verfahren zur medizinischen Bildgebung gemäß Ausführungsbeispielen umfassen generell das Bereitstellen eines Nukleardetektors 15, 40, 45, 50, 60 in einem Block 200, das Bereitstellen einer Ultraschallsonde in einem Block 210, das Bereitstellen einer optischen Kamera 25, wobei die optische Kamera an einem von dem Nukleardetektor und der Ultraschallsonde angebracht ist, in einem Block 220, das Bereitstellen einer Kontrolleinheit 30 in einem Block 230, das Aufnehmen von Daten des Nukleardetektors in einem Block 240, das Aufnehmen von Ultraschalldaten in einem Block 250, das Aufnehmen von Daten der optischen Kamera 25 in einem Block 260, das Errechnen der Position des von der optischen Kamera 25 erfassten jeweils anderen von dem Nukleardetektor 15, 40, 45, 50, 60 und der Ultraschallsonde 20 in einem Koordinatensystem, das ortsfest zur Kamera ist, in einem Block 270, sowie das Projizieren von Bilddaten des Nukleardetektors 15, 40, 45, 50, 60 auf die Ultraschallbilddaten in einem Block 280. [059] Dem Fachmann ist ohne weitere Erläuterungen einsichtig, dass der in den beschriebenen Ausführungsbeispielen enthaltene Nukleardetektor grundsätzlich auch durch einen anderen Detektortyp funktioneller Natur („funktionaler Detektor") ersetzt werden kann, um weitere Ausführungsbeispiele zu erhalten. So gibt es die Tendenz, auf die Applizierung einer radioaktiven Markersubstanz zu verzichten bzw diese durch andere nichtradioaktive Substanzen zu ersetzen, z.B. um die Strahlenbelastung von Patient und Bedienpersonal zu verringern. So kann etwa die radioaktive Markersubstanz durch eine magnetische Marker Substanz ersetzt werden, z.B. eine Suspension magnetischer Mikropartikel in einer Injektionslösung. Mit einem Magnetsensor, wie etwa dem Produkt SentiMag der Firma Endomagnetics, können mit dieser Konfiguration auch funktionelle Gewebebereiche geortet werden, also etwa eine mit der magnetischen Markersubstanz angereicherte Struktur. Somit kann in den hierin geschilderten Ausführungsbeispielen der Nukleardetektor durch einen funktionalen Detektor, insbsondere einen Magnetdetektor ersetzt werden, wo dies technisch mit den geschilderten Beispielen sinnvoll kombinierbar ist. Dies sind insbesondere die in den Figuren 1 und 2, 4 und 5 gezeigten Ausführungsbeispiele, bei denen ein solcher Magnetsensor den 1 D-Nukleardetektor ersetzen kann und äquivalente Bild-Informationen (im Vergleich zum Nukleardetektor) zur Weiterverarbeitung durch die Kontrolleinheit 30 liefern kann. Das gleiche gilt für optische Detektoren wie etwa Fluorenzenzkameras, multispektrale Kameras oder handgeführte optische Sonden, wo man z.B. fluoreszierende oder lumineszierende Markersubstanzen, die zuvor dem Patienten appliziert wurden, nachweisen kann. Insbesondere bei den aufgezählten optischen funktionalen Detektoren, aber auch bei Detektor-Matrizen aus mehreren Magnetdetektoren können dabei auch in den Ausführungsbeispielen mit mehrdimensionale Bilddaten liefernden Nukleardetektoren durch solche mehrdimensionale Bilddaten liefernden anderen Detektortypen ersetzt werden. Dazu gehören etwa die mit Bezug auf die Figuren 8, 9, 10, und 11 gezeigten Ausführungsbeispiele. [060] Es ist dem Fachmann ohne weiteres einsichtig, dass die hier in Ausführungsbeispielen beschriebene Prinzipien auch mit anderen, nicht beschriebenen Nukleardetektoren, anderen Arten von funktionalen Detektoren oder auch verschiedenen Kombinationen von Nukleardetektoren und/oder anderen funktionalen Detektorarten angewendet werden kann, und dass zahlreiche Varianten der hier offenbarten Ausführungsbeispiele möglich sind, die als unter die Offenbarung der Anmeldung fallend zu sehen sind.
[061] Während das Vorangehende also auf Ausführungsformen der Erfindung gerichtet ist, können andere und weitere Ausführungsformen der Erfindung durch Kombinationen der beschriebenen aufgestellt werden, ohne vom Schutzbereich der Erfindung abzuweichen, der durch die nachfolgenden Ansprüche bestimmt wird.

Claims

Patentansprüche
1. Ein System (10) zur medizinischen Bildgebung, umfassend;
a. einen Nukleardetektor (15, 40, 45, 50, 60),
b. eine Ultraschallsonde (20),
c. eine optische Kamera (25),
d. eine Kontrolleinheit (30), wobei die optische Kamera (25) an einem von dem Nukleardetektor (15, 40, 45, 50, 60) und der Ultraschallsonde (20) angebracht ist, und die
Kontrolleinheit (30) dazu eingerichtet ist, die Position des von der optischen Kamera erfassten jeweils anderen von dem Nukleardetektor und der
Ultraschallsonde in einem Koordinatensystem zu errechnen, das ortsfest zur Kamera ist.
System nach Anspruch 1, wobei die Kontrolleinheit (30) dazu eingerichtet ist, die Position des erfassten Nukleardetektors (15, 40, 45, 50, 60) oder der Ultraschallsonde (20) anhand einer dreidimensionalen Bildanalyse des Bilds der optischen Kamera (25) zu bestimmen. 3. System nach Anspruch 1 oder 2, wobei auf dem Nukleardetektor (15,
40, 45, 50, 60) oder der Ultraschallsonde (20) mindestens eine optische Markierung (35) bereitgestellt sind, und wobei die Kontrolleinheit (30) dazu eingerichtet ist, die Position des erfassten Nukleardetektors oder der Ultraschallsonde anhand einer Analyse der erfassten mindestens einen optischen Markierung (35) zu bestimmen.
4. System nach einem der vorhergehenden Ansprüche, wobei der
Nukleardetektor (15, 40, 45, 50, 60) eines von einer SPECT-Sonde (40), einem PET-Detektor (45) , einer 2D-Gammakamera (50), einem 1D+2D Koinzidenzdetektor (55), einem 2D+2D Koinzidenzdetektors (60), einer lD-Gammasonde (65), oder einem Dual-Koinzidenz- Detektor (70) ist.
System nach einem der vorhergehenden Ansprüche, wobei die
Kontrolleinheit (30) dazu eingerichtet ist, Bilddaten des
Nukleardetektors (15, 40, 45, 50, 60) auf die Ultraschallbilddaten zu projizieren.
System nach einem der vorhergehenden Ansprüche, weiter umfassend eine Sensoranordnung (70) in mindestens einem von dem
Nukleardetektor (15, 40, 45, 50, 60) und der Ultraschallsonde (20), wobei die Sensoranordnung mindestens eines, oder eine Kombination, der folgenden umfasst: ein 3D-Gyrosensor (75), ein SD- Beschleunigungsmesser (80), ein Erdmagnetfeld-Sensor (85).
Ein Verfahren zur medizinischen Bildgebung, umfassend;
a. Bereitstellen eines Nukleardetektors (200),
b. Bereitstellen einer Ultraschallsonde (210),
c. Bereitstellen einer optischen Kamera, wobei die optische
Kamera an einem von dem Nukleardetektor und der
Ultraschallsonde angebracht ist (220),
d. Bereitstellen einer Kontrolleinheit (230),
e. Aufnehmen von Daten des Nukleardetektors (240),
f. Aufnehmen von Ultraschalldaten (250),
g. Aufnehmen von Daten der optischen Kamera (260), h. Errechnen der Position des von der optischen Kamera erfassten jeweils anderen von dem Nukleardetektor und der
Ultraschallsonde, in einem Koordinatensystem, das ortsfest zur Kamera ist (270), i. Projizieren von Bilddaten des Nukleardetektors auf die
Ultraschallbilddaten (280).
8. Verfahren nach Anspruch 7, wobei der Nukleardetektor eines von einer SPECT-Sonde (40), einem PET-Detektor (45), einer 2D-Gammakamera (50), einem 1D+2D Koinzidenzdetektor (55), einem 2D+2D
Koinzidenzdetektor (60), einer lD-Gammasonde (65), oder einem Dual-Koinzidenz-Detektor (70) ist.
9. Verfahren nach Anspruch 7 oder 8, wobei die Position des erfassten Nukleardetektors (15, 40, 45, 50, 60) oder der Ultraschallsonde (20) anhand einer dreidimensionalen Bildanalyse des Bilds der optischen Kamera (25) bestimmt wird.
10. Verfahren nach einem der Ansprüche 7 bis 9, wobei auf dem
Nukleardetektor (15, 40, 45, 50, 60) oder der Ultraschallsonde (20) mindestens eine optische Markierung (35) bereitgestellt ist, und wobei die Position des erfassten Nukleardetektors oder der Ultraschallsonde anhand einer Analyse der erfassten mindestens einen optischen
Markierung (35) bestimmt wird.
11. Verfahren nach einem der Ansprüche 7 bis 10, wobei das Errechnen der Position des von der optischen Kamera (25) erfassten jeweils anderen von dem Nukleardetektor (15, 40, 45, 50, 60) und der Ultraschallsonde (20) durch die Kontrolleinheit kombiniert wird mit der Auswertung von 3D-Sensordaten aus einer Sensoranordnung (70) in mindestens einem von dem Nukleardetektor (15, 40, 45, 50, 60) und der Ultraschallsonde (20).
12. Verfahren nach einem der Ansprüche 7 bis 11, weiter umfassend die optische Darstellung einer Projektion der Messdaten der Nukleardetektors (15, 40, 45, 50, 60) in ein Bild, generiert aus den Daten der Ultraschallsonde (20).
13. Verfahren nach einem der Ansprüche 7 bis 12, wobei Positionsdaten über einen Patientenkörper über zweite optische Markierungen (36) gewonnen werden, die von der optischen Kamera (25) erfasst werden, und wobei die Positionsdaten von der Kontrolleinheit (30) verarbeitet werden.
14. Verfahren nach einem der Ansprüche 7 bis 13, weiter umfassend die rechnerische Integration von Bilddaten aus einem weiteren
bildgebenden System (95), insbesondere CT (97) und MRT (99), durch die Kontrolleinheit (30).
15. Ein System (10) zur medizinischen Bildgebung, umfassend;
a. einen funktionalen Detektor (15),
b. eine Ultraschallsonde (20),
c. eine optische Kamera (25),
d. eine Kontrolleinheit (30), wobei die optische Kamera (25) an einem von dem funktionalen Detektor (15) und der Ultraschallsonde (20) angebracht ist, und die Kontrolleinheit (30) dazu eingerichtet ist, die Position des von der optischen Kamera erfassten jeweils anderen von dem funktionalen Detektor und der Ultraschallsonde in einem Koordinatensystem zu errechnen, das ortsfest zur Kamera ist.
16. System nach Anspruch 15, wobei der funktionale Detektor mindestens eines von:
- einem optischer Detektor ist, insbesondere einer Fluorenzenzkamera, einer multispektralen Kamera, einer handgeführten optischen Sonde, und wobei fluoreszierende, lumineszierende oder sonstig fotoaktive Markersubstanzen dem Patienten appliziert werden, - ein Magnetdetektor ist, oder eine Detektor-Matrix aus mehreren Magnetdetektoren, und wobei die dem Patienten zu applizierende Markersubstanz magnetische Partikel umfasst.
17. Verfahren zur medizinischen Bildgebung mittels eines Systems der Ansprüche 15 oder 16.
PCT/EP2015/066916 2014-07-25 2015-07-23 Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung WO2016012556A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014110570.2A DE102014110570A1 (de) 2014-07-25 2014-07-25 Bilderzeugungsapparat und -verfahren mit Kombination von funktionaler Bildgebung und Ultraschallbildgebung
DE102014110570.2 2014-07-25

Publications (1)

Publication Number Publication Date
WO2016012556A1 true WO2016012556A1 (de) 2016-01-28

Family

ID=53719778

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/066916 WO2016012556A1 (de) 2014-07-25 2015-07-23 Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung

Country Status (2)

Country Link
DE (1) DE102014110570A1 (de)
WO (1) WO2016012556A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110169783A (zh) * 2019-07-08 2019-08-27 闫俊梁 一种数字化Pet-超声一体机
WO2020222106A1 (en) * 2019-04-29 2020-11-05 Endomagnetics Limited Dual mode marker and tracer detection system
WO2023161286A1 (en) 2022-02-25 2023-08-31 Navari Surgical Ab Marker unit for use in ar aided surgery

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100266171A1 (en) * 2007-05-24 2010-10-21 Surgiceye Gmbh Image formation apparatus and method for nuclear imaging
US20130172739A1 (en) * 2011-03-15 2013-07-04 Siemens Corporation Multi-modal medical imaging
US20130218024A1 (en) * 2011-10-09 2013-08-22 Clear Guide Medical, Llc Interventional In-Situ Image-Guidance by Fusing Ultrasound and Video
DE102012111386A1 (de) * 2012-11-23 2014-05-28 Surgiceye Gmbh Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011083853B4 (de) * 2011-09-30 2019-01-17 Siemens Healthcare Gmbh Fusionierte SPECT/C-Bogen-Bildgebung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100266171A1 (en) * 2007-05-24 2010-10-21 Surgiceye Gmbh Image formation apparatus and method for nuclear imaging
US20130172739A1 (en) * 2011-03-15 2013-07-04 Siemens Corporation Multi-modal medical imaging
US20130218024A1 (en) * 2011-10-09 2013-08-22 Clear Guide Medical, Llc Interventional In-Situ Image-Guidance by Fusing Ultrasound and Video
DE102012111386A1 (de) * 2012-11-23 2014-05-28 Surgiceye Gmbh Hybrides Bildgebungssystem für intraoperative, interventionelle und diagnostische Anwendungen

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020222106A1 (en) * 2019-04-29 2020-11-05 Endomagnetics Limited Dual mode marker and tracer detection system
AU2020244381B2 (en) * 2019-04-29 2020-12-17 Endomagnetics Limited Dual mode marker and tracer detection system
CN110169783A (zh) * 2019-07-08 2019-08-27 闫俊梁 一种数字化Pet-超声一体机
WO2023161286A1 (en) 2022-02-25 2023-08-31 Navari Surgical Ab Marker unit for use in ar aided surgery

Also Published As

Publication number Publication date
DE102014110570A1 (de) 2016-01-28

Similar Documents

Publication Publication Date Title
EP2165215B1 (de) Bilderzeugungsapparat und -methode zur nuklearbildgebung
EP2850388B1 (de) Registrierverfahren und -vorrichtung für ein positionserfassungssystem
EP2082687B1 (de) Überlagerte Darstellung von Aufnahmen
DE102010018899B4 (de) Vorrichtung und Verfahren zur Bewegungskorrektur bei MRT-Messungen
DE112010001224T5 (de) Auf Bewegungskompensation basierende CT-Vorrichtung und CT-Verfahren
DE102015013031B4 (de) Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung
DE102005029242B4 (de) Verfahren zur Aufnahme und Auswertung von Bilddaten eines Untersuchungsobjekts und dazugehörige Einrichtung
DE112017000642T5 (de) Systeme und Verfahren für eine mögliche Kollision zwischen einem Objekt und Detektieren eines Patienten
WO2016026758A1 (de) Steuerung der positionierung eines scanbereichs einer medizintechnischen bildgebenden anlage
EP3449830A1 (de) Steuerung eines medizintechnischen bildgebenden systems
DE102008037424A1 (de) Verbessertes System und Verfahren für auf Volumen basierende Registrierung
EP2727082A2 (de) Verfahren und vorrichtung zum darstellen eines objektes
DE102005036322A1 (de) Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion
EP2755556A1 (de) Nuklearbildsystem und verfahren zum aktualisieren eines ursprünglichen nuklearbilds
DE102012108058A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Orientierung einer Testperson
EP2230641B1 (de) Verfahren zur Ermittlung der Lage einer Struktur in einem Körper
DE212012000054U1 (de) Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen
DE102016215831A1 (de) Automatische Generierung synthetischer Projektionen
WO2016012556A1 (de) Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung
EP3323347A1 (de) Verfahren zur bildunterstützung einer einen minimalinvasiven eingriff mit einem instrument in einem eingriffsbereich eines patienten durchführenden person, röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE112021005277T5 (de) Objektschlüsselpunkterfassung
DE102012211742B4 (de) Verfahren zum Bestimmen eines Abstandes mittels Röntgenbildgebung und Röntgengerät
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102014210051A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers
WO2015000962A2 (de) Verfahren und vorrichtung zur ultraschallaufnahme eines deformierten objektes, insbesondere der menschlichen brust

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15741547

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15741547

Country of ref document: EP

Kind code of ref document: A1