DE10334074A1 - System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern - Google Patents

System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern Download PDF

Info

Publication number
DE10334074A1
DE10334074A1 DE10334074A DE10334074A DE10334074A1 DE 10334074 A1 DE10334074 A1 DE 10334074A1 DE 10334074 A DE10334074 A DE 10334074A DE 10334074 A DE10334074 A DE 10334074A DE 10334074 A1 DE10334074 A1 DE 10334074A1
Authority
DE
Germany
Prior art keywords
channel
virtual
data set
computer
virtual channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10334074A
Other languages
English (en)
Inventor
Karl Dr. Barth
Gerd Prof. Dr. Wessels
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10334074A priority Critical patent/DE10334074A1/de
Priority to US10/897,674 priority patent/US7844474B2/en
Publication of DE10334074A1 publication Critical patent/DE10334074A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • A61B8/587Calibration phantoms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Abstract

Die vorliegende Erfindung bezieht sich auf ein System zur Erzeugung eines virtuellen Zugangskanals in medizinischen 3-D-Bildern, aufweisend
- einen Rechner (2) mit Monitor (8),
- eine positions- und orientierungserfassende Bedieneinheit (5),
wobei der Rechner (2) einen präoperativ-gewonnenen 3-D-Datensatz eines zu untersuchenden Patienten enthält und als 3-D-Bild darstellen kann und mit der Bedieneinheit (5) so verbunden ist, dass auf Basis einer Registrierung zwischen der Bedieneinheit (5) und dem 3-D-Datensatz sowie auf Basis unterschiedlicher Kanal-Parameter ein virtueller optischer Kanal (7) des 3-D-Datensatzes ausgeschnitten und auf dem Monitor (8) des Rechners (2) dargestellt wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Erzeugung eines virtuellen Zugangskanals in einem mit beliebiger Bildgebungsmodalität präoperativ oder intraoperativ aufgenommenen 3D-Bild eines zu untersuchenden Patienten. Die Erfindung dient insbesondere der Planung und Unterstützung von minimal invasiven Eingriffen.
  • In zunehmendem Maß erfolgen Untersuchungen und Behandlungen eines erkrankten Patienten minimal-invasiv, d.h. mit möglichst geringer Traumatisierung des Patienten. Beispielsweise wird die Diagnostik bzw. ein Eingriff in der so genannten "Schlüssellochchirurgie" mit Endoskopen oder Laparoskopen durchgeführt. Endoskope und Laparoskope werden über eine kleine Körperöffnung in den Untersuchungsbereich des Patienten eingeführt und liefern überwiegend optische Bilder (Videobilder), z.Teil auch bereits andere Bilder wie z.B. Ultraschallscans "vor Ort" (siehe z.B. den laparoskopischen Ultraschall). Speziell das Endoskop dient zur Untersuchung von natürlich zugänglichen Körperhohlräumen wie z.B. Speiseröhre, Darm oder im Rahmen einer kleinen Punktion zur Untersuchung von Blutgefäßen. Eine endoskopische Untersuchung des Darmes bezeichnet man auch als Kolonoskopie bzw. Koloskopie.
  • In diesem Zusammenhang gibt es für die Maßnahmenplanung und für eine noch weniger invasive Diagnose die Möglichkeit der virtuellen Endoskopie, der virtuellen Kolonoskopie sowie der virtuellen Laparoskopie. Dabei geht es darum, tatsächlich vorhandene Körperhohlräume virtuell auf Basis von 3D-Aufnahmen darzustellen und auch quasi zu durchfliegen. Ein derartiges Verfahren wird auch als "Fly-Through-Technik" bezeichnet. Die einem solchen Verfahren zugrundeliegenden 3D-Aufnahmen werden üblicherweise präoperativ mit modernen hoch auflösenden Bildgebungsverfahren akquiriert, beispielsweise mit Computertomographie (CT), Magnetresonanztomographie (MRT), Positronen-Emissionstomographie (PET), nuklearmedizinischen Bildgebungsverfahren, (C-Bogen-)Röntgen-Verfahren oder Ultraschall (US). Bei derzeitigen virtuellen Untersuchungsverfahren ist man ausschließlich darauf bedacht, die Organ-Morphologie räumlich darzustellen. Eine solche Darstellung erfolgt z.B. eher zweidimensional auf entsprechend ausgewählten Schichten im Rahmen des bekannten multiplanaren-Reformatierungs-Verfahrens (MPR-Verfahren) oder dreidimensional im Rahmen von MIP-Darstellungen (Maximum-Intensity-Projections), bei denen z.B. kontrastmittelgefüllte Gefäße hervorgehoben werden. Ein Fly-Through erfolgt meist auf Basis einer 3D- SSD-Darstellung (Shaded-Surface-Display) oder einer 3D- VR-Darstellung (Volume-Rendering). Dies erfordert im Allgemeinen eine spezielle Segmentierung z.B. der Gefäßwände, bevor eine klare Darstellung im Fly-Through möglich ist. Diese Segmentierung bzw. (innere) Oberflächendarstellung geht über die generische Segmentierung der SSD-Verfahren hinaus. Auch bei VR-ähnlichen Fly-Through-Darstellungen ist hier, anders als bei konventionellem Volumen-Rendering, eine Art Segmentierung vonnöten, allein schon unter dem Aspekt, dass bei diesem virtuellen Flug nicht die Gefäßwände "durchstoßen" werden.
  • Aus chirurgischer Anwendersicht ist es dringend gewünscht auf eine aufwändige Segmentierung verzichten zu können und ein dynamischeres virtuelles Verfahren zu verwenden.
  • Aufgabe der vorliegenden Erfindung ist es daher, ein System und ein Verfahren zur virtuellen Darstellung des Körperinneren bereitzustellen, die eine flexiblere Darstellung ermöglichen und sich nicht an der absolut korrekten Erkennung anatomischer Gegebenheiten orientieren müssen, was beim heutigen Stand der Computertechnik nicht absolut verlässlich ist.
  • Diese Aufgabe wird gemäß der Erfindung durch die Merkmale der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken der Erfindung in besonders vorteilhafter Weise weiter.
  • Erfindungsgemäß wird also ein System zur Erzeugung eines virtuellen Zugangskanals in medizinischen 3D-Bildern beansprucht, aufweisend
    • – einen Rechner mit Monitor,
    • – eine positions- und orientierungserfassende Bedieneinheit,
    wobei der Rechner einen präoperativ-gewonnenen 3D-Datensatz eines zu untersuchenden Patienten enthält und als 3D-Bild darstellen kann und mit der Bedieneinheit so verbunden ist, dass auf Basis einer Registrierung zwischen der Bedieneinheit und dem 3D-Datensatz sowie auf Basis unterschiedlicher Kanal-Parameter ein virtueller optischer Kanal des 3D-Datensatzes ausgeschnitten und auf dem Monitor des Rechners dargestellt wird.
  • Auf dem Rechner ist erfindungsgemäß ein Datenauswahlverfahren implementiert, welches in der Umgebung der aktuellen virtuellen Position der Bedieneinheit im 3D-Datensatz, also z.B.
  • "seitlich und vor dem Instrument" Daten dynamisch ausblendet und damit den genannten virtuellen Beobachtungs- und Zugangskanal erzeugt.
  • Im allgemeinen Fall stellt die Bedieneinheit erfindungsgemäß ein mechanisches Gelenksystem oder ein Navigationssystem oder einen instrumentenförmigen Stab mit Navigationssensor bzw. mit optischer oder magnetischer Markierung oder ein Standard-Computer-Eingabesystem dar.
  • Über die Bedieneinheit kann die Darstellung des virtuellen Kanals beeinflusst werden. Im einfachsten Fall besteht die Bedieneinheit als Standard-Computer-Eingabesystem aus entsprechenden Funktionstasten der Rechner-Tastatur, einer Computermaus oder aus einem 3D-Griffel. Eine Modifikation des 3D-Griffels kann durch die Simulation eines medizinischen Instrumentes wie z.B. eines Laparoskops erfolgen. Mit einem 3D-Griffel-ähnlichen 3D-Eingabegerät ist auf einfache Weise eine Ortsregistrierung und eine kontinuierliche Positionserfassung bezogen auf den 3D-Datensatz und somit die 3D-Darstellung zu realisieren.
  • Über die Bedienung mit der Maus, dem 3D-Griffel oder der optischen oder magnetischen Navigation bewegt sich der virtuelle Kanal kontinuierlich mit und erlaubt somit die schnelle Suche einer optimalen Ansicht bzw. die Suche eines optimalen, wirklich minimal invasiven Zugangskanals für die spätere wirkliche Intervention z.B, in der Laparoskopie, Stereotaxie oder Brachytherapie.
  • Vorteilhafterweise ist der zuvor aufgenommene 3D-Datensatz mit hochauflösender Bildgebungsmodalität wie beispielsweise mit Magnetresonanztomographie-, Computertomographie-, Ultraschall-, Positronenemissionstomographie- oder nuklearmedizinischen Verfahren aufgenommen.
  • Erfindungsgemäß erfolgt das virtuelle Ausschneiden rechnerisch und automatisch mittels einem Algorithmus auf dem Rechner.
  • Die Kanalparameter betreffen sinnvollerweise den Kanaldurchmesser, die Kanaltiefe, die Form der Kanalwand sowie die Form des Kanalbodens.
  • Das erfindungsgemäße System ermöglicht ein Einblenden eines medizinischen Instrumentes in den virtuellen Kanal.
  • Vorteilhaft erfolgt dabei die Bewegung des virtuellen Kanals und des eingeblendeten Instrumentes auf Basis einer zweiten positions- und orientierungserfassenden Bedieneinheit voneinander unabhängig.
  • Vorteilhafterweise kann das mechanische Gelenksystem ein Roboterarm sein Über die Mechanik des Gelenksystems sowie auf Basis einer Gewebsdichtekarte des 3D-Datensatzes kann erfindungsgemäß eine haptische Rückkopplung erfolgen, durch die dem Anwender ein Gefühl für das im späteren tatsächlichen Eingriff zu durchstechende bzw. durchtrennende bzw. besser nicht zu verletzende Gewebe gegeben wird. Z.B. sollen große Blutgefäße in keinem Fall beeinträchtigt sondern höchstens vorsichtig beiseite geschoben werden.
  • Im Rahmen eines optimierten und geplanten operativen Eingriffs ist es unter Umständen vorteilhaft die Bilder des virtuellen Kanals mit entsprechenden intraoperativen realen Bildern gekoppelt darzustellen. Gekoppelt soll heißen: neben- oder übereinander bzw. überblendet (fusioniert).
  • Erfindungsgemäß werden die intraoperativen realen Bilder mittels laparoskopischen, kolonoskopischen oder endoskopischen Verfahren und/oder mit Ultraschall aufgenommen.
  • Ferner wird im Rahmen der vorliegenden Erfindung ein Verfahren beansprucht zur Erzeugung eines virtuellen Zugangskanals in medizinischen 3D-Bildern gekennzeichnet durch folgende Schritte:
    • – virtuelles Ausschneiden eines optischen Kanals auf Basis eines zuvor aufgenommenen 3D-Datensatzes eines Patienten, auf Basis eingestellter Kanalparameter sowie auf Basis einer relativ zu dem 3D-Datensatz registrierten positions- und orientierungserfassenden Bedieneinheit,
    • – Darstellen des virtuellen Kanals auf dem Monitor eines Rechners,
    • – Wiederholen der Schritte des virtuellen Ausschneidens und des Darstellens (auch als kontinuierlicher Prozess) bis ein interessierender Bereich des 3D-Datensatzes erfasst worden ist.
  • Weitere Unteransprüche schließen sich an und bilden den zentralen Gedanken des erfindungsgemäßen Verfahrens vorteilhaft weiter.
  • Weitere Vorteile, Merkmale und Eigenschaften der vorliegenden Erfindung werden nun anhand von Ausführungsbeispielen bezugnehmend auf die begleitenden Zeichnungen näher erläutert.
  • 1 zeigt schematisch eine Prinzipskizze des erfindungsgemäßen Systems bei dem ein mit einem Rechner verbundenes Bedien- bzw. Handhabungssystem die Position und Orientierung eines gedachten (virtuellen) medizinischen Instrumentes relativ zu einem ebenfalls virtuellen oder echten Patienten oder zu einem Phantom erfasst und dazu passend einen Ausschnitt eines auf dem Rechner vorliegenden 3D-Datensatzes des Patienten dreidimensional darstellt, wobei rein rechnerisch ein virtueller Kanal entlang und vor dem Instrument herausgeschnitten und auf dem Monitor des Rechners dargestellt wird,
  • 2 zeigt in Form der Einzelheit A einen vergrößerten Schnitt durch den virtuellen Kanal der ein Organ sowie ein Blutgefäß schneidet,
  • 3 zeigt schematisch das erfindungsgemäße Verfahren anhand eines Flussdiagramms.
  • 1 zeigt schematisch eine Prinzipskizze bezüglich der dem erfindungsgemäßen Verfahren zugrundeliegenden Messanordnung anhand der die Erfindung erläutert wird. Vergleichend hierzu wird jeweils auf den zugehörigen Verfahrensschritt verwiesen. Die Verfahrensschritte des erfindungsgemäßen Verfahrens sind in 3 in Form eines Flussdiagramms veranschaulicht. Es wird jedoch darauf hingewiesen, dass das ei gentliche erfindungsgemäße Verfahren im Wesentlichen durch die Schritte S2 bis S4 gegeben ist.
  • Dem Anwender liegt entweder nur der 3D-Datensatz des zu untersuchenden bzw. zu behandelnden Patienten 1 vor oder zusätzlich der zu untersuchende bzw. zu behandelnde Patient 1 selbst bzw. ein ähnlich dimensioniertes geeignetes Phantom. Geeignet soll heißen, dass das Phantom der tatsächlichen Patientengeometrie in etwa entspricht (daher kann in 1 das Phantom auch mit dem Bezugszeichen 1 versehen sein). Der 3D-Datensatz des erwähnten Patienten 1 wird üblicherweise präoperativ gewonnenen, kann aber auch z.B. mit 3D-fähigen Röntgengeräten oder 3D-fähigen Ultraschallgeräten intraoperativ gewonnen werden. Mit dem Rechner 2 verbunden ist ein Bedien- oder Handhabungssystem 5, welches die aktuelle Position mechanisch, elektromagnetisch, optisch, usw. erfasst. Das System muss nicht mechanisch gekoppelt sein; es kann auch ein frei beweglicher Stab 3 sein, der ein medizinisches Instrument simuliert und der z.B. in einem magnetischen Messfeld bewegt wird. Mit einer dieser Ausprägungen des Bediensystems 5 ist es möglich, nach einer Registrierung des Bediensystems 5 bezüglich des 3D-Datensatzes auf Basis unterschiedlicher Kanal-Parameter und abhängig von der Orientierung des Bediensystems 5 einen virtuellen optischen Kanal des 3D-Datensatzes auszuschneiden und den so veränderten 3D-Datensatz auf dem Monitor 8 des Rechners 2 darzustellen. Um dem Anwender die Handhabung des Bediensystems 5 zu erleichtern bzw. die Situation so realistisch wie möglich zu machen, wird z.B. ein Navigationssystem verwendet, bei dem ein Navigationssensor 4 beispielsweise an dem hinteren Ende eines Stabes 3, der das später tatsächlich eingesetzte medizinische Instrument (Laparoskop, Endoskop) darstellen soll, fixiert ist, so dass das simulierte Instrument frei bewegt werden kann. In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens besteht auch die Möglichkeit, sogleich ein mit Navigationssensor 4 und einem bildgebenden Element (Kamera) 6 versehenes medizinisches Instrument 3 (Laparoskop oder Endoskop) einzu setzen. Dem Instrument 3 wird ein (Zugangs-) Kanal 7 zugeordnet dessen Parameter vom Anwender z.B. über den Rechner 2 – gemäß Schritt S2 im Flussdiagramm von 3 – eingestellt werden können und dessen Darstellung vorwegnimmt, welcher Kanal tatsächlich eröffnet wird, wenn das Instrument weiter vorgeschoben wird. Mögliche Parameter sind Kanaldurchmesser, Kanaltiefe, Form der Kanalwand (rund, eckig usw.), Form des Kanalbodens (planar, gewölbt, spitz usw.) etc.
  • Bei Annähern bzw. Aufsetzen des Instrumentes 3 auf den Patienten 1 bzw. auf das Phantom – gemäß Schritt S1 im Flussdiagramm von 3 – wird auf Basis der Kanalparameter der entsprechende Kanal 7 aus dem Patienten-zugehörigen 3D-Datensatz virtuell ausgeschnitten (Schritt S3 im Flussdiagramm). Auf dem Monitor 8 des Rechners 2 erfolgt – gemäß Schritt S4 im Flussdiagramm – eine künstliche und daher virtuelle Kanaldarstellung 9, die einen freien Durchblick auf tiefliegende Strukturen gewährt ohne dass ein tatsächlicher chirurgischer Eingriff (z.B. eine Resektion oder eine Biopsie) erfolgt. Auf diese Weise kann interaktiv und in Echtzeit durch Betrachtung der aktuellen Patientenanatomie ein möglicherweise schwieriger chirurgischer Eingriff virtuell in verschiedenen Varianten ohne Traumatisierung geplant werden.
  • Von besonderer Bedeutung ist die Aufsicht auf die Wände 10 des Kanals 7, die zeigt, welche Strukturen bzw. Organe beim Vordringen in die Tiefe des Patienten-Gewebes durchquert, im Falle einer Biopsie oder Resektion also durchschnitten würden. In 1 ist auf dem Monitor 8 des Rechners 2 beispielsweise ein runder Kanal 7 dargestellt der einerseits ein venöses oder arterielles Blutgefäß 11, andererseits ein rundliches Organ 12 (beispielsweise die Leber) anschneidet. Der Bereich A, der die Kamera 6 an der Instrumentenspitze sowie den virtuellen Kanal 7 enthält, ist in 2 vergrößert dargestellt. Das Organ 12 sowie das venöse bzw. arterielle Gefäß 11 wird virtuell angeschnitten. Aufgrund der spezifischen Gewebsdichte-Information aus dem Datensatz könnten je doch auch diese beispielsweise kontrastmittelgefüllten Blutgefäße oder die Leberoberfläche innerhalb des dynamisch verschiebbaren Kanals stehen gelassen werden, z.B. um einen Weg zur Umgehung zu finden. Gleichzeitig wird dargestellt wie in einem späteren tatsächlichen Eingriff die Kamera 6 des Instrumentes 3 den Kanalboden 13 und die Kanalwand 10 optisch erfassen würde. Im Folgenden jedoch soll hauptsächlich die virtuelle Kanaldarstellung beschrieben werden. Bei virtuellem Vorschub des Instrumentes 3, der entweder durch weiteres "Aufdrücken" des Instrumentes 3 auf den Patienten 1 bzw. das Phantom erfolgt, wird der Kanal 7 weiter in das Innere des Patienten gesenkt. Bei Schwenken des Instrumentes 3 kann der Kanal 7 virtuell gekippt werden; bei seitlichem parallelen Verschieben erfolgt ein virtueller seitlicher Versatz. Das Verändern der Instrumentenposition relativ zum Patienten bzw. zum Phantom ist im Flussdiagramm von 3 als Schritt S5 dargestellt. Nach dem Verändern der Instrumentenposition (S5) können die Kanalparameter neu eingestellt bzw. verändert werden. Gemäß Schritt S4 erfolgt ein erneutes Ausschneiden des virtuellen Kanals auf Basis der neuen Instrumentenposition und gegebenenfalls auf Basis der veränderten Kanalparameter. Der neue Kanal wird schließlich wiederum auf dem Monitor dargestellt (S5). Die zeitliche Abfolge der Schritte S2 bis S5 kann so schnell sein, dass die Kanaldarstellung am Monitor 8 filmartig erfolgt. Auf diese Weise ist es möglich als Inspektionstechnik eine bereits beschriebene "Fly-Through-Technik" zu simulieren, durch die in jeder Position mit einer definierten Objektivöffnung der Kamera 6 ein perspektivischer Blick auf die Kanalinnenflächen 10, 13 und auf eine vorausliegende Oberfläche in definierbarer Tiefe ermöglicht wird. Innerhalb des Kanals 7 ist es möglich, z.B. kontrastmittelgefüllte oder in einem bestimmten Dichtebereich selbst kontrastierende Objekte (z.B. Blutgefäße 11) stehen zu lassen, so dass man diese beispielsweise durch Variieren des Instrumentes 3 – also durch seitliches Verschieben oder "Vorbeischlängeln" in Abweichung von der geraden Linie des Kanals 7 – umgehen kann. Andere Strukturen innerhalb des Kanals können auch "milchglasähnlich", halbtransparent und/oder in verschiedenen Farben dargestellt werden, um die jeweils durchquerten Strukturen differenzieren zu können. Speziell zum "Vorbeischlängeln" kann der Kanaldurchmesser größer gewählt werden als der tatsächliche Durchmesser des (später) eingesetzen Instruments und kann optional der tatsächliche Instrumentendurchmesser bzw. das Instrument innerhalb des erweiterten Kanals angezeigt werden. Ist der interessierende Bereich A virtuell genügend erforscht bzw. begutachtet, so wird das Verfahren mit Schritt S6 beendet.
  • Wie bereits erwähnt sind erfindungsgemäß unterschiedliche interaktive Möglichkeiten (Knopf, Mausklick, etc.) vorgesehen, um das Kanalbild kontinuierlich zu variieren, also beispielsweise die Lage des Kanals 7 zu verschieben und seine Orientierung zu verändern, ihn zu verdrehen. Aus darstellungstechnischen Gründen (aus Kompatibilitätsgründen mit dem später verwendeten echten Instrument und aus Performance-Gründen mit der verfügbaren virtuellen Darstellungs-Hardware) kann auch die Querschnittsform des Kanals 7 verschieden definiert werden: kreisrund, elliptisch, dreieckig, rechteckig, beliebig unregelmäßig, usw. Wie bereits erwähnt ist auch die Kanalführung entlang eines geschlängelten Pfades vorgesehen.
  • Die Definition des Kanals 7 selbst erfolgt rechnerisch auf Basis des 3D-Datensatzes, auf Basis der Kanalparameter sowie auf Basis der Instrumentenposition, die durch das bereits erwähnte Navigationssystem 5 ermittelt wird. Auf diese Weise durchquert der Anwender das 3D-Volumen mit dem Instrument (bzw. dem Sensor 4) in der Hand virtuell. Im Eigentlichen jedoch definiert der Pfad des Sensors 4 (engl.: track) in Abhängigkeit der Kanalparameter den Kanal 7. In diesem Sinne wird die Positionierung eines Instrumentes nur simuliert. Der Querschnitt des später tatsächlich eingesetzten Instrumentes wird virtuell auf die Körperoberfläche oder im Körperinneren auf eine Organoberfläche projiziert. Die ermittelten Koordinaten des virtuellen Zugangskanals können dann letztendlich zur Ausrichtung des später tatsächlich benutzten Instrumentes (z.B. Laparoskop) dienen. Dabei ist insbesondere auch die Kombination des Instrumentes mit einem steuerbaren Robotersystem möglich. Mit einer Spezialanordnung, beispielsweise einer sensiblen Aufhängung des Sensors bzw. Instrumentes an einen mechanischen (Hebel-)Arm, ist es ebenso möglich auf Grund der Gewebe-Dichte-Werte der vorliegenden 3D-Daten eine haptische Rückkopplung zu bewirken, durch die der Anwender ein Gespür für das zu durchquerende Gewebe erhält. Darüber hinaus kann auch ein Matching der Kanaloberfläche mit den 3D-Daten durchgeführt werden, so dass sich aus den 3D-Daten die Distanz ergibt. Mit den genauen geometrischen Kenntnissen kann eine identische Oberfläche des Organabschnittes aus 3D-Daten entsprechend dem Instrumentenbild skaliert und mit diesem überlagert (engl.: matched) werden. Dabei wird dem Instrumentenbild die 3D-Darstellung mit geeigneter Farb- und Transparenzwahl überblendet.
  • Folgendes Ausführungsbeispiel soll das erfindungsgemäße Verfahren erläutern:
    Ein rückwärtig am rechten unteren Leberlappen sitzender Tumor soll im Rahmen eines chirurgischen Eingriffs entfernt werden. Dazu ist eine vorangehende Laparoskopie notwendig die auf Basis des erfindungsgemäßen Verfahrens zunächst virtuell durchgeführt wird. Es liegt eine dreidimensionale präoperative CT-Aufnahme des Bauchraums vor. Es sollen die unter der Haut befindlichen Organe dargestellt werden die im Zuge der späteren realen Laparoskopie der Leber durchquert werden müssen. Als Basistechnik wird VR (Volume-Rendering) verwendet. Die Grund-Transferfunktion wird auf Grau eingestellt. Der einheitliche Dichtewert der Blutgefäße wird rot eingefärbt. Der Tumor wird ausgehend von beispielsweise einer MPR-Ebenen-Darstellung selektiert (z.B. angeklickt) und in den 3D-Originaldaten grün eingefärbt.
  • Entsprechend dem späteren OP-Instrument (starres Laparoskop) wird der Querschnitt des Zugangskanals rund angelegt. Um das Verfahren den späteren realen Bedingungen anzugleichen kann ein Instrumenten-ähnlicher Stab verwendet werden der einen Navigationssensor aufweist. Genauso kann aber auch gleich ein Endoskop oder Laparoskop verwendet werden. Der Kanal selbst bekommt einen in Verlängerung des Stabes bzw. des reellen Instrumentes geraden Verlauf. Die Navigation erfolgt beispielsweise mit einem magnetischen Navigationssystem. Es wird ein Vorhalt so definiert, dass zunächst ein Kanal von z.B. 5cm Länge bzw. Tiefe dargestellt wird. Der Anwender geht mit dem Stab senkrecht auf die Bauchdecke des Patienten bzw. eines Phantoms zu. Dies wird auf dem Monitor des verwendeten Rechners durch eine 3D-VR-Darstellung des CT-Volumens visualisiert. Alle Positionen und Orientierungen des Stabes bzw. des Instrumentes und damit des Navigationssensors werden im Rechner kontinuierlich in standardisierten DICOM-Koordinaten dokumentiert (DICOM standardisiert die radiologische Bildgebung).
  • Bei Annäherung des Stabes an die Bauchdecke auf unter 5cm wird aufgrund des Vorhalts begonnen, virtuell ein Loch definierten Durchmessers (Trokarpunkt, ca. 1cm2) auszuschneiden. Bei weiterer Annäherung wird das Loch (der Kanal) weiter in die Tiefe bewegt. Die Kanaltiefe kann durch den Anwender interaktiv (mittels Knopf, Maus, etc.) verändert werden. Auf diese Weise kann er geradlinig in weitere Tiefen vordringen und dabei sorgfältig an den Kanalwänden beobachten, wie Schichten von Bindegewebe, Muskeln, Darm, usw. durchquert würden, sofern sie nicht aufgrund ihrer Elastizität zur Seite gedrückt würden. Blutgefäße werden rot dargestellt und möglicherweise innerhalb des Kanals stehen gelassen, d.h. nicht ausgeschnitten. Durch seitliches Verschieben/Versetzen des Stabes und damit des Kanals ist der Anwender in der Lage an wichtigen, großen Gefäßen (beispielsweise an diversen Blutgefäßen) vorbeizukommen ohne diese zu verletzen. Schließlich erreicht der Anwender durch weiteres Vordringen die Leber, deren Gewebe zur besseren Differenzierung beispielsweise milchglasähnlich in Gelb dargestellt wird, bis letztendlich in Grün die Tumor-Oberfläche erscheint. Der gesamte grüne Bereich wird umfahren, um Koordinaten für den nachfolgenden chirurgischen Eingriff (z.B. im Rahmen einer Resektion) zu ermitteln. Im Bereich der Leber ist es besonders wichtig, alle Blutgefäße (stets in rot dargestellt) zu beachten, da durch ein Durchtrennen derselben die entsprechenden Lebersegmente ebenfalls mitgeopfert würden.
  • Nach Gewinnung sämtlicher Detail-Informationen wird sich der Anwender wieder zurückziehen, um etwa mit größerem Vorhalt (z.B. 10–15cm) den gesamten Kanalweg zu begutachten. Dafür soll dem Anwender die Möglichkeit der stufenlosen Verstellung des Vorhalts gegeben sein, ebenso wie die Möglichkeit die virtuelle Weite des Kanals kontinuierlich zu verstellen, um eine weiträumigere Darstellung erhalten zu können. Letzteres ist auch deshalb sinnvoll, da im Bauchraum stets eine gewisse Verschiebbarkeit der Organe zu erwarten ist. Zuletzt – eventuell nach mehreren Variationen und Iterationen – geht der Anwender wieder auf die anfängliche Kanaldimension zurück und überprüft nochmals den Zugang so, wie er ihn optimalerweise realisieren wird.
  • In der tatsächlichen Anwendung wird ebenfalls auf die präoperativ gewonnenen DICOM-Daten zurückgegriffen. Diese werden beispielweise kontinuierlich als "Soll-Positionen" angezeigt bzw. wird die Differenz zu den realen Daten mitgeteilt. Dabei ist auch eine Ansteuerung der Instrumentes durch ein Robotersystem denkbar. Möglich ist auch eine abwechselnde Darstellung des präoperativen Kanalbildes und des intraoperativen tatsächlichen Laparoskop-Bildes wenn nicht gar eine Überlagerung der beiden Aufnahmen gewünscht und realisiert ist.

Claims (25)

  1. System zur Erzeugung eines virtuellen Zugangskanals in me dizinischen 3D-Bildern, aufweisend – einen Rechner (2) mit Monitor (8), – eine positions- und orientierungserfassende Bedieneinheit (5), wobei der Rechner (2) einen präoperativ-gewonnenen 3D-Datensatz eines zu untersuchenden Patienten enthält und als 3D-Bild darstellen kann und mit der Bedieneinheit (5) so verbunden ist, dass auf Basis einer Registrierung zwischen der Bedieneinheit (5) und dem 3D-Datensatz sowie auf Basis unterschiedlicher Kanal-Parameter ein virtueller optischer Kanal (7) des 3D-Datensatzes ausgeschnitten und auf dem Monitor (8) des Rechners (2) dargestellt wird.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass die Bedieneinheit (5) ein mechanisches Gelenksystem oder ein Navigationssystem oder einen instrumentenförmigen Stab mit Navigationssensor bzw. mit optischer oder magnetischer Markierung oder ein Standard-Computer-Eingabesystem darstellt.
  3. System nach Anspruch 1 bis 2, dadurch gekennzeichnet, dass in dem virtuellen Kanal selektierte Gefäße bzw. Organe des 3D-Datensatzes stehen gelassen werden und somit innerhalb des Kanals dargestellt werden bzw. in den Kanal hineinragen.
  4. System nach Anspruch 1 bis 3, dadurch gekennzeichnet, dass der zuvor aufgenommene 3D-Datensatz mit Magnetresonanztomographie-, Computertomographie-, Ultraschall-, Positronen-Emissions-Tomographie- oder nuklearmedizinischen Verfahren aufgenommen ist.
  5. System nach Anspruch 1 bis 4, dadurch gekennzeichnet, dass das virtuelle Ausschneiden rechnerisch und automatisch mittels einem Algorithmus auf dem Rechner (2) erfolgt.
  6. System nach Anspruch 1 bis 5, dadurch gekennzeichnet, dass die Kanalparameter den Kanaldurchmesser, die Kanaltiefe, die Form der Kanalwand sowie die Form des Kanalbodens betreffen.
  7. System nach Anspruch 1 bis 6, dadurch gekennzeichnet, dass ein medizinisches Instrument in den virtuellen Kanal eingeblendet wird.
  8. System nach Anspruch 7, dadurch gekennzeichnet, dass die Bewegung des virtuellen Kanals und des eingeblendeten Instrumentes auf Basis einer zweiten positions- und orientierungserfassenden Bedieneinheit unabhängig erfolgt.
  9. System nach Anspruch 2 bis 8, dadurch gekennzeichnet, dass das mechanische Gelenksystem ein Roboterarm ist.
  10. System nach Anspruch 2 bis 9, dadurch gekennzeichnet, dass über die Mechanik des Gelenksystems sowie auf Basis einer Gewebedichtekarte des 3D-Datensatzes eine haptische Rückkopplung erfolgt.
  11. System nach Anspruch 1 bis 10, dadurch gekennzeichnet, dass Bilder des virtuellen Kanals (7) mit entsprechenden intraoperativen realen Bildern gekoppelt dargestellt werden.
  12. System nach Anspruch 11, dadurch gekennzeichnet, dass die intraoperativen realen Bilder mittels laparoskopischen, kolonoskopischen oder endoskopischen Verfahren und/oder mit Ultraschall aufgenommen werden.
  13. Verfahren zur Erzeugung eines virtuellen Zugangskanals in medizinischen 3D-Bildern gekennzeichnet durch folgende Schritte: – virtuelles Ausschneiden (S3) eines optischen Kanals (7) auf Basis eines zuvor aufgenommenen 3D-Datensatzes eines Patienten (1), auf Basis eingestellter Kanalparameter sowie auf Basis einer relativ zu dem 3D-Datensatz registrierten positions- und orientierungserfassenden Bedieneinheit (5), – Darstellen (S4) des virtuellen Kanals (7) auf dem Monitor (8) eines Rechners (2), – Wiederholen der Schritte des virtuellen Ausschneidens (S3) und des Darstellens (S4) bis ein interessierender Bereich (A) des 3D-Datensatzes erfasst worden ist.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass als Bedieneinheit (5) ein mechanisches Gelenksystem oder ein Navigationssystem oder ein instrumentenförmiger Stab mit Navigationssensor bzw. mit optischer oder magnetischer Markierung oder ein Standard-Computer-Eingabesystem verwendet wird.
  15. Verfahren nach Anspruch 13 bis 14, dadurch gekennzeichnet, dass in dem virtuellen Kanal selektierte Gefäße bzw. Organe des 3D-Datensatzes stehen gelassen werden und somit innerhalb des Kanals dargestellt werden bzw. in den Kanal hineinragen.
  16. Verfahren nach Anspruch 13 bis 15, dadurch gekennzeichnet, dass der zuvor aufgenommene 3D-Datensatz mit Magnetresonanztomographie-, Computertomographie-, Ultraschall-, Positronen-Emissions-Tomographie- oder nuklearmedizinischen Verfahren aufgenommen wurde.
  17. Verfahren nach Anspruch 13 bis 16, dadurch gekennzeichnet, dass das virtuelle Ausschneiden (S3) rechnerisch und automatisch mittels einem Algorithmus auf einem Rechner (2) erfolgt.
  18. Verfahren nach Anspruch 13 bis 17, dadurch gekennzeichnet, dass die Kanalparameter den Kanaldurchmesser, die Kanaltiefe, die Form der Kanalwand sowie die Form des Kanalbodens betreffen.
  19. Verfahren nach Anspruch 15 bis 18, dadurch gekennzeichnet, dass das Registrieren der Bedieneinheit (5) relativ zu dem 3D-Datensatz durch ein Navigationssystem erfolgt.
  20. Verfahren nach Anspruch 13 bis 19, dadurch gekennzeichnet, dass ein medizinisches Instrument in den virtuellen Kanal eingeblendet wird.
  21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass die Bewegung des virtuellen Kanals und des eingeblendeten Instrumentes auf Basis einer zweiten positions- und orientierungserfassenden Bedieneinheit unabhängig erfolgt.
  22. Verfahren nach Anspruch 14 bis 21, dadurch gekennzeichnet, dass als mechanisches Gelenksystem ein Roboterarm verwendet wird.
  23. Verfahren nach Anspruch 14 bis 22, dadurch gekennzeichnet, dass über die Mechanik des Gelenksystems sowie auf Basis einer Gewebedichtekarte des 3D-Datensatzes eine haptische Rückkopplung erfolgt.
  24. Verfahren nach Anspruch 13 bis 23, dadurch gekennzeichnet, dass Bilder des virtuellen Kanals (7) mit entsprechenden intraoperativen realen Bildern gekoppelt dargestellt werden.
  25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass die intraoperativen realen Bilder mittels laparoskopischen, kolonoskopischen oder endoskopischen Verfahren und/oder mit Ultraschall aufgenommen werden.
DE10334074A 2003-07-25 2003-07-25 System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern Ceased DE10334074A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE10334074A DE10334074A1 (de) 2003-07-25 2003-07-25 System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern
US10/897,674 US7844474B2 (en) 2003-07-25 2004-07-23 System and method for the creation of a virtual observation and access channel in medical 3D images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10334074A DE10334074A1 (de) 2003-07-25 2003-07-25 System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern

Publications (1)

Publication Number Publication Date
DE10334074A1 true DE10334074A1 (de) 2005-02-24

Family

ID=34088837

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10334074A Ceased DE10334074A1 (de) 2003-07-25 2003-07-25 System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern

Country Status (2)

Country Link
US (1) US7844474B2 (de)
DE (1) DE10334074A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005028744A1 (de) * 2005-06-21 2006-12-28 Siemens Ag Verfahren zum Führen eines chirurgischen Instruments
DE102010015060A1 (de) * 2010-04-15 2011-10-20 Siemens Aktiengesellschaft Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102010042372A1 (de) * 2010-10-13 2012-04-19 Kuka Laboratories Gmbh Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
DE102011005237A1 (de) * 2011-03-08 2012-09-13 Siemens Aktiengesellschaft Selektive Visualisierung eines 3-dimensionalen Volumendatensatzes
DE102012206350A1 (de) * 2012-04-18 2013-10-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Betreiben eines Roboters

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004008164B3 (de) * 2004-02-11 2005-10-13 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums
US8795195B2 (en) 2004-11-29 2014-08-05 Senorx, Inc. Graphical user interface for tissue biopsy system
EP2449544B1 (de) * 2009-06-29 2018-04-18 Koninklijke Philips N.V. Tumorablations-trainingssystem
DE102010062340A1 (de) * 2010-12-02 2012-06-06 Siemens Aktiengesellschaft Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
US20150238167A1 (en) * 2012-03-22 2015-08-27 Gamma Medical Technologies, Llc Dual modality endocavity biopsy imaging system and method
CN104885028B (zh) * 2013-03-05 2018-03-27 奥林巴斯株式会社 操作输入装置和主从系统
JP6049202B2 (ja) * 2013-10-25 2016-12-21 富士フイルム株式会社 画像処理装置、方法、及びプログラム
US11617623B2 (en) * 2014-01-24 2023-04-04 Koninklijke Philips N.V. Virtual image with optical shape sensing device perspective
JP6689850B2 (ja) 2014-11-26 2020-04-28 デビコー・メディカル・プロダクツ・インコーポレイテッドDevicor Medical Products, Inc. 生検装置のグラフィックユーザインタフェース
CN110464365B (zh) * 2018-05-10 2022-08-12 深圳先进技术研究院 一种关注度确定方法、装置、设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4117117A1 (de) * 1991-05-25 1992-11-26 Hoehne Karl Heinz Prof Dr Dreidimensionale darstellung von raeumlichen strukturen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
US6256529B1 (en) * 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4117117A1 (de) * 1991-05-25 1992-11-26 Hoehne Karl Heinz Prof Dr Dreidimensionale darstellung von raeumlichen strukturen

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DARIO, P. et al: A novel mechatronic tool for computer-assisted arthroscopy. IEEE Trans. on Information Technology in Biomedicine, Vol. 4, No. 1, March 2000, S. 15-19 *
HUBBOLD, R.J. et al : Stereo display of nested 3D volume data using automatic tunnelling. Proc. Electronic Imaging '99, Conf. on Stereosco- pic Displays and Applications, Vol. 3639, Jan. 1999, S. 200-207 (recherchiert am 30.04.04). Im Internet: <URL http://www.csman.ac.uk/aig/asd/publications.html> *
HUBBOLD, R.J.; HANCOCK, D.J.: Stereo display of nested 3D volume data using automatic tunnelling. Proc. Electronic Imaging '99, Conf. on Stereosco- pic Displays and Applications, Vol. 3639, Jan. 1999, S. 200-207 (recherchiert am 30.04.04). Im Internet: <URL http://www.csman.ac.uk/aig/asd/p ublications.html>
ROBB, R.A. et al : Interactive Display and Analysis of 3-D Medical Images. IEEE Trans. On Medical Imaging, Vol. 8, No. 3, Sept. 1989, S. 217-226 *
ROBB, R.A.; BARILLOT, G.: Interactive Display and Analysis of 3-D Medical Images. IEEE Trans. On Medical Imaging, Vol. 8, No. 3, Sept. 1989, S. 217-226

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005028744A1 (de) * 2005-06-21 2006-12-28 Siemens Ag Verfahren zum Führen eines chirurgischen Instruments
DE102010015060A1 (de) * 2010-04-15 2011-10-20 Siemens Aktiengesellschaft Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102010042372A1 (de) * 2010-10-13 2012-04-19 Kuka Laboratories Gmbh Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
DE102011005237A1 (de) * 2011-03-08 2012-09-13 Siemens Aktiengesellschaft Selektive Visualisierung eines 3-dimensionalen Volumendatensatzes
DE102012206350A1 (de) * 2012-04-18 2013-10-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Betreiben eines Roboters

Also Published As

Publication number Publication date
US7844474B2 (en) 2010-11-30
US20050058326A1 (en) 2005-03-17

Similar Documents

Publication Publication Date Title
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE19914455B4 (de) Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
EP0975257B1 (de) Endoskopisches system
EP2236104B1 (de) Medizintechnische Navigations-Bildausgabe mit virtuellen Primärbildern und realen Sekundärbildern
DE60018247T2 (de) System und Methode zur Verwendung mit bildgebenden Verfahren zur Erleichterung der Planung von chirurgischen Eingriffen
DE102011083522B4 (de) Verfahren und Vorrichtung zur Visualisierung der Qualität eines Ablationsvorgangs
DE19842239A1 (de) Medizintechnische Einrichtung
DE102008002864A1 (de) Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE10009166A1 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE10334074A1 (de) System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
DE10015826A1 (de) System und Verfahren zur Erzeugung eines Bildes
DE102008002850A1 (de) Verfahren zur Anwendung eines Bildgebungs- und Navigationssystems
DE102014203097A1 (de) Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung
EP2606825A1 (de) Bilderzeugungsapparat und -methode zur Nuklearbildgebung
EP3184071A1 (de) Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
DE102005035929A1 (de) Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens
EP4213755B1 (de) Chirurgisches assistenzsystem
DE102005029903A1 (de) Verfahren und Vorrichtung zur 3D-Navigation auf Schichtbildern
DE19951502A1 (de) System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild
EP3598948A1 (de) Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher
DE102013004843A1 (de) Medizinisches Simulationssystem, Methode und Verwendung
DE102010042372A1 (de) Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R008 Case pending at federal patent court
8125 Change of the main classification

Ipc: G06T 15/00 AFI20051017BHDE

R084 Declaration of willingness to licence
R084 Declaration of willingness to licence

Effective date: 20120113

R010 Appeal proceedings settled by withdrawal of appeal(s) or in some other way
R003 Refusal decision now final

Effective date: 20140331