DE10334074A1 - System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern - Google Patents
System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern Download PDFInfo
- Publication number
- DE10334074A1 DE10334074A1 DE10334074A DE10334074A DE10334074A1 DE 10334074 A1 DE10334074 A1 DE 10334074A1 DE 10334074 A DE10334074 A DE 10334074A DE 10334074 A DE10334074 A DE 10334074A DE 10334074 A1 DE10334074 A1 DE 10334074A1
- Authority
- DE
- Germany
- Prior art keywords
- channel
- virtual
- data set
- computer
- virtual channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/46—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/742—Joysticks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/58—Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
- A61B6/582—Calibration
- A61B6/583—Calibration using calibration phantoms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4209—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
- A61B8/4218—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/58—Testing, adjusting or calibrating the diagnostic device
- A61B8/587—Calibration phantoms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Abstract
Die
vorliegende Erfindung bezieht sich auf ein System zur Erzeugung
eines virtuellen Zugangskanals in medizinischen 3-D-Bildern, aufweisend
- einen Rechner (2) mit Monitor (8),
- eine positions- und orientierungserfassende Bedieneinheit (5),
wobei der Rechner (2) einen präoperativ-gewonnenen 3-D-Datensatz eines zu untersuchenden Patienten enthält und als 3-D-Bild darstellen kann und mit der Bedieneinheit (5) so verbunden ist, dass auf Basis einer Registrierung zwischen der Bedieneinheit (5) und dem 3-D-Datensatz sowie auf Basis unterschiedlicher Kanal-Parameter ein virtueller optischer Kanal (7) des 3-D-Datensatzes ausgeschnitten und auf dem Monitor (8) des Rechners (2) dargestellt wird.
- einen Rechner (2) mit Monitor (8),
- eine positions- und orientierungserfassende Bedieneinheit (5),
wobei der Rechner (2) einen präoperativ-gewonnenen 3-D-Datensatz eines zu untersuchenden Patienten enthält und als 3-D-Bild darstellen kann und mit der Bedieneinheit (5) so verbunden ist, dass auf Basis einer Registrierung zwischen der Bedieneinheit (5) und dem 3-D-Datensatz sowie auf Basis unterschiedlicher Kanal-Parameter ein virtueller optischer Kanal (7) des 3-D-Datensatzes ausgeschnitten und auf dem Monitor (8) des Rechners (2) dargestellt wird.
Description
- Die vorliegende Erfindung betrifft ein Verfahren zur Erzeugung eines virtuellen Zugangskanals in einem mit beliebiger Bildgebungsmodalität präoperativ oder intraoperativ aufgenommenen 3D-Bild eines zu untersuchenden Patienten. Die Erfindung dient insbesondere der Planung und Unterstützung von minimal invasiven Eingriffen.
- In zunehmendem Maß erfolgen Untersuchungen und Behandlungen eines erkrankten Patienten minimal-invasiv, d.h. mit möglichst geringer Traumatisierung des Patienten. Beispielsweise wird die Diagnostik bzw. ein Eingriff in der so genannten "Schlüssellochchirurgie" mit Endoskopen oder Laparoskopen durchgeführt. Endoskope und Laparoskope werden über eine kleine Körperöffnung in den Untersuchungsbereich des Patienten eingeführt und liefern überwiegend optische Bilder (Videobilder), z.Teil auch bereits andere Bilder wie z.B. Ultraschallscans "vor Ort" (siehe z.B. den laparoskopischen Ultraschall). Speziell das Endoskop dient zur Untersuchung von natürlich zugänglichen Körperhohlräumen wie z.B. Speiseröhre, Darm oder im Rahmen einer kleinen Punktion zur Untersuchung von Blutgefäßen. Eine endoskopische Untersuchung des Darmes bezeichnet man auch als Kolonoskopie bzw. Koloskopie.
- In diesem Zusammenhang gibt es für die Maßnahmenplanung und für eine noch weniger invasive Diagnose die Möglichkeit der virtuellen Endoskopie, der virtuellen Kolonoskopie sowie der virtuellen Laparoskopie. Dabei geht es darum, tatsächlich vorhandene Körperhohlräume virtuell auf Basis von 3D-Aufnahmen darzustellen und auch quasi zu durchfliegen. Ein derartiges Verfahren wird auch als "Fly-Through-Technik" bezeichnet. Die einem solchen Verfahren zugrundeliegenden 3D-Aufnahmen werden üblicherweise präoperativ mit modernen hoch auflösenden Bildgebungsverfahren akquiriert, beispielsweise mit Computertomographie (CT), Magnetresonanztomographie (MRT), Positronen-Emissionstomographie (PET), nuklearmedizinischen Bildgebungsverfahren, (C-Bogen-)Röntgen-Verfahren oder Ultraschall (US). Bei derzeitigen virtuellen Untersuchungsverfahren ist man ausschließlich darauf bedacht, die Organ-Morphologie räumlich darzustellen. Eine solche Darstellung erfolgt z.B. eher zweidimensional auf entsprechend ausgewählten Schichten im Rahmen des bekannten multiplanaren-Reformatierungs-Verfahrens (MPR-Verfahren) oder dreidimensional im Rahmen von MIP-Darstellungen (Maximum-Intensity-Projections), bei denen z.B. kontrastmittelgefüllte Gefäße hervorgehoben werden. Ein Fly-Through erfolgt meist auf Basis einer 3D- SSD-Darstellung (Shaded-Surface-Display) oder einer 3D- VR-Darstellung (Volume-Rendering). Dies erfordert im Allgemeinen eine spezielle Segmentierung z.B. der Gefäßwände, bevor eine klare Darstellung im Fly-Through möglich ist. Diese Segmentierung bzw. (innere) Oberflächendarstellung geht über die generische Segmentierung der SSD-Verfahren hinaus. Auch bei VR-ähnlichen Fly-Through-Darstellungen ist hier, anders als bei konventionellem Volumen-Rendering, eine Art Segmentierung vonnöten, allein schon unter dem Aspekt, dass bei diesem virtuellen Flug nicht die Gefäßwände "durchstoßen" werden.
- Aus chirurgischer Anwendersicht ist es dringend gewünscht auf eine aufwändige Segmentierung verzichten zu können und ein dynamischeres virtuelles Verfahren zu verwenden.
- Aufgabe der vorliegenden Erfindung ist es daher, ein System und ein Verfahren zur virtuellen Darstellung des Körperinneren bereitzustellen, die eine flexiblere Darstellung ermöglichen und sich nicht an der absolut korrekten Erkennung anatomischer Gegebenheiten orientieren müssen, was beim heutigen Stand der Computertechnik nicht absolut verlässlich ist.
- Diese Aufgabe wird gemäß der Erfindung durch die Merkmale der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken der Erfindung in besonders vorteilhafter Weise weiter.
- Erfindungsgemäß wird also ein System zur Erzeugung eines virtuellen Zugangskanals in medizinischen 3D-Bildern beansprucht, aufweisend
- – einen Rechner mit Monitor,
- – eine positions- und orientierungserfassende Bedieneinheit,
- Auf dem Rechner ist erfindungsgemäß ein Datenauswahlverfahren implementiert, welches in der Umgebung der aktuellen virtuellen Position der Bedieneinheit im 3D-Datensatz, also z.B.
- "seitlich und vor dem Instrument" Daten dynamisch ausblendet und damit den genannten virtuellen Beobachtungs- und Zugangskanal erzeugt.
- Im allgemeinen Fall stellt die Bedieneinheit erfindungsgemäß ein mechanisches Gelenksystem oder ein Navigationssystem oder einen instrumentenförmigen Stab mit Navigationssensor bzw. mit optischer oder magnetischer Markierung oder ein Standard-Computer-Eingabesystem dar.
- Über die Bedieneinheit kann die Darstellung des virtuellen Kanals beeinflusst werden. Im einfachsten Fall besteht die Bedieneinheit als Standard-Computer-Eingabesystem aus entsprechenden Funktionstasten der Rechner-Tastatur, einer Computermaus oder aus einem 3D-Griffel. Eine Modifikation des 3D-Griffels kann durch die Simulation eines medizinischen Instrumentes wie z.B. eines Laparoskops erfolgen. Mit einem 3D-Griffel-ähnlichen 3D-Eingabegerät ist auf einfache Weise eine Ortsregistrierung und eine kontinuierliche Positionserfassung bezogen auf den 3D-Datensatz und somit die 3D-Darstellung zu realisieren.
- Über die Bedienung mit der Maus, dem 3D-Griffel oder der optischen oder magnetischen Navigation bewegt sich der virtuelle Kanal kontinuierlich mit und erlaubt somit die schnelle Suche einer optimalen Ansicht bzw. die Suche eines optimalen, wirklich minimal invasiven Zugangskanals für die spätere wirkliche Intervention z.B, in der Laparoskopie, Stereotaxie oder Brachytherapie.
- Vorteilhafterweise ist der zuvor aufgenommene 3D-Datensatz mit hochauflösender Bildgebungsmodalität wie beispielsweise mit Magnetresonanztomographie-, Computertomographie-, Ultraschall-, Positronenemissionstomographie- oder nuklearmedizinischen Verfahren aufgenommen.
- Erfindungsgemäß erfolgt das virtuelle Ausschneiden rechnerisch und automatisch mittels einem Algorithmus auf dem Rechner.
- Die Kanalparameter betreffen sinnvollerweise den Kanaldurchmesser, die Kanaltiefe, die Form der Kanalwand sowie die Form des Kanalbodens.
- Das erfindungsgemäße System ermöglicht ein Einblenden eines medizinischen Instrumentes in den virtuellen Kanal.
- Vorteilhaft erfolgt dabei die Bewegung des virtuellen Kanals und des eingeblendeten Instrumentes auf Basis einer zweiten positions- und orientierungserfassenden Bedieneinheit voneinander unabhängig.
- Vorteilhafterweise kann das mechanische Gelenksystem ein Roboterarm sein Über die Mechanik des Gelenksystems sowie auf Basis einer Gewebsdichtekarte des 3D-Datensatzes kann erfindungsgemäß eine haptische Rückkopplung erfolgen, durch die dem Anwender ein Gefühl für das im späteren tatsächlichen Eingriff zu durchstechende bzw. durchtrennende bzw. besser nicht zu verletzende Gewebe gegeben wird. Z.B. sollen große Blutgefäße in keinem Fall beeinträchtigt sondern höchstens vorsichtig beiseite geschoben werden.
- Im Rahmen eines optimierten und geplanten operativen Eingriffs ist es unter Umständen vorteilhaft die Bilder des virtuellen Kanals mit entsprechenden intraoperativen realen Bildern gekoppelt darzustellen. Gekoppelt soll heißen: neben- oder übereinander bzw. überblendet (fusioniert).
- Erfindungsgemäß werden die intraoperativen realen Bilder mittels laparoskopischen, kolonoskopischen oder endoskopischen Verfahren und/oder mit Ultraschall aufgenommen.
- Ferner wird im Rahmen der vorliegenden Erfindung ein Verfahren beansprucht zur Erzeugung eines virtuellen Zugangskanals in medizinischen 3D-Bildern gekennzeichnet durch folgende Schritte:
- – virtuelles Ausschneiden eines optischen Kanals auf Basis eines zuvor aufgenommenen 3D-Datensatzes eines Patienten, auf Basis eingestellter Kanalparameter sowie auf Basis einer relativ zu dem 3D-Datensatz registrierten positions- und orientierungserfassenden Bedieneinheit,
- – Darstellen des virtuellen Kanals auf dem Monitor eines Rechners,
- – Wiederholen der Schritte des virtuellen Ausschneidens und des Darstellens (auch als kontinuierlicher Prozess) bis ein interessierender Bereich des 3D-Datensatzes erfasst worden ist.
- Weitere Unteransprüche schließen sich an und bilden den zentralen Gedanken des erfindungsgemäßen Verfahrens vorteilhaft weiter.
- Weitere Vorteile, Merkmale und Eigenschaften der vorliegenden Erfindung werden nun anhand von Ausführungsbeispielen bezugnehmend auf die begleitenden Zeichnungen näher erläutert.
-
1 zeigt schematisch eine Prinzipskizze des erfindungsgemäßen Systems bei dem ein mit einem Rechner verbundenes Bedien- bzw. Handhabungssystem die Position und Orientierung eines gedachten (virtuellen) medizinischen Instrumentes relativ zu einem ebenfalls virtuellen oder echten Patienten oder zu einem Phantom erfasst und dazu passend einen Ausschnitt eines auf dem Rechner vorliegenden 3D-Datensatzes des Patienten dreidimensional darstellt, wobei rein rechnerisch ein virtueller Kanal entlang und vor dem Instrument herausgeschnitten und auf dem Monitor des Rechners dargestellt wird, -
2 zeigt in Form der Einzelheit A einen vergrößerten Schnitt durch den virtuellen Kanal der ein Organ sowie ein Blutgefäß schneidet, -
3 zeigt schematisch das erfindungsgemäße Verfahren anhand eines Flussdiagramms. -
1 zeigt schematisch eine Prinzipskizze bezüglich der dem erfindungsgemäßen Verfahren zugrundeliegenden Messanordnung anhand der die Erfindung erläutert wird. Vergleichend hierzu wird jeweils auf den zugehörigen Verfahrensschritt verwiesen. Die Verfahrensschritte des erfindungsgemäßen Verfahrens sind in3 in Form eines Flussdiagramms veranschaulicht. Es wird jedoch darauf hingewiesen, dass das ei gentliche erfindungsgemäße Verfahren im Wesentlichen durch die Schritte S2 bis S4 gegeben ist. - Dem Anwender liegt entweder nur der 3D-Datensatz des zu untersuchenden bzw. zu behandelnden Patienten
1 vor oder zusätzlich der zu untersuchende bzw. zu behandelnde Patient1 selbst bzw. ein ähnlich dimensioniertes geeignetes Phantom. Geeignet soll heißen, dass das Phantom der tatsächlichen Patientengeometrie in etwa entspricht (daher kann in1 das Phantom auch mit dem Bezugszeichen1 versehen sein). Der 3D-Datensatz des erwähnten Patienten1 wird üblicherweise präoperativ gewonnenen, kann aber auch z.B. mit 3D-fähigen Röntgengeräten oder 3D-fähigen Ultraschallgeräten intraoperativ gewonnen werden. Mit dem Rechner2 verbunden ist ein Bedien- oder Handhabungssystem5 , welches die aktuelle Position mechanisch, elektromagnetisch, optisch, usw. erfasst. Das System muss nicht mechanisch gekoppelt sein; es kann auch ein frei beweglicher Stab3 sein, der ein medizinisches Instrument simuliert und der z.B. in einem magnetischen Messfeld bewegt wird. Mit einer dieser Ausprägungen des Bediensystems5 ist es möglich, nach einer Registrierung des Bediensystems5 bezüglich des 3D-Datensatzes auf Basis unterschiedlicher Kanal-Parameter und abhängig von der Orientierung des Bediensystems5 einen virtuellen optischen Kanal des 3D-Datensatzes auszuschneiden und den so veränderten 3D-Datensatz auf dem Monitor8 des Rechners2 darzustellen. Um dem Anwender die Handhabung des Bediensystems5 zu erleichtern bzw. die Situation so realistisch wie möglich zu machen, wird z.B. ein Navigationssystem verwendet, bei dem ein Navigationssensor4 beispielsweise an dem hinteren Ende eines Stabes3 , der das später tatsächlich eingesetzte medizinische Instrument (Laparoskop, Endoskop) darstellen soll, fixiert ist, so dass das simulierte Instrument frei bewegt werden kann. In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens besteht auch die Möglichkeit, sogleich ein mit Navigationssensor4 und einem bildgebenden Element (Kamera)6 versehenes medizinisches Instrument3 (Laparoskop oder Endoskop) einzu setzen. Dem Instrument3 wird ein (Zugangs-) Kanal7 zugeordnet dessen Parameter vom Anwender z.B. über den Rechner2 – gemäß Schritt S2 im Flussdiagramm von3 – eingestellt werden können und dessen Darstellung vorwegnimmt, welcher Kanal tatsächlich eröffnet wird, wenn das Instrument weiter vorgeschoben wird. Mögliche Parameter sind Kanaldurchmesser, Kanaltiefe, Form der Kanalwand (rund, eckig usw.), Form des Kanalbodens (planar, gewölbt, spitz usw.) etc. - Bei Annähern bzw. Aufsetzen des Instrumentes
3 auf den Patienten1 bzw. auf das Phantom – gemäß Schritt S1 im Flussdiagramm von3 – wird auf Basis der Kanalparameter der entsprechende Kanal7 aus dem Patienten-zugehörigen 3D-Datensatz virtuell ausgeschnitten (Schritt S3 im Flussdiagramm). Auf dem Monitor8 des Rechners2 erfolgt – gemäß Schritt S4 im Flussdiagramm – eine künstliche und daher virtuelle Kanaldarstellung9 , die einen freien Durchblick auf tiefliegende Strukturen gewährt ohne dass ein tatsächlicher chirurgischer Eingriff (z.B. eine Resektion oder eine Biopsie) erfolgt. Auf diese Weise kann interaktiv und in Echtzeit durch Betrachtung der aktuellen Patientenanatomie ein möglicherweise schwieriger chirurgischer Eingriff virtuell in verschiedenen Varianten ohne Traumatisierung geplant werden. - Von besonderer Bedeutung ist die Aufsicht auf die Wände
10 des Kanals7 , die zeigt, welche Strukturen bzw. Organe beim Vordringen in die Tiefe des Patienten-Gewebes durchquert, im Falle einer Biopsie oder Resektion also durchschnitten würden. In1 ist auf dem Monitor8 des Rechners2 beispielsweise ein runder Kanal7 dargestellt der einerseits ein venöses oder arterielles Blutgefäß11 , andererseits ein rundliches Organ12 (beispielsweise die Leber) anschneidet. Der Bereich A, der die Kamera6 an der Instrumentenspitze sowie den virtuellen Kanal7 enthält, ist in2 vergrößert dargestellt. Das Organ12 sowie das venöse bzw. arterielle Gefäß11 wird virtuell angeschnitten. Aufgrund der spezifischen Gewebsdichte-Information aus dem Datensatz könnten je doch auch diese beispielsweise kontrastmittelgefüllten Blutgefäße oder die Leberoberfläche innerhalb des dynamisch verschiebbaren Kanals stehen gelassen werden, z.B. um einen Weg zur Umgehung zu finden. Gleichzeitig wird dargestellt wie in einem späteren tatsächlichen Eingriff die Kamera6 des Instrumentes3 den Kanalboden13 und die Kanalwand10 optisch erfassen würde. Im Folgenden jedoch soll hauptsächlich die virtuelle Kanaldarstellung beschrieben werden. Bei virtuellem Vorschub des Instrumentes3 , der entweder durch weiteres "Aufdrücken" des Instrumentes3 auf den Patienten1 bzw. das Phantom erfolgt, wird der Kanal7 weiter in das Innere des Patienten gesenkt. Bei Schwenken des Instrumentes3 kann der Kanal7 virtuell gekippt werden; bei seitlichem parallelen Verschieben erfolgt ein virtueller seitlicher Versatz. Das Verändern der Instrumentenposition relativ zum Patienten bzw. zum Phantom ist im Flussdiagramm von3 als Schritt S5 dargestellt. Nach dem Verändern der Instrumentenposition (S5) können die Kanalparameter neu eingestellt bzw. verändert werden. Gemäß Schritt S4 erfolgt ein erneutes Ausschneiden des virtuellen Kanals auf Basis der neuen Instrumentenposition und gegebenenfalls auf Basis der veränderten Kanalparameter. Der neue Kanal wird schließlich wiederum auf dem Monitor dargestellt (S5). Die zeitliche Abfolge der Schritte S2 bis S5 kann so schnell sein, dass die Kanaldarstellung am Monitor8 filmartig erfolgt. Auf diese Weise ist es möglich als Inspektionstechnik eine bereits beschriebene "Fly-Through-Technik" zu simulieren, durch die in jeder Position mit einer definierten Objektivöffnung der Kamera6 ein perspektivischer Blick auf die Kanalinnenflächen10 ,13 und auf eine vorausliegende Oberfläche in definierbarer Tiefe ermöglicht wird. Innerhalb des Kanals7 ist es möglich, z.B. kontrastmittelgefüllte oder in einem bestimmten Dichtebereich selbst kontrastierende Objekte (z.B. Blutgefäße11 ) stehen zu lassen, so dass man diese beispielsweise durch Variieren des Instrumentes3 – also durch seitliches Verschieben oder "Vorbeischlängeln" in Abweichung von der geraden Linie des Kanals7 – umgehen kann. Andere Strukturen innerhalb des Kanals können auch "milchglasähnlich", halbtransparent und/oder in verschiedenen Farben dargestellt werden, um die jeweils durchquerten Strukturen differenzieren zu können. Speziell zum "Vorbeischlängeln" kann der Kanaldurchmesser größer gewählt werden als der tatsächliche Durchmesser des (später) eingesetzen Instruments und kann optional der tatsächliche Instrumentendurchmesser bzw. das Instrument innerhalb des erweiterten Kanals angezeigt werden. Ist der interessierende Bereich A virtuell genügend erforscht bzw. begutachtet, so wird das Verfahren mit Schritt S6 beendet. - Wie bereits erwähnt sind erfindungsgemäß unterschiedliche interaktive Möglichkeiten (Knopf, Mausklick, etc.) vorgesehen, um das Kanalbild kontinuierlich zu variieren, also beispielsweise die Lage des Kanals
7 zu verschieben und seine Orientierung zu verändern, ihn zu verdrehen. Aus darstellungstechnischen Gründen (aus Kompatibilitätsgründen mit dem später verwendeten echten Instrument und aus Performance-Gründen mit der verfügbaren virtuellen Darstellungs-Hardware) kann auch die Querschnittsform des Kanals7 verschieden definiert werden: kreisrund, elliptisch, dreieckig, rechteckig, beliebig unregelmäßig, usw. Wie bereits erwähnt ist auch die Kanalführung entlang eines geschlängelten Pfades vorgesehen. - Die Definition des Kanals
7 selbst erfolgt rechnerisch auf Basis des 3D-Datensatzes, auf Basis der Kanalparameter sowie auf Basis der Instrumentenposition, die durch das bereits erwähnte Navigationssystem5 ermittelt wird. Auf diese Weise durchquert der Anwender das 3D-Volumen mit dem Instrument (bzw. dem Sensor4 ) in der Hand virtuell. Im Eigentlichen jedoch definiert der Pfad des Sensors4 (engl.: track) in Abhängigkeit der Kanalparameter den Kanal7 . In diesem Sinne wird die Positionierung eines Instrumentes nur simuliert. Der Querschnitt des später tatsächlich eingesetzten Instrumentes wird virtuell auf die Körperoberfläche oder im Körperinneren auf eine Organoberfläche projiziert. Die ermittelten Koordinaten des virtuellen Zugangskanals können dann letztendlich zur Ausrichtung des später tatsächlich benutzten Instrumentes (z.B. Laparoskop) dienen. Dabei ist insbesondere auch die Kombination des Instrumentes mit einem steuerbaren Robotersystem möglich. Mit einer Spezialanordnung, beispielsweise einer sensiblen Aufhängung des Sensors bzw. Instrumentes an einen mechanischen (Hebel-)Arm, ist es ebenso möglich auf Grund der Gewebe-Dichte-Werte der vorliegenden 3D-Daten eine haptische Rückkopplung zu bewirken, durch die der Anwender ein Gespür für das zu durchquerende Gewebe erhält. Darüber hinaus kann auch ein Matching der Kanaloberfläche mit den 3D-Daten durchgeführt werden, so dass sich aus den 3D-Daten die Distanz ergibt. Mit den genauen geometrischen Kenntnissen kann eine identische Oberfläche des Organabschnittes aus 3D-Daten entsprechend dem Instrumentenbild skaliert und mit diesem überlagert (engl.: matched) werden. Dabei wird dem Instrumentenbild die 3D-Darstellung mit geeigneter Farb- und Transparenzwahl überblendet. - Folgendes Ausführungsbeispiel soll das erfindungsgemäße Verfahren erläutern:
Ein rückwärtig am rechten unteren Leberlappen sitzender Tumor soll im Rahmen eines chirurgischen Eingriffs entfernt werden. Dazu ist eine vorangehende Laparoskopie notwendig die auf Basis des erfindungsgemäßen Verfahrens zunächst virtuell durchgeführt wird. Es liegt eine dreidimensionale präoperative CT-Aufnahme des Bauchraums vor. Es sollen die unter der Haut befindlichen Organe dargestellt werden die im Zuge der späteren realen Laparoskopie der Leber durchquert werden müssen. Als Basistechnik wird VR (Volume-Rendering) verwendet. Die Grund-Transferfunktion wird auf Grau eingestellt. Der einheitliche Dichtewert der Blutgefäße wird rot eingefärbt. Der Tumor wird ausgehend von beispielsweise einer MPR-Ebenen-Darstellung selektiert (z.B. angeklickt) und in den 3D-Originaldaten grün eingefärbt. - Entsprechend dem späteren OP-Instrument (starres Laparoskop) wird der Querschnitt des Zugangskanals rund angelegt. Um das Verfahren den späteren realen Bedingungen anzugleichen kann ein Instrumenten-ähnlicher Stab verwendet werden der einen Navigationssensor aufweist. Genauso kann aber auch gleich ein Endoskop oder Laparoskop verwendet werden. Der Kanal selbst bekommt einen in Verlängerung des Stabes bzw. des reellen Instrumentes geraden Verlauf. Die Navigation erfolgt beispielsweise mit einem magnetischen Navigationssystem. Es wird ein Vorhalt so definiert, dass zunächst ein Kanal von z.B. 5cm Länge bzw. Tiefe dargestellt wird. Der Anwender geht mit dem Stab senkrecht auf die Bauchdecke des Patienten bzw. eines Phantoms zu. Dies wird auf dem Monitor des verwendeten Rechners durch eine 3D-VR-Darstellung des CT-Volumens visualisiert. Alle Positionen und Orientierungen des Stabes bzw. des Instrumentes und damit des Navigationssensors werden im Rechner kontinuierlich in standardisierten DICOM-Koordinaten dokumentiert (DICOM standardisiert die radiologische Bildgebung).
- Bei Annäherung des Stabes an die Bauchdecke auf unter 5cm wird aufgrund des Vorhalts begonnen, virtuell ein Loch definierten Durchmessers (Trokarpunkt, ca. 1cm2) auszuschneiden. Bei weiterer Annäherung wird das Loch (der Kanal) weiter in die Tiefe bewegt. Die Kanaltiefe kann durch den Anwender interaktiv (mittels Knopf, Maus, etc.) verändert werden. Auf diese Weise kann er geradlinig in weitere Tiefen vordringen und dabei sorgfältig an den Kanalwänden beobachten, wie Schichten von Bindegewebe, Muskeln, Darm, usw. durchquert würden, sofern sie nicht aufgrund ihrer Elastizität zur Seite gedrückt würden. Blutgefäße werden rot dargestellt und möglicherweise innerhalb des Kanals stehen gelassen, d.h. nicht ausgeschnitten. Durch seitliches Verschieben/Versetzen des Stabes und damit des Kanals ist der Anwender in der Lage an wichtigen, großen Gefäßen (beispielsweise an diversen Blutgefäßen) vorbeizukommen ohne diese zu verletzen. Schließlich erreicht der Anwender durch weiteres Vordringen die Leber, deren Gewebe zur besseren Differenzierung beispielsweise milchglasähnlich in Gelb dargestellt wird, bis letztendlich in Grün die Tumor-Oberfläche erscheint. Der gesamte grüne Bereich wird umfahren, um Koordinaten für den nachfolgenden chirurgischen Eingriff (z.B. im Rahmen einer Resektion) zu ermitteln. Im Bereich der Leber ist es besonders wichtig, alle Blutgefäße (stets in rot dargestellt) zu beachten, da durch ein Durchtrennen derselben die entsprechenden Lebersegmente ebenfalls mitgeopfert würden.
- Nach Gewinnung sämtlicher Detail-Informationen wird sich der Anwender wieder zurückziehen, um etwa mit größerem Vorhalt (z.B. 10–15cm) den gesamten Kanalweg zu begutachten. Dafür soll dem Anwender die Möglichkeit der stufenlosen Verstellung des Vorhalts gegeben sein, ebenso wie die Möglichkeit die virtuelle Weite des Kanals kontinuierlich zu verstellen, um eine weiträumigere Darstellung erhalten zu können. Letzteres ist auch deshalb sinnvoll, da im Bauchraum stets eine gewisse Verschiebbarkeit der Organe zu erwarten ist. Zuletzt – eventuell nach mehreren Variationen und Iterationen – geht der Anwender wieder auf die anfängliche Kanaldimension zurück und überprüft nochmals den Zugang so, wie er ihn optimalerweise realisieren wird.
- In der tatsächlichen Anwendung wird ebenfalls auf die präoperativ gewonnenen DICOM-Daten zurückgegriffen. Diese werden beispielweise kontinuierlich als "Soll-Positionen" angezeigt bzw. wird die Differenz zu den realen Daten mitgeteilt. Dabei ist auch eine Ansteuerung der Instrumentes durch ein Robotersystem denkbar. Möglich ist auch eine abwechselnde Darstellung des präoperativen Kanalbildes und des intraoperativen tatsächlichen Laparoskop-Bildes wenn nicht gar eine Überlagerung der beiden Aufnahmen gewünscht und realisiert ist.
Claims (25)
- System zur Erzeugung eines virtuellen Zugangskanals in me dizinischen 3D-Bildern, aufweisend – einen Rechner (
2 ) mit Monitor (8 ), – eine positions- und orientierungserfassende Bedieneinheit (5 ), wobei der Rechner (2 ) einen präoperativ-gewonnenen 3D-Datensatz eines zu untersuchenden Patienten enthält und als 3D-Bild darstellen kann und mit der Bedieneinheit (5 ) so verbunden ist, dass auf Basis einer Registrierung zwischen der Bedieneinheit (5 ) und dem 3D-Datensatz sowie auf Basis unterschiedlicher Kanal-Parameter ein virtueller optischer Kanal (7 ) des 3D-Datensatzes ausgeschnitten und auf dem Monitor (8 ) des Rechners (2 ) dargestellt wird. - System nach Anspruch 1, dadurch gekennzeichnet, dass die Bedieneinheit (
5 ) ein mechanisches Gelenksystem oder ein Navigationssystem oder einen instrumentenförmigen Stab mit Navigationssensor bzw. mit optischer oder magnetischer Markierung oder ein Standard-Computer-Eingabesystem darstellt. - System nach Anspruch 1 bis 2, dadurch gekennzeichnet, dass in dem virtuellen Kanal selektierte Gefäße bzw. Organe des 3D-Datensatzes stehen gelassen werden und somit innerhalb des Kanals dargestellt werden bzw. in den Kanal hineinragen.
- System nach Anspruch 1 bis 3, dadurch gekennzeichnet, dass der zuvor aufgenommene 3D-Datensatz mit Magnetresonanztomographie-, Computertomographie-, Ultraschall-, Positronen-Emissions-Tomographie- oder nuklearmedizinischen Verfahren aufgenommen ist.
- System nach Anspruch 1 bis 4, dadurch gekennzeichnet, dass das virtuelle Ausschneiden rechnerisch und automatisch mittels einem Algorithmus auf dem Rechner (
2 ) erfolgt. - System nach Anspruch 1 bis 5, dadurch gekennzeichnet, dass die Kanalparameter den Kanaldurchmesser, die Kanaltiefe, die Form der Kanalwand sowie die Form des Kanalbodens betreffen.
- System nach Anspruch 1 bis 6, dadurch gekennzeichnet, dass ein medizinisches Instrument in den virtuellen Kanal eingeblendet wird.
- System nach Anspruch 7, dadurch gekennzeichnet, dass die Bewegung des virtuellen Kanals und des eingeblendeten Instrumentes auf Basis einer zweiten positions- und orientierungserfassenden Bedieneinheit unabhängig erfolgt.
- System nach Anspruch 2 bis 8, dadurch gekennzeichnet, dass das mechanische Gelenksystem ein Roboterarm ist.
- System nach Anspruch 2 bis 9, dadurch gekennzeichnet, dass über die Mechanik des Gelenksystems sowie auf Basis einer Gewebedichtekarte des 3D-Datensatzes eine haptische Rückkopplung erfolgt.
- System nach Anspruch 1 bis 10, dadurch gekennzeichnet, dass Bilder des virtuellen Kanals (
7 ) mit entsprechenden intraoperativen realen Bildern gekoppelt dargestellt werden. - System nach Anspruch 11, dadurch gekennzeichnet, dass die intraoperativen realen Bilder mittels laparoskopischen, kolonoskopischen oder endoskopischen Verfahren und/oder mit Ultraschall aufgenommen werden.
- Verfahren zur Erzeugung eines virtuellen Zugangskanals in medizinischen 3D-Bildern gekennzeichnet durch folgende Schritte: – virtuelles Ausschneiden (S3) eines optischen Kanals (
7 ) auf Basis eines zuvor aufgenommenen 3D-Datensatzes eines Patienten (1 ), auf Basis eingestellter Kanalparameter sowie auf Basis einer relativ zu dem 3D-Datensatz registrierten positions- und orientierungserfassenden Bedieneinheit (5 ), – Darstellen (S4) des virtuellen Kanals (7 ) auf dem Monitor (8 ) eines Rechners (2 ), – Wiederholen der Schritte des virtuellen Ausschneidens (S3) und des Darstellens (S4) bis ein interessierender Bereich (A) des 3D-Datensatzes erfasst worden ist. - Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass als Bedieneinheit (
5 ) ein mechanisches Gelenksystem oder ein Navigationssystem oder ein instrumentenförmiger Stab mit Navigationssensor bzw. mit optischer oder magnetischer Markierung oder ein Standard-Computer-Eingabesystem verwendet wird. - Verfahren nach Anspruch 13 bis 14, dadurch gekennzeichnet, dass in dem virtuellen Kanal selektierte Gefäße bzw. Organe des 3D-Datensatzes stehen gelassen werden und somit innerhalb des Kanals dargestellt werden bzw. in den Kanal hineinragen.
- Verfahren nach Anspruch 13 bis 15, dadurch gekennzeichnet, dass der zuvor aufgenommene 3D-Datensatz mit Magnetresonanztomographie-, Computertomographie-, Ultraschall-, Positronen-Emissions-Tomographie- oder nuklearmedizinischen Verfahren aufgenommen wurde.
- Verfahren nach Anspruch 13 bis 16, dadurch gekennzeichnet, dass das virtuelle Ausschneiden (S3) rechnerisch und automatisch mittels einem Algorithmus auf einem Rechner (
2 ) erfolgt. - Verfahren nach Anspruch 13 bis 17, dadurch gekennzeichnet, dass die Kanalparameter den Kanaldurchmesser, die Kanaltiefe, die Form der Kanalwand sowie die Form des Kanalbodens betreffen.
- Verfahren nach Anspruch 15 bis 18, dadurch gekennzeichnet, dass das Registrieren der Bedieneinheit (
5 ) relativ zu dem 3D-Datensatz durch ein Navigationssystem erfolgt. - Verfahren nach Anspruch 13 bis 19, dadurch gekennzeichnet, dass ein medizinisches Instrument in den virtuellen Kanal eingeblendet wird.
- Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass die Bewegung des virtuellen Kanals und des eingeblendeten Instrumentes auf Basis einer zweiten positions- und orientierungserfassenden Bedieneinheit unabhängig erfolgt.
- Verfahren nach Anspruch 14 bis 21, dadurch gekennzeichnet, dass als mechanisches Gelenksystem ein Roboterarm verwendet wird.
- Verfahren nach Anspruch 14 bis 22, dadurch gekennzeichnet, dass über die Mechanik des Gelenksystems sowie auf Basis einer Gewebedichtekarte des 3D-Datensatzes eine haptische Rückkopplung erfolgt.
- Verfahren nach Anspruch 13 bis 23, dadurch gekennzeichnet, dass Bilder des virtuellen Kanals (
7 ) mit entsprechenden intraoperativen realen Bildern gekoppelt dargestellt werden. - Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass die intraoperativen realen Bilder mittels laparoskopischen, kolonoskopischen oder endoskopischen Verfahren und/oder mit Ultraschall aufgenommen werden.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10334074A DE10334074A1 (de) | 2003-07-25 | 2003-07-25 | System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern |
US10/897,674 US7844474B2 (en) | 2003-07-25 | 2004-07-23 | System and method for the creation of a virtual observation and access channel in medical 3D images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10334074A DE10334074A1 (de) | 2003-07-25 | 2003-07-25 | System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10334074A1 true DE10334074A1 (de) | 2005-02-24 |
Family
ID=34088837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10334074A Ceased DE10334074A1 (de) | 2003-07-25 | 2003-07-25 | System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern |
Country Status (2)
Country | Link |
---|---|
US (1) | US7844474B2 (de) |
DE (1) | DE10334074A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005028744A1 (de) * | 2005-06-21 | 2006-12-28 | Siemens Ag | Verfahren zum Führen eines chirurgischen Instruments |
DE102010015060A1 (de) * | 2010-04-15 | 2011-10-20 | Siemens Aktiengesellschaft | Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen |
DE102010042372A1 (de) * | 2010-10-13 | 2012-04-19 | Kuka Laboratories Gmbh | Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz |
DE102011005237A1 (de) * | 2011-03-08 | 2012-09-13 | Siemens Aktiengesellschaft | Selektive Visualisierung eines 3-dimensionalen Volumendatensatzes |
DE102012206350A1 (de) * | 2012-04-18 | 2013-10-24 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zum Betreiben eines Roboters |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004008164B3 (de) * | 2004-02-11 | 2005-10-13 | Karl Storz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums |
US8795195B2 (en) | 2004-11-29 | 2014-08-05 | Senorx, Inc. | Graphical user interface for tissue biopsy system |
EP2449544B1 (de) * | 2009-06-29 | 2018-04-18 | Koninklijke Philips N.V. | Tumorablations-trainingssystem |
DE102010062340A1 (de) * | 2010-12-02 | 2012-06-06 | Siemens Aktiengesellschaft | Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung |
US20150238167A1 (en) * | 2012-03-22 | 2015-08-27 | Gamma Medical Technologies, Llc | Dual modality endocavity biopsy imaging system and method |
CN104885028B (zh) * | 2013-03-05 | 2018-03-27 | 奥林巴斯株式会社 | 操作输入装置和主从系统 |
JP6049202B2 (ja) * | 2013-10-25 | 2016-12-21 | 富士フイルム株式会社 | 画像処理装置、方法、及びプログラム |
US11617623B2 (en) * | 2014-01-24 | 2023-04-04 | Koninklijke Philips N.V. | Virtual image with optical shape sensing device perspective |
JP6689850B2 (ja) | 2014-11-26 | 2020-04-28 | デビコー・メディカル・プロダクツ・インコーポレイテッドDevicor Medical Products, Inc. | 生検装置のグラフィックユーザインタフェース |
CN110464365B (zh) * | 2018-05-10 | 2022-08-12 | 深圳先进技术研究院 | 一种关注度确定方法、装置、设备和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4117117A1 (de) * | 1991-05-25 | 1992-11-26 | Hoehne Karl Heinz Prof Dr | Dreidimensionale darstellung von raeumlichen strukturen |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5876325A (en) * | 1993-11-02 | 1999-03-02 | Olympus Optical Co., Ltd. | Surgical manipulation system |
US6256529B1 (en) * | 1995-07-26 | 2001-07-03 | Burdette Medical Systems, Inc. | Virtual reality 3D visualization for surgical procedures |
US6470207B1 (en) * | 1999-03-23 | 2002-10-22 | Surgical Navigation Technologies, Inc. | Navigational guidance via computer-assisted fluoroscopic imaging |
-
2003
- 2003-07-25 DE DE10334074A patent/DE10334074A1/de not_active Ceased
-
2004
- 2004-07-23 US US10/897,674 patent/US7844474B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4117117A1 (de) * | 1991-05-25 | 1992-11-26 | Hoehne Karl Heinz Prof Dr | Dreidimensionale darstellung von raeumlichen strukturen |
Non-Patent Citations (5)
Title |
---|
DARIO, P. et al: A novel mechatronic tool for computer-assisted arthroscopy. IEEE Trans. on Information Technology in Biomedicine, Vol. 4, No. 1, March 2000, S. 15-19 * |
HUBBOLD, R.J. et al : Stereo display of nested 3D volume data using automatic tunnelling. Proc. Electronic Imaging '99, Conf. on Stereosco- pic Displays and Applications, Vol. 3639, Jan. 1999, S. 200-207 (recherchiert am 30.04.04). Im Internet: <URL http://www.csman.ac.uk/aig/asd/publications.html> * |
HUBBOLD, R.J.; HANCOCK, D.J.: Stereo display of nested 3D volume data using automatic tunnelling. Proc. Electronic Imaging '99, Conf. on Stereosco- pic Displays and Applications, Vol. 3639, Jan. 1999, S. 200-207 (recherchiert am 30.04.04). Im Internet: <URL http://www.csman.ac.uk/aig/asd/p ublications.html> |
ROBB, R.A. et al : Interactive Display and Analysis of 3-D Medical Images. IEEE Trans. On Medical Imaging, Vol. 8, No. 3, Sept. 1989, S. 217-226 * |
ROBB, R.A.; BARILLOT, G.: Interactive Display and Analysis of 3-D Medical Images. IEEE Trans. On Medical Imaging, Vol. 8, No. 3, Sept. 1989, S. 217-226 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005028744A1 (de) * | 2005-06-21 | 2006-12-28 | Siemens Ag | Verfahren zum Führen eines chirurgischen Instruments |
DE102010015060A1 (de) * | 2010-04-15 | 2011-10-20 | Siemens Aktiengesellschaft | Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen |
DE102010042372A1 (de) * | 2010-10-13 | 2012-04-19 | Kuka Laboratories Gmbh | Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz |
DE102011005237A1 (de) * | 2011-03-08 | 2012-09-13 | Siemens Aktiengesellschaft | Selektive Visualisierung eines 3-dimensionalen Volumendatensatzes |
DE102012206350A1 (de) * | 2012-04-18 | 2013-10-24 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zum Betreiben eines Roboters |
Also Published As
Publication number | Publication date |
---|---|
US7844474B2 (en) | 2010-11-30 |
US20050058326A1 (en) | 2005-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
DE10136709B4 (de) | Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten | |
DE19914455B4 (de) | Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System | |
EP0975257B1 (de) | Endoskopisches system | |
EP2236104B1 (de) | Medizintechnische Navigations-Bildausgabe mit virtuellen Primärbildern und realen Sekundärbildern | |
DE60018247T2 (de) | System und Methode zur Verwendung mit bildgebenden Verfahren zur Erleichterung der Planung von chirurgischen Eingriffen | |
DE102011083522B4 (de) | Verfahren und Vorrichtung zur Visualisierung der Qualität eines Ablationsvorgangs | |
DE19842239A1 (de) | Medizintechnische Einrichtung | |
DE102008002864A1 (de) | Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren | |
DE10210650A1 (de) | Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds | |
DE10009166A1 (de) | Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie | |
DE10334074A1 (de) | System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern | |
DE10333543A1 (de) | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung | |
DE10015826A1 (de) | System und Verfahren zur Erzeugung eines Bildes | |
DE102008002850A1 (de) | Verfahren zur Anwendung eines Bildgebungs- und Navigationssystems | |
DE102014203097A1 (de) | Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung | |
EP2606825A1 (de) | Bilderzeugungsapparat und -methode zur Nuklearbildgebung | |
EP3184071A1 (de) | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich | |
DE102005035929A1 (de) | Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens | |
EP4213755B1 (de) | Chirurgisches assistenzsystem | |
DE102005029903A1 (de) | Verfahren und Vorrichtung zur 3D-Navigation auf Schichtbildern | |
DE19951502A1 (de) | System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild | |
EP3598948A1 (de) | Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher | |
DE102013004843A1 (de) | Medizinisches Simulationssystem, Methode und Verwendung | |
DE102010042372A1 (de) | Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R008 | Case pending at federal patent court | ||
8125 | Change of the main classification |
Ipc: G06T 15/00 AFI20051017BHDE |
|
R084 | Declaration of willingness to licence | ||
R084 | Declaration of willingness to licence |
Effective date: 20120113 |
|
R010 | Appeal proceedings settled by withdrawal of appeal(s) or in some other way | ||
R003 | Refusal decision now final |
Effective date: 20140331 |