WO2005037120A1 - Vorrichtung zur vituellen lagebetrachtung wenigstens eines in einen körper intrakorporal eingebrachten medizinischen instruments - Google Patents

Vorrichtung zur vituellen lagebetrachtung wenigstens eines in einen körper intrakorporal eingebrachten medizinischen instruments Download PDF

Info

Publication number
WO2005037120A1
WO2005037120A1 PCT/EP2004/010503 EP2004010503W WO2005037120A1 WO 2005037120 A1 WO2005037120 A1 WO 2005037120A1 EP 2004010503 W EP2004010503 W EP 2004010503W WO 2005037120 A1 WO2005037120 A1 WO 2005037120A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical instrument
display device
spatial position
position detection
virtual
Prior art date
Application number
PCT/EP2004/010503
Other languages
English (en)
French (fr)
Inventor
Tim Lüth
Andreas Hein
Emanuel Jank
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102004011888A external-priority patent/DE102004011888A1/de
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V.
Publication of WO2005037120A1 publication Critical patent/WO2005037120A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware

Definitions

  • the invention relates to a device and a method for the virtual positional observation of at least one medical instrument introduced intracorporeally into a body with a position detection system that detects the spatial position of the at least one medical instrument, an image processing unit that is based on a spatial one detected by the position detection system Position information generates a virtual image of the medical instrument, which can be brought to a visual display for a precise view of the position.
  • the treating physician When performing minimally invasive interventions, preferably in the human body, the treating physician is prevented from seeing the distal end of the medical instrument inserted intracorporeally into the body.
  • the intracorporeally inserted instruments it is therefore inevitable, for reasons of a desired diagnostic or therapeutic treatment success and to avoid irreversible tissue damage due to intracorporeally incorrect positioning of the instruments, to provide the doctor with technical navigation aids with which the exact position of the intracorporeally inserted distal ones
  • the ends of the medical instruments can be determined.
  • the doctor When using so-called view endoscopes, the doctor receives a direct view of the distal side in front of the eye via an integrated view optic medical instrument located tissue area, which the doctor can view on a monitor via an eyepiece unit directly connected to the viewing optics or using a suitable video camera.
  • Such viewing endoscopes which can be designed as both rigid and flexible medical instruments, are used primarily for diagnostic purposes. However, viewing endoscopes are also known which have at least one additional working channel through which suitable medical catheter tool elements can be introduced.
  • biopsy needle devices are used for tissue examinations, which need to be placed exactly at a desired intracorporeal tissue site in order to be able to perform a targeted tissue extraction.
  • imaging methods such as ultrasound, X-ray or computer tomography diagnostics.
  • a disadvantage of the use of such imaging methods is the poor imaging quality with which foreign materials, that is to say in particular the intracorporeally inserted medical instruments, are displayed and imaged in the medical image data obtained with the aid of the imaging methods.
  • image artefacts occur, which means that exact positioning can only be carried out with great inaccuracy or in some cases not at all.
  • DE 199 51 503 A1 shows a medical system with an imaging and a navigation system which enables the position of a medical instrument to be determined relative to the body of a patient.
  • the body area to be diagnosed or treated is thus captured with an imaging system, for example an X-ray arrangement or an ultrasound device, and a medical image of the intracorporeal body area is displayed, for example on a screen.
  • an imaging system for example an X-ray arrangement or an ultrasound device
  • a medical image of the intracorporeal body area is displayed, for example on a screen.
  • a navigation system that includes a stereo chamber arrangement that detects reference elements attached to a respective medical instrument and uses a navigation computer to determine the exact spatial position of the respective reference elements is used for exact position detection of the intracorporeally inserted medical instrument.
  • a virtual image of the respective medical instrument is generated and displayed on the screen in superimposition with the medical image of the detected body region obtained by the image-giving system.
  • the image data obtained from the area of the body to be diagnosed or treated is displayed on a monitor on which the virtual image of the surgical instrument in use is also superimposed, but the doctor to be treated is always forced to keep his field of vision towards the monitor, which is usually different from the location of the minimally invasive procedure.
  • the doctor is forced to constantly move his head between the monitor and the area to be treated during the procedure, which on the one hand leads to rapid fatigue for the practicing doctor and on the other hand requires a great deal of experience on the part of the doctor to understand the image information obtained from the monitor to be used immediately for the manual operation of the medical instrument that protrudes extracorporeally from the patient's body area.
  • US 2003/0037449 A1 shows a device for virtual assessment of the position of at least one medical instrument inserted intracorporeally in a body.
  • the publication is primarily concerned with the spatial alignment of an instrument along a predeterminable instrument orientation, which is defined by a specific axis position.
  • Virtually representable markers serve this purpose, preferably in the form of concentric circles arranged along a reference axis. So it applies to an instrument in an axial position bring that is spatially defined by concentric markers.
  • the instrument itself has an axis marker that specifies in a spatial alignment exactly when the instrument is aligned along the reference axis.
  • the invention is based on the object of developing a device of the type mentioned above in such a way that a doctor receives the complete positional information about the distal end regions of the intracorporeally inserted medical instruments while carrying out a minimally invasive intervention, it being necessary to avoid the above as having to perform uncomfortable head movements on the part of the doctor. In particular, care should be taken to ensure that the doctor is able to carry out the surgical intervention in the most ergonomically favorable and fatigue-free position possible.
  • the invention is based on the finding that a minimally invasive surgical intervention, which requires a maximum of fine motor skills on the part of the doctor, offers the doctor a considerable relief if the field of vision of the treating doctor lasts as long as possible, without interruptions to the person to be treated Body area of the patient and the medical instruments protruding from the proximal side there.
  • a vision monitor which is usually located next to the patient couch, for instrument navigation
  • the doctor needs to convert the position information visually displayed on the vision monitor into fine-motorized actions, which are not, however, within his current field of vision. This requires a high degree of experience and concentration strength from the doctor to the to be able to perform the respective surgical procedure with the necessary care.
  • a device for virtual positional inspection of at least one medical instrument introduced intracorporeally into a body with a position detection system that detects the spatial position of the at least one medical instrument is an image processing unit that, on the basis of spatial position information detected by the position detection system, is a virtual image of the Medical instrument generated, which can be brought to a visual display in a positional manner, designed such that the display device is mounted so that it can move spatially, that the position detection system detects the spatial position of the display device and that the image processing unit, depending on the spatial position of the display device, detects the virtual image of the medical instrument for presentation.
  • the viewing device it is possible to mount the viewing device as close as possible to the surgical site, so that the attending physician has both the viewing device and the medical instruments required for the medical intervention in view.
  • Portable viewing devices are preferably suitable for this purpose, for example in the form of compact flat screens, for example LCD displays, which are either self-supporting or can be positioned on a spatially positionable fastening arm in the immediate vicinity of the area of the surgical intervention.
  • the position detection system which is preferably designed as an optical stereo camera, can also detect the spatial position of the viewing device itself in addition to the position detection of the medical instruments involved in the surgical intervention.
  • both on the medical instruments and on the viewing device there are optical marker elements that can be perceived by the position detection system, their spatial position, mostly in the way of Triangulation method can be determined exactly.
  • the viewing angle at which the medical instruments are viewed from the position of the viewing device can be determined.
  • the medical instruments into their virtual images they are displayed on the display device in accordance with the viewing angle defined above, the spatial position of which relative to the real medical instruments defines the viewing angle.
  • the viewing device can be integrated into surgical glasses to be worn by the doctor during the procedure, through which the doctor has a clear view of the operating area on the patient as well as of the virtual images of the medical instruments involved in the operation.
  • the doctor receives a clearly understandable representation of the interaction of the surgical instruments and the treatment situation represented by the virtual images of the medical instruments. This considerably simplifies the coordination of all instruments involved in the operation for the doctor, so that ultimately even doctors with less experience can successfully carry out such minimally invasive interventions.
  • the medical instruments used can be displayed from a point of view desired for the doctor, so that the virtual images of the medical images can be displayed at any time Instruments can be recognized as to how the instruments must be operated to continue treatment or examination.
  • the single figure representation shows a treatment situation in which a patient P is treated with two medical instruments 2 by means of a minimally invasive intervention.
  • the medical instruments 2 protrude with their distal end regions shown in dashed lines into the body of the patient P, so that these regions remain visually hidden from the doctor (not shown in the figure).
  • a position detection system 1 preferably consisting of a stereo camera unit, detects marker elements 7, which are each attached to the shaft area of the medical instruments 2. For an unambiguous determination of the position of the medical instruments 2, three marker elements 7 are attached to the proximal shaft of the medical instruments 2.
  • the marker elements 7 represent passive reflectors that can be detected by the stereo camera unit 1.
  • a corresponding computing unit 5 it is possible, taking into account the position and position of the medical instruments 2, to convert the virtual images of the medical instruments present as a computer model into a virtual, three-dimensional scene, which is displayed as a real-time model on a portable monitor unit 3 and the indicates current treatment situation.
  • the spatial position of the monitor unit 3 needs to be recorded.
  • either the monitor unit 3 can be provided with corresponding marker elements 7, or for the purpose of position detection, the doctor touches the monitor unit 3 with a corresponding pointing instrument 6, the spatial position of which is recorded and registered by the position detection system 1.
  • the scene can be displayed intuitively, since it corresponds to the doctor's perspective on the patient.
  • the representation corresponds to fluoroscopy of the patient P, in which the virtual images of the medical instruments 2 are shown laterally from the front.
  • the computing unit 5 has in a manner known per se via a keyboard and a monitor 4, on which further representations can be displayed.
  • the virtual scene of the medical instruments shown on the monitor unit 3 by entering further location information. It is conceivable to specify the angle of view on the virtual instruments shown by a virtual camera, for example by a suitable position detection of the pointing instrument 6, which the doctor positions at a suitable location.
  • a location detection of the pointing instrument 6 can be activated manually via a suitable input means on the pointing instrument, so that the scene on the monitor unit does not change continuously as soon as the pointing instrument is moved.
  • Such an input means can optionally also be provided on the viewing device 3.
  • the input means can also be deactivated, so that the viewing angle of the depicted scene is continuously changed as soon as the pointing instrument or the visual monitor moves.

Abstract

Beschrieben wird eine Vorrichtung sowie ein Verfahren zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments mit einem Positionserfassungssystem, das die räumliche Lage des wenigstens einen medizinischen Instrumentes erfasst, einer Bildaufbereitungseinheit, die auf der Grundlage einer von dem Positionserfassungssystem erfassten räumlichen Lageinformation ein virtuelles Abbild des medizinischen Instrumentes generiert, das lagegetreu auf einem Sichtgerät zur visuellen Darstellung bringbar ist. Die Erfindung zeichnet sich dadurch aus, dass das Sichtgerät räumlich bewegbar gelagert ist, dass das Positionserfassungssystem die räumliche Lage des Sichtgerätes erfasst, und dass die Bildaufbereitungseinheit in Abhängigkeit der räumlichen Lage des Sichtgerätes das virtuelle Abbild des medizinischen Instrumentes zur Darstellung bringt.

Description

Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments
Technisches Gebiet
Die Erfindung bezieht sich auf eine Vorrichtung sowie ein Verfahren zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments mit einem Positionserfassungssystem, das die räumliche Lage des wenigstens einen medizinischen Instrumentes erfasst, einer Bildaufbereitungseinheit, die auf der Grundlage einer von dem Positionserfassungssystem erfassten räumlichen Lageinformation ein virtuelles Abbild des medizinischen Instrumentes generiert, das lagegetreu auf einem Sichtgerät zur visuellen Darstellung bringbar ist.
Stand der Technik
Bei der Durchführung minimal-invasiver Eingriffe, vorzugsweise in den menschlichen Körper, ist dem behandelnden Arzt die Sicht auf das distale Ende des intrakorporal in den Körper eingebrachten medizinischen Instrumentes verwehrt. Für eine exakte räumliche Positionierung der intrakorporal eingebrachten Instrumente ist es daher aus Gründen eines erwünschten diagnostischen oder therapeutischen Behandlungserfolges sowie der Vermeidung irreversibler Gewebeschädigungen durch intrakorporale Fehlpositionierungen der Instrumente unvermeidbar, dem Arzt technische Navigationshilfen zur Hand zu geben, mit denen die exakte Lage der intrakorporal eingebrachten distalen Enden der medizinischen Instrumente bestimmbar ist.
Beim Einsatz so genannter Sichtendoskope erhält der Arzt über eine im Endoskop integrierte Sichtoptik einen unmittelbaren Einblick auf den distalseits vor dem medizinischen Instrument befindlichen Gewebebereich, den der Arzt über eine direkt mit der Sichtoptik verbundene Okulareinheit oder unter Verwendung einer geeigneten Videokamera auf einem Monitor betrachten kann. Derartige Sichtendoskope, die sowohl als starre als auch flexible medizinische Instrumente ausgebildet sein können, dienen in erster Linie zu Diagnosezwecken. Es sind jedoch auch Sichtendoskope bekannt, die über wenigstens einen zusätzlichen Arbeitskanal verfügen, über den geeignete medizinische Katheterwerkzeugelemente eingeführt werden können.
Darüber hinaus existiert jedoch eine Vielzahl medizinischer Instrumente ohne die Möglichkeit längs eines vorhandenen Sichtkanals einen direkten Einblick in den zu behandelnden Körperbereich zu gewähren. Beispielsweise werden zu Gewebeuntersuchungen Biopsienadelvorrichtungen eingesetzt, die es gilt, exakt an eine gewünschte intrakorporale Gewebestelle zu platzieren, um eine gezielte Gewebeentnahme durchführen zu können. Derartige minimal-invasive Eingriffe werden bis anhin mittels geeigneter Bild gebender Verfahren, wie beispielsweise die Ultraschall-, Röntgen- oder Computertomographie-Diagnostik überwacht. Nachteilhaft beim Einsatz derartiger Bild gebender Verfahren ist jedoch die nur schlechte Abbildungsqualität, mit der körperfremde Materialien, also insbesondere die intrakorporal eingebrachten medizinischen Instrumente, in den mit Hilfe der Bild gebenden Verfahren erhaltenen medizinischen Bilddaten dargestellt und abgebildet werden. So treten in Abhängigkeit der Materialien, aus denen die medizinischen Instrumente bestehen, Bildartefakte auf, durch die eine exakte Positionierung nur mit großer Ungenauigkeit bzw. in manchen Fällen überhaupt nicht vornehmbar ist.
Aus der DE 199 51 503 A1 ist ein medizinisches System mit einem Bildgebungs- und einem Navigationssystem zu entnehmen, das die Bestimmung der Position eines medizinischen Instrumentes relativ zum Körper eines Patienten ermöglicht. So wird der zu diagnostizierende bzw. zu therapierende Körperbereich mit einem Bild gebenden System, beispielsweise einer Röntgenanordnung oder einem Ultraschallgerät, erfasst und ein medizinisches Abbild des intrakorporalen Körperbereiches, beispielsweise auf einem Bildschirm, zur Darstellung gebracht. Zur exakten Positionserfassung des intrakorporal eingebrachten medizinischen Instrumentes dient ein Navigationssystem, das eine Stereokammeranordnung umfasst, die an einem jeweiligen medizinischen Instrument angebrachte Referenzelemente erfasst und mit Hilfe eines Navigationsrechners die exakte räumliche Position der jeweiligen Referenzelemente ermittelt. Auf der Grundlage der Positionsermittlung wird ein virtuelles Abbild des jeweiligen medizinischen Instrumentes generiert und in Überlagerung mit dem durch das Bild gebende System gewonnene medizinische Abbild des erfassten Körperbereiches auf dem Bildschirm zur Darstellung gebracht.
Ein ähnliches System ist der DE 199 51 502 A1 zu entnehmen.
Mit dem vorstehend erläuterten System werden die von dem zu diagnostizierenden oder zu therapierenden Körperbereich gewonnenen Bilddaten auf einem Monitor dargestellt, auf dem in Überlagerung ebenso das virtuelle Abbild des im Einsatz befindlichen chirurgischen Instrumentes abgebildet wird, doch ist der zu behandelnde Arzt stets gezwungen, sein Blickfeld auf den Monitor zu richten, der in aller Regel vom Ort des minimal-invasiven Eingriffes verschieden ist. Zumeist ist der Arzt gezwungen, während des Eingriffes seinen Kopf ständig zwischen dem Monitor und dem zu behandelnden Körperbereich zu bewegen, was einerseits zu einer schnellen Ermüdung des praktizierenden Arztes führt und andererseits eine große Erfahrung des Arztes erfordert, um die von Seiten des Monitors erhaltenen Bildinformationen unmittelbar zur manuellen Bedienung des extrakorporal aus dem Körperbereich des Patienten herausragenden medizinischen Instrumentes anzuwenden.
Der US 2003/0037449 A1 ist eine Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einem Körper intrakorporal eingebrachten medizinischen Instrumentes zu entnehmen. Die Druckschrift beschäftigt sich vornehmlich mit der räumlichen Ausrichtung eines Instrumentes längs einer vorgebbaren Instrumentenorientierung, die durch eine bestimmte Achslage definiert ist. Hierzu dienen virtuell darstellbare Marker, vorzugsweise in Form längs einer Bezugsachse angeordneter konzentrischer Kreise. So gilt es ein Instrument in eine Achslage zu bringen, die durch konzentrische Marker räumlich definiert ist. Das Instrument selbst weist einen Achsmarker auf, der in einer räumlichen Ausrichtung exakt angibt, wann das Instrument längs der Bezugsachse ausgerichtet ist.
Darstellung der Erfindung
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung der vorstehend genannten Gattung derart weiterzubilden, dass ein Arzt während der Durchführung eines minimal-invasiven Eingriffes die vollständigen Lageinformationen über die distalen Endbereiche der intrakorporal eingebrachten medizinischen Instrumente erhält, wobei es zu vermeiden gilt, die vorstehend als unangenehm empfundenen Kopfbewegungen von Seiten des Arztes durchführen zu müssen. Insbesondere soll dafür Sorge getragen werden, dass der Arzt in einer möglichst ergonomisch günstigen und ermüdungsfreien Haltung den chirurgischen Eingriff durchführen kann.
Die Lösung der der Erfindung zugrunde liegenden Aufgabe ist im Anspruch 1 angegeben. Ein erfindungsgemäßes Verfahren, das der Vorrichtung zugrunde liegt, ist Gegenstand des Anspruches 6. Den Erfindungsgedanken weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der Beschreibung unter Bezugnahme auf das Ausführungsbeispiel zu entnehmen.
Der Erfindung liegt die Erkenntnis zugrunde, dass ein minimal-invasiver chirurgischer Eingriff, der von Seiten des Arztes ein Höchstmaß feinmotorischer Fähigkeiten voraussetzt, für den Arzt eine erhebliche Erleichterung bietet, wenn sich das Blickfeld des behandelnden Arztes möglichst andauern, ohne Unterbrechungen auf den zu behandelnden Körperbereich des Patienten und die dort proximalseitig aus dem Patienten herausragenden medizinischen Instrumente richtet. Sobald der Arzt jedoch zu Zwecken der Instrumentennavigation sein Blickfeld auf einen zumeist neben der Patientenliege angeordneten Sichtmonitor lenkt, gilt es für den Arzt die am Sichtmonitor visuell dargestellten Lageinformationen in feinmotorische Handgriffe umzusetzen, die sich jedoch nicht in seinem aktuellen Blickfeld befinden. Dies erfordert vom Arzt ein hohes Maß an Erfahrung sowie Konzentrationsstärke, um den jeweiligen chirurgischen Eingriff mit der erforderlichen Sorgfalt durchführen zu können.
Erfindungsgemäß ist demzufolge eine Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments mit einem Positionserfassungssystem, das die räumliche Lage des wenigstens einen medizinischen Instrumentes erfasst, einer Bildaufbereitungseinheit, die auf der Grundlage einer von dem Positionserfassungssystem erfassten räumlichen Lageinformation ein virtuelles Abbild des medizinischen Instrumentes generiert, das lagegetreu auf einem Sichtgerät zur visuellen Darstellung bringbar ist, derart ausgebildet, dass das Sichtgerät räumlich bewegbar gelagert ist, dass das Positionserfassungssystem die räumliche Lage des Sichtgerätes erfasst und dass die Bildaufbereitungseinheit in Abhängigkeit der räumlichen Lage des Sichtgerätes das virtuelle Abbild des medizinischen Instrumentes zur Darstellung bringt.
Mit der erfindungsgemäßen Vorrichtung ist es möglich, das Sichtgerät möglichst nahe am Operationssitus anzubringen, so dass der behandelnde Arzt sowohl das Sichtgerät als auch die für den medizinischen Eingriff erforderlichen medizinischen Instrumente gemeinsam im Blickfeld hat.
Bevorzugt eignen sich hierzu portabel ausgebildete Sichtgeräte, beispielsweise in Form von kompakt ausgebildeten Flachbildschirmen, beispielsweise LCD-Displays, die entweder freitragend oder unterstützt an einem räumlich positionierbaren Befestigungsarm in unmittelbarer Nähe zum Bereich des operativen Eingriffes positionierbar sind.
Das Positionserfassungssystem, das vorzugsweise als optische Stereokamera ausgebildet ist, vermag neben der Lageerfassung der am chirurgischen Eingriff beteiligten medizinischen Instrumente ebenso auch die räumliche Lage des Sichtgerätes selbst zu erfassen. Hierzu befinden sich sowohl an den medizinischen Instrumenten als auch dem Sichtgerät optisch, vom Positionserfassungssystem wahrnehmbare Markerelemente, deren räumliche Position, zumeist im Wege des Triangulationsverfahrens exakt bestimmbar ist. Durch die Erfassung der Relativlage zwischen dem Sichtgerät und den an der Operation beteiligten medizinischen Instrumente kann der Betrachtungswinkel ermittelt werden, unter dem die Medizinischen Instrumente aus der Position des Sichtgerätes betrachtet werden. Durch die Umsetzung der medizinischen Instrumente in ihre virtuellen Abbilder werden diese entsprechend dem vorstehend definierten Betrachtungswinkel auf dem Sichtgerät dargestellt, dessen räumliche Relativlage zu den reellen medizinischen Instrumenten den Betrachtungswinkel definiert.
Für den Arzt ist es somit möglich, das Sichtgerät derart frei zu positionieren, so dass eine für die Durchführung des minimal-invasiven Eingriffes optimale Darstellung der medizinischen Instrumente auf dem Sichtgerät erzielt wird.
In einer besonders bevorzugten Ausführungsform kann das Sichtgerät in eine vom Arzt während des Eingriffes zu tragende Operationsbrille integriert werden, durch die der Arzt sowohl einen freien Blick auf den Operationsbereich am Patienten, als auch auf die virtuellen Abbilder der an der Operation beteiligten medizinischen Instrumente hat.
Mit Hilfe der erfindungsgemäßen Vorrichtung erhält der Arzt eine klar verständliche Darstellung des Zusammenspiels der chirurgischen Instrumente und der durch die virtuellen Abbilder der medizinischen Instrumente dargestellten Behandlungssituation. Hierdurch wird die Koordination aller an der Operation beteiligter Instrumente für den Arzt erheblich erleichtert, so dass letztlich auch Ärzte mit einem geringeren Erfahrungsschatz erfolgreich derartige minimal-invasive Eingriffe vornehmen können.
Durch die von dem Arzt oder seinem Assistenten vornehmbare Positionsveränderung des Sichtgerätes können die eingesetzten medizinischen Instrumente von einem für den Arzt erwünschten Blickwinkel dargestellt werden, so dass jederzeit aus der Darstellung der virtuellen Abbilder der medizinischen Instrumente erkannt werden kann, wie die Instrumente zur Fortsetzung der Behandlung oder Untersuchung bedient werden müssen.
Wege zur Ausführung der Erfindung, gewerbliche Verwendbarkeit
In der einzigen Figurdarstellung ist eine Behandlungssituation dargestellt, bei der ein Patient P im Wege eines minimal-invasiven Eingriffes mit zwei medizinischen Instrumenten 2 behandelt wird. Die medizinischen Instrumente 2 ragen mit ihren strichliert dargestellten distalen Endbereichen in den Körper des Patienten P hinein, so dass diese Bereiche von dem nicht in der Figur dargestellten Arzt visuell verborgen bleiben. Ein vorzugsweise aus einer Stereokameraeinheit bestehendes Positionserfassungssystem 1 detektiert Markerelemente 7, die jeweils am Schaftbereich der medizinischen Instrumente 2 angebracht sind. Zur eineindeutigen Lagebestimmung der medizinischen Instrumente 2 sind jeweils drei Markerelemente 7 am proximalseitigen Schaft der medizinischen Instrumente 2 angebracht. Typischerweise stellen die Markerelemente 7 passive Reflektoren dar, die von der Stereokameraeinheit 1 erfassbar sind. Mit Hilfe einer entsprechenden Recheneinheit 5 ist es möglich, unter Berücksichtigung von der Lage und Position der medizinischen Instrumente 2 die als Computermodell vorliegenden virtuellen Abbilder der medizinischen Instrumente in einer virtuellen, dreidimensionalen Szene überzuführen, die als Echtzeitmodell auf einer portablen Monitoreinheit 3 dargestellt wird und die aktuelle Behandlungssituation angibt. Zur Darstellung der Behandlungssituation gilt es den räumlichen Standpunkt der Monitoreinheit 3 zu erfassen. Hierzu kann entweder die Monitoreinheit 3 mit entsprechenden Markerelementen 7 versehen sein, oder der Arzt berührt zum Zwecke der Positionserfassung die Monitoreinheit 3 mit einem entsprechenden Zeigeinstrument 6, dessen räumliche Lage vom Positionserfassungssystem 1 erfasst und registriert wird. Durch diese Art der Wahl des Blickpunktes lässt sich die Szene intuitiv darstellen, da sie dem Blickwinkel des Arztes auf den Patienten entspricht. In der in der Figur dargestellten Szene entspricht die Darstellung einer Durchleuchtung des Patienten P, bei der die virtuellen Abbilder der medizinischen Instrumente 2 seitlich von vorn gezeigt werden. Die Recheneinheit 5 verfügt in an sich bekannter Weise über eine Tastatur sowie einen Monitor 4, auf dem weitere Darstellungen abgebildet werden können.
Ferner ist es möglich, die auf der Monitoreinheit 3 dargestellte virtuelle Szene der medizinischen Instrumente durch Eingabe weiterer Ortsinformationen zu beeinflussen. Denkbar ist es den dargestellten Blickwinkel auf die virtuellen Instrumente durch eine virtuelle Kamera vorzugeben, bspw. durch eine geeignete Positionserfassung des Zeigeinstrumentes 6, das der Arzt an einer geeigneten Stelle positioniert. Eine Ortserfassung des Zeigeinstrumentes 6 kann manuell über ein geeignetes Eingabemittel am Zeigeinstrument aktiviert werden, so dass sich die Szene an der Monitoreinheit nicht kontinuierlich verändert, sobald das Zeigeinstrument bewegt wird. Ein derartiges Eingabemittel kann optional auch an dem Sichtgerät 3 vorgesehen sein. Je nach Anwendergewohnheiten kann das Eingabemittel auch deaktiviert werden, so dass der Betrachtungswinkel der dargestellten Szene kontinuierlich verändert wird, sobald eine Bewegung des Zeigeinstrumentes oder des Sichtmonitors erfolgt.
Bezugszeichenliste
Positionserfassungssystem Medizinische Instrumente Sichtgerät, Monitoreinheit Sichtmonitor Rechnereinheit Zeigerinstrument Markerelemente

Claims

Patentansprüche
1. Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments mit einem Positionserfassungssystem, das die räumliche Lage des wenigstens einen medizinischen Instrumentes erfasst, einer Bildaufbereitungseinheit, die auf der Grundlage einer von dem Positionserfassungssystem erfassten räumlichen Lageinformation ein virtuelles Abbild des medizinischen Instrumentes generiert, das lagegetreu auf einem Sichtgerät zur visuellen Darstellung bringbar ist, dadurch gekennzeichnet, dass das Sichtgerät räumlich bewegbar gelagert ist, dass das Positionserfassungssystem die räumliche Lage des Sichtgerätes erfasst, und dass die Bildaufbereitungseinheit in Abhängigkeit der räumlichen Lage des Sichtgerätes das virtuelle Abbild des medizinischen Instrumentes zur Darstellung bringt.
2. Vorrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass das Sichtgerät als Monitor ausgebildet ist, der mit einer mobilen Plattform oder an einem um den Körper bewegbaren Tragarm befestigt ist.
3. Vorrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass das Sichtgerät als manuell portable Monitoreinheit ausgebildet ist.
4. Vorrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass das Sichtgerät als miniaturisierte Monitoreinheit ausgebildet ist, die über eine Tragehilfe am Kopf einer Person anbringbar ist.
5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Bildaufbereitungseinheit das virtuelle Abbild des medizinischen Instrumentes derart generiert und auf dem Sichtgerät zu Darstellung bringt, so dass das medizinische Instrument aus der Position des Sichtgerätes betrachtbar ist.
6. Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass wenigstens ein Eingabemittel vorgesehen ist, durch das eine Positionserfassung des Sichtgerätes aktivierbar ist.
7. Vorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass ein Zeigeinstrument vorgesehen ist, das zur Lage- und Positionserfassung an das Sichtgerät führbar ist.
8. Verfahren zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal einbringbaren medizinischen Instruments, dessen räumliche Lage erfasst und auf der Grundalge einer erfassten räumlichen Lageinformation ein virtuelles Abbild des medizinischen Instrumentes generiert wird, das lagegetreu auf einem Sichtgerät zur visuellen Darstellung gebracht wird, dadurch gekennzeichnet, dass die räumliche Lage des Sichtgerätes bestimmt wird, und dass das virtuelle Abbild des medizinischen Instrumentes auf dem Sichtgerät unter einem Blickwinkel dargestellt wird, der durch die räumliche Lage des Sichtgerätes bestimmt wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die räumliche Lage des wenigstens einen medizinischen Instrumentes sowie die des Sichtgerätes durch ein Positionserfassungssystem erfasst werden.
PCT/EP2004/010503 2003-09-29 2004-09-18 Vorrichtung zur vituellen lagebetrachtung wenigstens eines in einen körper intrakorporal eingebrachten medizinischen instruments WO2005037120A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE10345619 2003-09-29
DE10345619.8 2003-09-29
DE102004011888.4 2004-03-11
DE102004011888A DE102004011888A1 (de) 2003-09-29 2004-03-11 Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments

Publications (1)

Publication Number Publication Date
WO2005037120A1 true WO2005037120A1 (de) 2005-04-28

Family

ID=34466012

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/010503 WO2005037120A1 (de) 2003-09-29 2004-09-18 Vorrichtung zur vituellen lagebetrachtung wenigstens eines in einen körper intrakorporal eingebrachten medizinischen instruments

Country Status (2)

Country Link
DE (1) DE202004014857U1 (de)
WO (1) WO2005037120A1 (de)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052521A (ja) * 2009-03-31 2016-04-14 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術ロボットの合成表現
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9629520B2 (en) 2007-06-13 2017-04-25 Intuitive Surgical Operations, Inc. Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019004235B4 (de) 2018-07-16 2024-01-18 Mako Surgical Corp. System und verfahren zur bildbasierten registrierung und kalibrierung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038467A (en) * 1997-01-24 2000-03-14 U.S. Philips Corporation Image display system and image guided surgery system
US6256529B1 (en) * 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
EP1327421A1 (de) * 2001-12-18 2003-07-16 BrainLAB AG Projektion von Patientenbilddaten aus Durchleuchtungs- bzw. Schichtbilderfassungsverfahren auf Videobilder

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256529B1 (en) * 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
US6038467A (en) * 1997-01-24 2000-03-14 U.S. Philips Corporation Image display system and image guided surgery system
EP1327421A1 (de) * 2001-12-18 2003-07-16 BrainLAB AG Projektion von Patientenbilddaten aus Durchleuchtungs- bzw. Schichtbilderfassungsverfahren auf Videobilder

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US10433919B2 (en) 1999-04-07 2019-10-08 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US10137575B2 (en) 2006-06-29 2018-11-27 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10773388B2 (en) 2006-06-29 2020-09-15 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10737394B2 (en) 2006-06-29 2020-08-11 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10730187B2 (en) 2006-06-29 2020-08-04 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US9801690B2 (en) 2006-06-29 2017-10-31 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical instrument
US11638999B2 (en) 2006-06-29 2023-05-02 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11432888B2 (en) 2007-06-13 2022-09-06 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US10695136B2 (en) 2007-06-13 2020-06-30 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9901408B2 (en) 2007-06-13 2018-02-27 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US11751955B2 (en) 2007-06-13 2023-09-12 Intuitive Surgical Operations, Inc. Method and system for retracting an instrument into an entry guide
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US11399908B2 (en) 2007-06-13 2022-08-02 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9629520B2 (en) 2007-06-13 2017-04-25 Intuitive Surgical Operations, Inc. Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US10368952B2 (en) 2008-06-27 2019-08-06 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US11638622B2 (en) 2008-06-27 2023-05-02 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US11382702B2 (en) 2008-06-27 2022-07-12 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10984567B2 (en) 2009-03-31 2021-04-20 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10282881B2 (en) 2009-03-31 2019-05-07 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US11941734B2 (en) 2009-03-31 2024-03-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
JP2016052521A (ja) * 2009-03-31 2016-04-14 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術ロボットの合成表現
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US11596490B2 (en) 2009-08-15 2023-03-07 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10772689B2 (en) 2009-08-15 2020-09-15 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US10959798B2 (en) 2009-08-15 2021-03-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10537994B2 (en) 2010-02-12 2020-01-21 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10828774B2 (en) 2010-02-12 2020-11-10 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US11389255B2 (en) 2013-02-15 2022-07-19 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11806102B2 (en) 2013-02-15 2023-11-07 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools

Also Published As

Publication number Publication date
DE202004014857U1 (de) 2005-04-21

Similar Documents

Publication Publication Date Title
EP0975257B1 (de) Endoskopisches system
DE19914455B4 (de) Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
WO2005037120A1 (de) Vorrichtung zur vituellen lagebetrachtung wenigstens eines in einen körper intrakorporal eingebrachten medizinischen instruments
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE4213426C2 (de) Medizinische Vorrichtung, die einen Kontaktzustand eines Behandlungsabschnitts in der Betätigungseinheit nachbildet
DE69532829T2 (de) Vorrichtung zur benutzung mit einem chirurgischen navigationssystem
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
EP2236104B1 (de) Medizintechnische Navigations-Bildausgabe mit virtuellen Primärbildern und realen Sekundärbildern
DE102015226669A1 (de) Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
DE102007054450A1 (de) Vorrichtung zur Bereitstellung von Bildern für einen Operateur
DE102014226240A1 (de) System zur roboterunterstützten medizinischen Behandlung
DE102005041602A1 (de) Verfahren zur Darstellung eines medizinischen Implantats in einem Bild sowie medizinisches bildgebendes System
DE10100335A1 (de) Verfahren und Vorrichtung zum Festlegen eines Ortes
WO2010097315A1 (de) Navigation endoskopischer vorrichtungen mittels eye-tracker
EP1319368A2 (de) Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments
DE112016006299T5 (de) Medizinische Sicherheitssteuerungsvorrichtung, medizinisches Sicherheitssteuerungsverfahren und medizinisches Unterstützungssystem
US20210196404A1 (en) Implementation method for operating a surgical instrument using smart surgical glasses
DE102017108551A1 (de) Kopftragbare Darstellungsvorrichtung, Verfahren zum Betreiben derselben und medizinisch optisches Beobachtungssystem
DE102008032313B3 (de) Medizintechnische Vorrichtung
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE102007030747A1 (de) Verfahren und Einrichtung zum Durchführen eines minimalinvasiven Eingriffs in einem menschlichen oder tierischen Hohlorgan
DE4412164A1 (de) Positionsanzeiger für medizinische Tomographen
EP1695670A1 (de) Tragbare Laserprojektionsvorrichtung für die medizintechnische Bilddarstellung
DE10235795B4 (de) Medizinische Vorrichtung
DE10061782A1 (de) Verfahren zum Kommunizieren und/oder Dokumentieren von Informationen für die Medizin

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase