WO2012049038A1 - Operationsnavigationssystem mit strukturiertem licht - Google Patents

Operationsnavigationssystem mit strukturiertem licht Download PDF

Info

Publication number
WO2012049038A1
WO2012049038A1 PCT/EP2011/067254 EP2011067254W WO2012049038A1 WO 2012049038 A1 WO2012049038 A1 WO 2012049038A1 EP 2011067254 W EP2011067254 W EP 2011067254W WO 2012049038 A1 WO2012049038 A1 WO 2012049038A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
navigation system
operation navigation
orientation
area
Prior art date
Application number
PCT/EP2011/067254
Other languages
English (en)
French (fr)
Inventor
Hagen Klausmann
Anton Schick
Rainer Graumann
Martin Ringholz
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2012049038A1 publication Critical patent/WO2012049038A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags

Definitions

  • the invention relates to a surgical navigation system which detects the position and orientation of a medical instrument, a medical tool, an implant and / or a body part by means of structured light.
  • Optical navigation uses both passive and active tracking techniques. It is apier ⁇ connection between the instruments and the camera system required, which makes practical handling difficult. By means of a stereo Nachv furnishedungsresemble be both infrared light emitted as well as receive the reflections and spatially associated with ⁇ means of triangulation.
  • reflective markers are applied to all navigational elements, the patient, and optionally to the intraoperative imaging system.
  • the reflective marker elements are oriented sets ⁇ as disposable products and, therefore, produce high operating costs, which is about 50.00 EUR (2010) per navigated operation.
  • active marking elements such as Inf ⁇ rarot LEDs to use. These are problematic in terms of sterilization and the cables required for this are perceived by the surgical staff as disturbing. In turn, the A ⁇ set of batteries can cause higher operating costs. Even with the electromagnetic navigation cables required for this purpose are seen by the surgical staff as disturbing ⁇ .
  • the object of the invention is to overcome problems of the prior art and to provide an improved surgical navigation system.
  • the object of the invention is achieved by using spatially and temporally modulated light emitted on one or more objects in an operating region to determine at least one of type, position and orientation of an object as a function of time.
  • An operation navigation system comprises a light emitting device which emits structured light onto an operating area with at least one object, wherein an illumination pattern of the structured light is spatially and temporally modulated.
  • the operation navigation system comprises an image recording device which detects the light emitted by the object as a function of time. "Emit" the off ⁇ pressure may comprise reflecting and / or scattering light.
  • the operation navigation system further comprises a position determination device, which has the type
  • the temporally and spatially modulated light can be used to continuously determine the type, the position and / or the orientation of an object in an operating area without necessarily having to attach special marking elements to the object.
  • the structured light preferably has a wavelength invisible to humans, preferably a wavelength in the infrared range, for example between 780 nm and 3 ⁇ m. Since no Markie ⁇ guide elements are required in the inventive Operationsnavigati ⁇ onssystem, the operation cost can be reduced.
  • the surgical navigation system comprises a database in the image information data, for example, virtual dreidi ⁇ dimensional model data of the objects are stored. This ensures that the position-determining device recognizes the type and / or the position and / or the orientation of an object.
  • geometric data may be stored in the database, with which, for example, the tip of an operating instrument or any other position tion, which is medically relevant, can be determined from the specific position and / or orientation of the object. This geometric data can be part of the virtual three-dimensional model.
  • the database may have a geometric description of the object. Alternatively, data can be determined in the database based on a so ⁇ called teach-in procedure in which the object is absorbed by a suitable image recording device and the relevant data for the database, for example by feature extraction, are generated.
  • the position determination device can be designed to recognize at least one imaging system, a tool, an instrument, an implant, a body part, a reference object etc. as the aforementioned object.
  • the database may be adapted as at least one object change ⁇ Bendes system, a tool, a tool, an implant, a body portion, a reference object, etc. to be defined.
  • the reference object can be arranged on a body part, any location in the operating area and / or in another location.
  • the position determination device can be designed to know any modality as an imaging system, and the database can be set up to define any modality as an imaging system.
  • the modality may include, for example, an ultrasound system, an X-ray system, a C-arm X-ray system, an MRI system, a PET system, a SPECT system. This allows image-based navigation, where the position of objects in patient image data can be displayed.
  • the image recording device may comprise a stereoscopic camera.
  • the two cameras of the stereoscopic camera can be offset from each other and / or inclined.
  • the stereoscopic camera with at least two sepa ⁇ advise cameras that is, two separate combinations of objectivity tive and sensor, such as CCD chip, the position of an object in space can be determined by means of suitable mathematical methods, since the object is detected from two different ⁇ different positions or perspectives.
  • the light emitting device may comprise a projector having a rotating light mask which is illuminated, whereby the locally and temporally modulated light generated by the disc is delivered to the operating area.
  • the rotating light mask can be illuminated with transmitted or incident light. If the rotating light mask is illuminated with transmitted light, the light mask has areas with a higher transparency and areas with a lower transparency. If the light screen is illuminated with incident light, the light mask to more reflective and less reflective and more absorbing and less absorbing Be ⁇ rich.
  • the light emitting device can deliver on the operation area a strip-shaped and / or a wave-shaped, such as sinusoidal, Lichtinten ⁇ sticiansmuster. If a strip-shaped and / or substantially sinusoidal intensity pattern is emitted onto the surgical area, a distortion of the pattern results when the camera is observed by means of a camera from a direction different from the direction of projection.
  • the substantially sinusoidal pattern is laterally displaced depending on the distance of the object in phase. From this phase shift, the distance and orientation to the camera can be calculated.
  • the image recording device may comprise a plurality of image recording systems, for example stereoscopic cameras, which capture the surgical area from different directions.
  • an image pickup system at a corner of the operation area is arranged in each case so that IMP EXP ⁇ including four imaging systems are used.
  • Characterized Kgs ⁇ NEN be reduced, the problems which result from the fact that a part of an object in the direction of the line of sight to one of the cameras is hidden. With this arrangement, the type, position and / or orientation of each object in the operating area can be determined.
  • imaging systems for example stereoscopic cameras, of different resolution in an operating area.
  • the plurality of imaging systems may detect the surgical area at different resolutions.
  • a comparatively coarse resolution imaging system may be used to capture the entire surgical area.
  • a relatively high resolution imaging system can be used to more accurately detect a particular area of the surgical area.
  • the imaging systems can use struc ⁇ rêts light at different wavelengths, so that the image capture systems do not interfere with each other.
  • the image acquisition systems may use structured light with a different temporal modulation, so that the image acquisition systems do not interfere with each other.
  • the operation navigation system may include a control device that is configured to control the light emitting device and the position determining device so that the position and orientation of the imaging system in the coordinate system of the surgical navigation system are determined.
  • the imaging system may be, for example, an X-ray system with a C-arm.
  • Pivoting position (s) can be determined.
  • the invention also relates to a method for determining the position of an object in an operating area.
  • the object in the operating area is illuminated with structured light, wherein a pattern of illumination of the structured light is spatially and temporally modulated.
  • the light emitted by the object is detected as a function of time.
  • the position and / or orientation of the object will be determined from the light emitted by the object as a function of Be ⁇ illumination pattern.
  • the method as previously un ⁇ ter has been described with reference to the apparatus be reneweds ⁇ taltet.
  • the invention also relates to a computer program product that can be loaded into a memory of a computer with a processor or is loaded, wherein the Computerprogrammpro ⁇ domestic product has means to be set up before ⁇ described method for performing the steps of.
  • Figure 1 is a schematic section through an operating area to which the present invention is applied;
  • Figure 2A shows a projector having a ⁇ be illuminated with transmitted light th light mask
  • FIG. 2B shows a projector with a light mask illuminated with reflected light
  • FIG. 3A shows a spatially strip-shaped modulated light pattern
  • FIG. 3B shows a spatially sinusoidally modulated light pattern
  • FIG. 3C shows an object which is illuminated with a linear light pattern
  • Figure 4 is a schematic plan view of a stereoscopic camera with a projector for structured light.
  • FIG. 1 schematically shows a cross-section of an exemplary operating environment 1.
  • the operating environment comprises an operating table 2 on which a patient 4 is located.
  • a first instrument 6 is used.
  • a first reference element 8 angeord ⁇ net.
  • a second instrument 10 is positioned on the body of the patient 4, to which a second reference element 12 is attached.
  • the operating region furthermore has an X-ray system with a pivotable C-arm 14, on which an X-ray emitter 16 and an X-ray detector 18 are arranged.
  • the X-ray system with a C-arm 14 can be generated Recordin ⁇ men of the interior of the patient's 4 body before and / or during the operation.
  • the surgical navigation system has a position sensor 20 which comprises a light proctor 22 and a camera 24.
  • the light proctor outputs a strip-shaped and / or wave-shaped modulated light 26 onto the operating region 1.
  • the structured light is temporally and locally modulated.
  • the camera 24 detects the instrument from the first to ⁇ 6, first reference element 8, the second instrument 10, and the second reference element 12 emitted structured light in function of time.
  • the light projector 22 of the position sensor 22 may also be the detector 18 of the Röntgensys ⁇ tems with the C-arm 14 illuminate.
  • the camera 24 can detect the structured light emitted by the detector 18.
  • the light projector 22 can also illuminate the emitter 16 of the C-arm, and the camera 24 can detect the light emitted by the emitter 16 light.
  • the surgical navigation system may also determine the position of the emitter 16 and / or detector 18 of the C-arm.
  • Fig. 2A shows the operation of a first form of a guide From shows Lichtpro ector 22.
  • the Lichtpro ector comprises a Be ⁇ illumination unit 28, the light on a rotating
  • Light mask 30 gives off.
  • Lined regions 32, 35 are arranged on the rotating light mask.
  • wave-shaped regions 33, 34 can be arranged on the light mask .
  • the wave ⁇ shaped areas are formed sinusoidal.
  • the line-shaped regions 32, 35 and the wave-shaped portions 33, 34 are formed transparent, whereas the remaining preparation ⁇ surface of the rotating light mask 30 are not transparent Oilbil ⁇ det.
  • the light emitted from the lighting unit 28 light passes through the line-shaped regions 32, 35 or wave-shaped portions 33, 34 into the projection optical system 25, and is rich of this a structured light 26 to be un ⁇ tersuchende surface, for example a Operationsbe ⁇ delivered.
  • a wave-shaped or sinusoidal illumination pattern is laterally displaced as a function of the distance of an object in the phase . From this phase shift, the distance to the light projector 22 or to the camera 24 can be calculated.
  • FIG. 2B shows a second embodiment of the light projector 22.
  • the light mask is designed as a rotating roller 31, which is illuminated by incident light illumination 29.
  • the strip-shaped regions 32, 35 and the wave-shaped regions 33, 34 are designed to be reflective or light-emitting in this embodiment, while the remaining regions of the rotating roller are designed to be light-absorbing.
  • the light emitted by the line-shaped regions or wave-shaped regions is irradiated by the projection optical system 25 as a structured light 26 onto one to be examined
  • Fig. 3A shows a line-shaped pattern 32, 35, which is delivered to a flat object.
  • Fig. 3B shows a wavy pattern which is delivered to a flat object.
  • FIG. 3C shows a line-shaped pattern that is delivered to a round object 0. It can be seen that the line-shaped pattern bulges in an area where it meets the round object. Due to the curvature of the linear pattern, the surgical navigation system according to the invention can measure at least one of the type of the object, the position of the object and the orientation of the object.
  • Computerge ⁇ assisted methods for evaluating structured light are known in the art and thus will not be discussed further herein, the analysis of the structured light.
  • Fig. 4 shows a stereoscopic camera 36 with a light ⁇ projector 22, a first camera 38 and a second camera 40.
  • the first camera 38 includes a first image sensor 42 and the second camera 40 includes a second image sensor 44.
  • the light projector 22 has a light emitting device 46 which generates temporally and locally modulated light. The temporally and locally modulated light is emitted to an object 0 in the form of line-shaped regions 32, 35.
  • the line-shaped regions 32, 35 are received by the first camera 38 and the second camera 40, and transferred to a positi ⁇ onsbeéess Rhein 48th
  • the position determining device 48 generates a pictorial representation of the operating area, which is displayed on a display device 56.
  • the position determiner 48 is connected to a database 54 containing representations of the objects. By means of the representations of the objects, the position determination device 48 can determine the type of the object.
  • the position determination means 48 may determine men based on the data contained in the database 54 whether the object is a tool, a tool, a Implan ⁇ did an imaging system etc.. Further, the posi tion ⁇ determining means from the data contained in the database 54 data, determine the position of the object.
  • the position determining device 48 can determine the position of the tip of a medical instrument from the data stored in the database 54.
  • the operation navigation system further comprises a control device 50, which is connected to the light-emitting device 46 and to the position-determining device 48.
  • the controller 50 is also connected to a C-arm controller 52 configured to cause the C-arm to pivot so that the position of the detector or emitter is controlled by the light-emitting device 46, the first camera 38 and the like second camera 40 can be determined.
  • the invention proposes to use structured illumination to directly determine the position and orientation of objects in space.
  • Separate optically visible marking elements are provided.
  • LEDs or electromagnetic coils are not mandatory in this process.
  • Three-dimensional models of all instruments, tools, implants and imaging modalities used in an operation are stored in a database.
  • the visible three-dimensional surfaces of all objects located in the operating area are determined by the system in real time and assigned in real time to the corresponding three-dimensional models.
  • the algorithms used can also identify an object if only a part of the object is optically visible. Consequently, the current position and orientation of all visible objects can be determined in real time.
  • the tip can be represented in the body of an instrument located Pa ⁇ tienten when the corresponding handle of the instrument can be optically detected, and rigidly connected to the top.
  • the position and orientation of these objects can be displayed and updated in real time after a registration procedure in the image data, which were determined, for example, with an imaging modality. At the same time the position and
  • implants and instruments determined they can be displayed simultaneously with the image data and determined in their relative relationship to each other.
  • reference structures may be used to allow the location of the patient to be determined. Since during surgery a surgeon holds in hand the object whose position is to be detected, for example an instrument, only part of the surface of the object is visible. This negatively affects the recognizability of the object.
  • additional three-dimensional structures are provided on the objects to ensure detectability, even when a surgeon holds the object in his hand.
  • the position and orientation of the coordinate system of the imaging in the space compared to the coordinate system of the operation navigation system can also be determined by the operation navigation system. Consequently, the images of the intraoperative imaging can be displayed in the coordinate system of the surgical navigation system.
  • this means that are the position and orientation of the Orien ⁇ X-ray detector and / or the X-ray tube loading is true.
  • the position and orientation of the Ultraschallappli- must be determined kators single ⁇ Lich. In these cases, above the rela tive ⁇ relationship between the imaging volume and the image must dozenss réelle, whose position is determined intra-operatively, are determined and preferably also stored.
  • Positionsbe ⁇ tuning systems a plurality of stereoscopic cameras, the time and space emit modulated light with different wavelengths and know their mutual position or determine by measurement.
  • the invention can also be combined with conventional electromagnetic and / or optical navigation systems. For example, the position of a Flexib ⁇ len instrument in the body by means of electromagnetic navigation can be determined, wherein the position of the field generator for determining the position of the flexible instrument with the methods described herein is determined.
  • the positions and orientations of instruments in the body can rationsnavigationssystems determine the coordinate system where the surgical microscope according to the invention and assign the images generated with a nostige ⁇ reproduced modality.
  • the objects to be recognized may be provided with an infrared-reflective layer.
  • the invention is not be on stereoscopic cameras restricts ⁇ . It can also spatially independent cameras USAGE ⁇ det, when the positions of which are known exactly to each other, for example if they are located at the corners of Opera- tion hall, surgical table, surgical department, etc., of solid and / or known positions.
  • the invention has the advantage that objects can be tracked in real time by means of three-dimensional techniques.
  • a sampling rate of 20 and 30 Hz is ⁇ rations Kunststoff suffi ⁇ accordingly.
  • a sampling rate of 50 Hz can be provided.
  • a projection of only four phase positions (sine) as well as a projection of a subcode to eliminate possible ambiguities in objects that are very extensive in height can be provided.
  • algorithms for compensating the motion blur can be implemented in fast moving objects.
  • the projection of the structured light preferably takes place in the infrared range.
  • the system according to the invention can be implemented such that It can be easily implemented in an existing environment.
  • the invention also has the advantage that by means of three-dimensional detection techniques navigation-relevant objects in the operating area without marking elements can be located exactly.
  • the invention is based on the finding that the use of active triangulation by means of structured illumination in the entire three-dimensional space in the surgical area opens up significant advantages with regard to costs, handling and further development potentials.
  • the marking elements In conventional navigation systems, the marking elements must be changed after each use, resulting in high costs. Furthermore, the costs for registration elements can be saved on the X-ray system or on the ultrasound system, since the inventive operation navigation system can perform the registration of the X-ray system.
  • Image acquisition systems which allow a resolution of 5000 points per line. If one assumes an operation range of 1 mx 1 m, this means a resolution of well below 1 mm. 1 b

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Biomedical Technology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung offenbart ein Operationsnavigationssystem, das räumlich und zeitlich moduliertes Licht verwendet, das auf ein Objekt (6, 8, 10, 12, O) in einem Operationsbereich (1) emittiert wird, um den Typ und/oder die Position und/oder die Orientierung eines Objekts in Abhängigkeit von der Zeit zu bestimmen.

Description

Beschreibung
Operationsnavigationssystem mit strukturiertem Licht Die Erfindung betrifft ein Operationsnavigationssystem, das die Position und Orientierung eines medizinischen Instruments, eines medizinischen Werkzeuges, eines Implantats und/oder eines Körperteils mittels strukturiertem Licht er- fasst .
Im Stand der Technik sind Operationsnavigationssysteme be¬ kannt, die dem Mediziner bei einer Operation, beispielsweise beim Einsetzen eines Implantats, unterstützen. Es werden sowohl optische als auch elektromagnetische Positionserfas- sungssysteme eingesetzt. Die Genauigkeit der eigentlichen Po¬ sitionsbestimmung liegt bei den optischen Verfahren bei etwa 0,2 mm und bei den elektro-magnetischen Systemen bei etwa 1 mm. Wenn die Genauigkeit der gesamten Anwendung, d.h. inklusive Bildgebung, Registrierung, Ob ektbewegung etc., be- trachtet wird, werden sowohl bei den optischen, als auch den elektromagnetischen Systemen eine Genauigkeit von etwa 3 bis 5 mm erreicht, wobei die optischen Systeme geringfügig besse¬ re Ergebnisse erzielen. Bei der bildgestützten Navigation werden Patientenbilddaten mit der aktuellen Patientenposition über einen sogenannten Registrierungsprozess abgeglichen. Es wird zwischen intraope¬ rativer und präoperativer Bildgebung mit den entsprechenden Registrierungsverfahren unterschieden. Bei der präoperativen Registrierung wird bei der Navigation im Allgemeinen ein dreidimensionaler Datensatz über das Volumen des Operationsbereichs geladen, der beispielsweise mittels Computertomogra¬ phie, Magnetresonanztomographie, PET, SPECT etc. erstellt wurde. Anschließend wird die Registrierung manuell durchge- führt. Bei intraoperativen Verfahren erfolgt die Erstellung der Bilder im Operationssaal mit bereits am Patienten ange¬ ordneten Nachverfolgungsreferenzelementen, wobei die Registrierung daher automatisch erfolgen kann. Hierzu werden insbe- sondere C-Bögen für die zweidimensionale und dreidimensiona Bildgebung verwendet. Es ist auch möglich, intraoperative C Systeme oder MR-Systeme zu verwenden.
Bei der optischen Navigation werden sowohl passive als auch aktive Nachverfolgungsverfahren verwendet. Es ist eine Sicht¬ verbindung zwischen den Instrumenten und dem Kamerasystem erforderlich, was eine praktische Handhabung erschwert. Mittels einer Stereo-Nachverfolgungskamera werden sowohl Infrarot- licht ausgesendet als auch die Reflexionen empfangen und mit¬ tels Triangulation räumlich zugeordnet. Bei diesem passiven Verfahren werden reflektierende Markierungselemente auf allen Navigationselementen, dem Patienten sowie gegebenenfalls an dem intraoperativen Bildgebungssystem angebracht. Die reflektierenden Markierungselemente sind als Einwegprodukte ausge¬ legt und erzeugen daher hohe Betriebskosten, die etwa 50,00 Euro (Stand 2010) pro navigierter Operation betragen. Es ist auch möglich, aktive Markierungselemente, beispielsweise Inf¬ rarot-LEDs, zu verwenden. Diese sind hinsichtlich der Sterilisierung problematisch und die hierfür erforderlichen Kabel werden vom Operationspersonal als störend empfunden. Der Ein¬ satz von Batterien führt wiederum zu höheren Betriebskosten. Auch bei der elektromagnetischen Navigation werden die hierzu erforderlichen Kabel vom Operationspersonal als störend ange¬ sehen .
Operationsnavigationssysteme sind detailliert in Imaging Sys¬ tems for Mecical Diagnostics, Arnulf Oppelt, Publicis Corpo¬ rate Publishing beschrieben.
Die Erfindung stellt sich die Aufgabe, Probleme des Standes der Technik zu überwinden und ein verbessertes Operationsna- vigationssystem zu schaffen.
Die Aufgabe der Erfindung wird durch Verwenden von räumlich und zeitlich moduliertem Licht gelöst, das auf ein oder mehrere Objekt (e) in einem Operationsbereich emittiert wird, um zumindest eines von Typ, Position und Orientierung eines Objektes in Abhängigkeit von der Zeit zu bestimmen.
Ein erfindungsgemäßes Operationsnavigationssystem umfasst ei- ne Lichtabgabeeinrichtung, die strukturiertes Licht auf einen Operationsbereich mit zumindest einem Objekt abgibt, wobei ein Beleuchtungsmuster des strukturierten Lichts räumlich und zeitlich moduliert ist. Das Operationsnavigationssystem umfasst eine Bildaufnahmeeinrichtung, die das vom Objekt emit- tierte Licht in Abhängigkeit von der Zeit erfasst. Der Aus¬ druck "emittieren" kann Reflektieren und/oder Streuen von Licht umfassen. Das Operationsnavigationssystem weist ferner eine Positionsbestimmungseinrichtung auf, die den Typ
und/oder die Position und/oder die Orientierung des Objektes aus dem vom Objekt emittierten Licht in Abhängigkeit des Be¬ leuchtungsmusters im Koordinatensystem der Positionsbestimmungseinrichtung bestimmt.
Durch das zeitlich und örtlich modulierte Licht kann kontinu- ierlich der Typ, die Position und/oder die Orientierung eines Objektes in einem Operationsbereich bestimmt werden, ohne dass gezwungenermaßen spezielle Markierungselemente auf dem Objekt angebracht werden müssen. Das strukturierte Licht weist vorzugsweise eine für den Menschen unsichtbare Wellen- länge auf, vorzugsweise eine Wellenlänge im Infrarotbereich, beispielsweise zwischen 780 nm und 3 μπι. Da keine Markie¬ rungselemente bei dem erfindungsgemäßen Operationsnavigati¬ onssystem erforderlich sind, können die Operationskosten verringert werden.
Das Operationsnavigationssystem umfasst eine Datenbank, in der Bild-Informations-Daten, beispielsweise virtuelle dreidi¬ mensionale Modelldaten, der Objekte hinterlegt sind. Dadurch wird sichergestellt, dass die Positionsbestimmungseinrichtung den Typ und/oder die Position und/oder die Orientierung eines Objekts erkennt. Ferner können in der Datenbank geometrische Daten hinterlegt sein, mit denen beispielsweise die Spitze eines Operationsinstrumentes oder eine beliebige andere Posi- tion, die medizinisch relevant ist, aus der bestimmten Position und/oder Orientierung des Objektes ermittelt werden kann. Diese geometrischen Daten können Teil des virtuellen dreidimensionalen Modells sein. Die Datenbank kann eine geometrische Beschreibung des Objektes aufweisen. Alternativ hierzu können Daten in der Datenbank auf Grundlage eines so¬ genannten Teach-In-Verfahrens bestimmt werden, bei dem das Objekt durch eine geeignete Bildaufnahmeeinrichtung aufgenommen wird und die relevanten Daten für die Datenbank, beispielsweise durch Merkmalsextraktion, erzeugt werden.
Die Positionsbestimmungseinrichtung kann dazu ausgebildet sein, zumindest ein bildgebendes System, ein Werkzeug, ein Instrument, ein Implantat, ein Körperteil, ein Referenzobjekt etc. als das zuvor genannte Objekt zu erkennen. Die Datenbank kann dazu eingerichtet sein, als Objekt zumindest ein bildge¬ bendes System, ein Werkzeug, ein Instrument, ein Implantat, ein Körperteil, ein Referenzobjekt etc. zu definieren. Das Referenzobjekt kann an einem Körperteil, einem beliebigen Ort im Operationsbereich und/oder an einem anderen Ort angeordnet sein .
Die Positionsbestimmungseinrichtung kann dazu ausgebildet sein, als bildgebendes System eine beliebige Modalität zu er¬ kennen, und die Datenbank kann dazu eingerichtet sein, als bildgebendes System eine beliebige Modalität zu definieren. Die Modalität kann beispielsweise ein Ultraschallsystem, ein Röntgensystem, ein Röntgensystem mit einem C-Bogen, ein MRT- System, ein PET-System, ein SPECT-System umfassen. Dadurch wird eine bildgestützte Navigation ermöglicht, bei der die Position der Objekte in Patientenbilddaten angezeigt werden kann .
Die Bildaufnahmeeinrichtung kann eine stereoskopische Kamera aufweisen. Die beiden Kameras der stereoskopischen Kamera können zueinander versetzt und/oder geneigt sein. Durch Verwendung der stereoskopischen Kamera mit zumindest zwei sepa¬ raten Kameras, d. h. zwei separaten Kombinationen aus Objek- tiv und Messaufnehmer, beispielsweise CCD-Chip, kann mittels geeigneter mathematischer Verfahren die Position eines Objektes im Raum bestimmt werden, da das Objekt aus zwei unter¬ schiedlichen Positionen bzw. Perspektiven erfasst wird.
Die Lichtabgabeeinrichtung kann einen Projektor mit einer rotierenden Lichtmaske aufweisen, die beleuchtet wird, wobei das durch die Scheibe erzeugte örtlich und zeitlich modulierte Licht auf den Operationsbereich abgegeben wird. Die rotierende Lichtmaske kann mit Durchlicht oder Auflicht beleuchtet werden. Wird die rotierende Lichtmaske mit Durchlicht be¬ leuchtet, weist die Lichtmaske Bereiche mit einer höheren Transparenz und Bereiche mit einer niedrigeren Transparenz auf. Wird die Lichtmaske mit Auflicht beleuchtet, weist die Lichtmaske stärker reflektierende und schwächer reflektierende bzw. stärker absorbierende und schwächer absorbierende Be¬ reiche auf.
Die Lichtabgabeeinrichtung kann ein streifenförmiges und/oder ein wellenförmiges, beispielsweise sinusförmiges, Lichtinten¬ sitätsmuster auf den Operationsbereich abgeben. Werden auf den Operationsbereich ein streifenförmiges und/oder im Wesentlichen sinusförmiges Intensitätsmuster abgegeben, ergibt sich bei einer Beobachtung mittels einer Kamera aus einer zur Projektionsrichtung unterschiedlichen Richtung eine Verzerrung des Musters. Das im Wesentlichen sinusförmige Muster wird in Abhängigkeit von der Entfernung des Objektes in der Phase lateral verschoben. Aus dieser Phasenverschiebung kann der Abstand und die Orientierung zur Kamera berechnet werden.
Die Bildaufnahmeeinrichtung kann eine Mehrzahl Bildaufnahmesysteme, beispielsweise stereoskopischer Kameras aufweisen, die den Operationsbereich aus unterschiedlichen Richtungen erfassen. Vorzugsweise wird jeweils ein Bildaufnahmesystem an einer Ecke des Operationsbereiches angeordnet, so dass insge¬ samt vier Bildaufnahmesysteme verwendet werden. Dadurch kön¬ nen die Probleme reduziert werden, die sich daraus ergeben, dass ein Teil eines Objektes in Richtung der Sichtlinie zu einer der Kameras verborgen ist. Mit dieser Anordnung kann der Typ, die Position und/oder die Orientierung jedes Objekts im Operationsbereich bestimmt werden .
Ferner ist es möglich, Bildaufnahmesysteme, beispielsweise stereoskopische Kameras, unterschiedlicher Auflösung in einem Operationsbereich zu verwenden. Die Mehrzahl von Bildaufnahmesystemen kann den Operationsbereich mit unterschiedlichen Auflösungen erfassen. Beispielsweise kann ein vergleichsweise grob auflösendes Bildaufnahmesystem verwendet werden, um den gesamten Operationsbereich zu erfassen. Ferner kann ein vergleichsweise hochauflösendes Bildaufnahmesystem verwendet werden, um einen bestimmten Bereich des Operationsbereichs genauer zu erfassen. Die Bildaufnahmesysteme können struktu¬ riertes Licht mit unterschiedlichen Wellenlängen verwenden, damit sich die Bildaufnahmesysteme nicht gegenseitig stören. Ferner können die Bildaufnahmesysteme strukturiertes Licht mit einer unterschiedlichen zeitlichen Modulation verwenden, damit sich die Bildaufnahmesysteme nicht gegenseitig stören.
Das Operationsnavigationssystem kann eine Steuerungseinrichtung umfassen, die dazu ausgebildet ist, die Lichtabgabeeinrichtung und die Positionsbestimmungseinrichtung so anzusteuern, dass die Position und die Orientierung des bildgebenden Systems im Koordinatensystem des Operationsnavigationssystems bestimmt werden. Das bildgebende System kann beispielsweise ein Röntgensystem mit einem C-Bogen sein. Mittels des Operationsnavigationssystems kann die Position des Detektors und/oder des Emitters an einer oder einer Mehrzahl von
Schwenkstellung ( en) bestimmt werden.
Die Erfindung betrifft auch ein Verfahren zum Bestimmen der Position eines Objektes in einem Operationsbereich. Das Objekt im Operationsbereich wird mit strukturiertem Licht beleuchtet, wobei ein Beleuchtungsmuster des strukturierten Lichtes räumlich und zeitlich moduliert wird. Das vom Objekt emittierte Licht wird in Abhängigkeit von der Zeit erfasst. Die Position und/oder die Orientierung des Objektes werden aus dem vom Objekt emittierten Licht in Abhängigkeit des Be¬ leuchtungsmusters bestimmt. Das Verfahren kann, wie zuvor un¬ ter Bezugnahme auf die Vorrichtung erläutert wurde, ausges¬ taltet sein.
Die Erfindung betrifft auch ein Computerprogrammprodukt, das in einem Speicher eines Computers mit einem Prozessor geladen werden kann oder geladen ist, wobei das Computerprogrammpro¬ dukt Mittel aufweist, die zur Ausführung der Schritte des zu¬ vor beschriebenen Verfahrens eingerichtet sind.
Die Erfindung wird nachfolgend unter Bezugnahme auf die bei¬ gefügten Zeichnungen erläutert, die exemplarische Ausfüh¬ rungsformen darstellen. Es zeigen:
Figur 1 einen schematischen Schnitt durch einen Operationsbereich, bei dem die vorliegende Erfindung angewendet wird;
Figur 2A einen Projektor mit einer mit Durchlicht beleuchte¬ ten Lichtmaske;
Figur 2B einen Projektor mit einer mit Auflicht beleuchteten Lichtmaske ;
Figur 3A ein räumlich streifenförmig moduliertes Lichtmuster;
Figur 3B ein räumlich sinusförmig moduliertes Lichtmuster;
Figur 3C ein Objekt, das mit einem linienförmigen Lichtmuster beleuchtet wird; und
Figur 4 eine schematische Draufsicht auf eine stereoskopische Kamera mit einem Projektor für strukturiertes Licht.
Figur 1 zeigt schematisch einen Querschnitt einer beispielhaften Operationsumgebung 1. Die Operationsumgebung umfasst einen Operationstisch 2 auf dem sich ein Patient 4 befindet. Bei der Operation wird ein erstes Instrument 6 verwendet. Am Operationsbereich ist ein erstes Referenzelement 8 angeord¬ net. Ferner ist am Körper des Patienten 4 ein zweites Instrument 10 positioniert, an dem ein zweites Referenzelement 12 befestigt ist. Der Operationsbereich weist ferner ein Rönt- gensystem mit einem schwenkbaren C-Bogen 14 auf, an dem ein Röntgenemitter 16 und ein Röntgendetektor 18 angeordnet sind. Mittels des Röntgensystems mit dem C-Bogen 14 können Aufnah¬ men des Inneren des Körpers des Patienten 4 vor und/oder während der Operation erzeugt werden.
Das erfindungsgemäße Operationsnavigationssystem weist einen Positionssensor 20 auf, der einen Lichtpro ektor 22 und eine Kamera 24 umfasst. Der Lichtpro ektor gibt ein streifenförmig und/oder wellenförmig moduliertes Licht 26 auf den Operati- onsbereich 1 ab. Das strukturierte Licht ist zeitlich und örtlich moduliert. Die Kamera 24 erfasst das vom ersten In¬ strument 6, ersten Referenzelement 8, zweiten Instrument 10 sowie zweiten Referenzelement 12 emittierte strukturierte Licht in Anhängigkeit von der Zeit. Der Lichtprojektor 22 des Positionssensors 22 kann auch den Detektor 18 des Röntgensys¬ tems mit dem C-Bogen 14 beleuchten. Die Kamera 24 kann das vom Detektor 18 emittierte strukturierte Licht erfassen. Es versteht sich, dass der Lichtprojektor 22 auch den Emitter 16 des C-Bogens beleuchten kann, und die Kamera 24 das vom Emit- ter 16 emittierte Licht erfassen kann. Folglich kann das Operationsnavigationssystem auch die Position des Emitters 16 und/oder des Detektors 18 des C-Bogens bestimmen.
Sobald das strukturierte Licht 26 auf ein Objekt auftrifft, verändert sich die Form des strukturierten Lichts. Diese veränderte Form kann von der Kamera 24 erfasst werden und mit¬ tels einer Auswerteeinrichtung kann die Position und die Oberfläche eines Objektes bestimmt werden. Die Grundlagen der Bestimmung des Typs, der Position und/oder der Orientierung eines Objektes mit Hilfe strukturierten Lichts sind der DE 10 2010 006 105.0 beschrieben, deren Inhalt hier mit Bezugnahme aufgenommen wird. Fig. 2A zeigt die Funktionsweise einer ersten Aus führungs form eines Lichtpro ektors 22. Der Lichtpro ektor weist eine Be¬ leuchtungseinheit 28 auf, die Licht auf eine rotierende
Lichtmaske 30 abgibt. Auf der rotierenden Lichtmaske sind li- nienförmige Bereiche 32, 35 angeordnet. Alternativ hierzu oder zusätzlich können auf der Lichtmaske wellenförmige Be¬ reiche 33, 34 angeordnet sein. Vorzugsweise sind die wellen¬ förmigen Bereiche sinusförmig ausgebildet. Die linienförmigen Bereiche 32, 35 bzw. die wellenförmige Bereiche 33, 34 sind transparent ausgebildet, wohingegen die verbleibenden Berei¬ che der rotierenden Lichtmaske 30 nicht transparent ausgebil¬ det sind. Das von der Beleuchtungseinheit 28 abgegebene Licht tritt durch die linienförmigen Bereiche 32, 35 bzw. wellen- förmigen Bereiche 33, 34 in die Projektionsoptik 25 ein und wird von dieser als strukturiertes Licht 26 auf eine zu un¬ tersuchende Oberfläche, beispielsweise einen Operationsbe¬ reich, abgegeben. Ein wellenförmiges oder sinusförmiges Beleuchtungsmuster wird in Abhängigkeit von der Entfernung eines Objektes in der Pha¬ se lateral verschoben. Aus dieser Phasenverschiebung kann der Abstand zum Lichtprojektor 22 bzw. zur Kamera 24 berechnet werden .
Fig. 2B zeigt eine zweite Aus führungs form des Lichtprojektors 22. Die Lichtmaske ist als rotierende Walze 31 ausgebildet, die mit einer Auflichtbeleuchtung 29 beleuchtet wird. Die streifenförmige Bereiche 32, 35 und die wellenförmigen Berei- che 33, 34 sind bei dieser Aus führungs form reflektierend oder lichtemittierend ausgebildet, während die verbleibenden Be¬ reiche der rotierenden Walze lichtabsorbierend ausgebildet sind. Das von den linienförmigen Bereichen bzw. wellenförmigen Bereichen emittierte Licht wird von der Projektionsoptik 25 als strukturiertes Licht 26 auf einen zu untersuchenden
Bereich, beispielsweise dem Operationsbereich abgegeben. Alle Muster der Mehrzahl von Mustern können unterschiedlich ausgebildet sein. Fig. 3A zeigt ein linienförmiges Muster 32, 35, das auf ein ebenes Objekt abgegeben wird. Fig. 3B zeigt ein wellenförmiges Muster, das auf ein ebenes Objekt abgegeben wird. Fig. 3C zeigt ein linienförmiges Muster, das auf ein rundes Objekt 0 abgegeben wird. Es ist zu erkennen, dass sich das linienför- mige Muster in einem Bereich wölbt, in dem es auf das runde Objekt trifft. Aufgrund der Wölbung des linienförmigen Mus¬ ters kann das erfindungsgemäße Operationsnavigationssystem zumindest eines aus dem Typ des Objektes, der Position des Objektes und Orientierung des Objektes messen. Computerge¬ stützte Verfahren zum Auswerten von strukturiertem Licht sind dem Fachmann bekannt und folglich wird auf die Auswertung des strukturierten Lichts hierin nicht mehr weiter eingegangen.
Fig. 4 zeigt eine stereoskopische Kamera 36 mit einem Licht¬ projektor 22, einer ersten Kamera 38 und einer zweiten Kamera 40. Die erste Kamera 38 weist einen ersten Bildaufnehmer 42 und die zweite Kamera 40 weist einen zweiten Bildaufnehmer 44 auf. Der Lichtprojektor 22 weist eine Lichtabgabeeinrichtung 46 auf, die zeitlich und örtlich moduliertes Licht erzeugt. Das zeitlich und örtlich modulierte Licht wird auf ein Objekt 0 in Form von linienförmigen Bereichen 32, 35 abgegeben. Die linienförmigen Bereiche 32, 35 werden durch die erste Kamera 38 und die zweite Kamera 40 aufgenommen und an eine Positi¬ onsbestimmungseinrichtung 48 übergeben. Die Positionsbestimmungseinrichtung 48 erzeugt eine bildliche Darstellung des Operationsbereichs, die auf einer Anzeigeeinrichtung 56 dargestellt wird. Die Positionsbestimmungseinrichtung 48 ist mit einer Datenbank 54 verbunden, die Repräsentationen der Objekte enthält. Mittels der Repräsentationen der Objekte kann die Positionsbestimmungseinrichtung 48 den Typ des Objektes bestimmen. Die Positionsbestimmungseinrichtung 48 kann auf Grundlage der in der Datenbank 54 enthaltenen Daten bestim- men, ob das Objekt ein Instrument, ein Werkzeug, ein Implan¬ tat, ein bildgebendes System etc. ist. Ferner kann die Posi¬ tionsbestimmungseinrichtung aus den in der Datenbank 54 enthaltenen Daten, die Position des Objektes bestimmen. Insbe- sondere kann die Positionsbestimmungseinrichtung 48 die Position der Spitze eines medizinischen Instrumentes aus den in der Datenbank 54 hinterlegten Daten bestimmen. Das Operationsnavigationssystem umfasst ferner eine Steuerungseinrichtung 50, die mit der Lichtabgabeeinrichtung 46 und mit der Positionsbestimmungseinrichtung 48 verbunden ist. Hierdurch lassen sich die Abgabe von strukturiertem Licht durch die Lichtabgabeeinrichtung 46 sowie das Erfassen der Bilder durch die erste Kamera 38 und die zweite Kamera 40 synchronisieren. Die Steuerungseinrichtung 50 ist auch mit einer C-Bogen-Steuerungseinrichtung 52 verbunden, die dazu ausgebildet ist, ein Schwenken des C-Bogens zu bewirken, so dass die Position des Detektors bzw. des Emitters mittels der Lichtabgabeeinrichtung 46, der ersten Kamera 38 und der zweiten Kamera 40 bestimmt werden kann.
Die Erfindung schlägt vor, mittels strukturierter Beleuchtung die Position und Orientierung von Objekten im Raum direkt zu bestimmen. Separate optisch sichtbare Markierungselemente,
LEDs oder elektromagnetische Spulen sind bei diesem Verfahren nicht zwingend erforderlich.
Dreidimensionale Modelle aller bei einer Operation verwende- ten Instrumente, Werkzeuge, Implantate und Bildgebungsmodali- täten, beispielsweise Röntgensystem mit einem C-Bogen, ein Ultraschallgerät, und optionale Referenzstrukturen werden in einer Datenbank hinterlegt. Die sichtbaren dreidimensionalen Oberflächen aller Objekte, die sich im Operationsbereich be- finden, werden durch das System in Echtzeit ermittelt und in Echtzeit den entsprechenden dreidimensionalen Modellen zugeordnet. Die verwendeten Algorithmen können ein Objekt auch identifizieren, wenn nur ein Teil des Objektes optisch sichtbar ist. Folglich können in Echtzeit die aktuelle Position und Orientierung aller sichtbaren Objekte ermittelt werden. Beispielsweise lässt sich die Spitze eines im Körper des Pa¬ tienten befindlichen Instruments darstellen, wenn der zugehörige Griff des Instruments optisch detektiert werden kann und starr mit der Spitze verbunden ist. Die Position und Orientierung dieser Objekte können nach einer Registrierungsprozedur in die Bilddaten, die beispielsweise mit einer Bildge- bungsmodalität ermittelt wurden, eingeblendet und in Echtzeit aktualisiert werden. Werden gleichzeitig die Position und
Orientierung von Implantaten und Instrumenten ermittelt, können diese gleichzeitig mit den Bilddaten eingeblendet werden und in ihrer relativen Beziehung zueinander bestimmt werden. Zusätzlich können Referenzstrukturen verwendet werden, die ermöglichen, dass die Lage des Patienten ermittelt wird. Da ein Chirurg während der Operation das Objekt, dessen Position zu ermitteln ist, beispielsweise ein Instrument, in der Hand hält, ist nur ein Teil der Oberfläche des Objektes sichtbar. Dadurch wird die Erkennbarkeit des Objektes negativ beein- flusst. Optional ist vorgesehen, zusätzliche dreidimensionale Strukturen an den Objekten anzubringen, um die Detektierbar- keit zu gewährleisten, auch wenn ein Chirurg das Objekt in der Hand hält.
Wird zusätzlich eine intra-operative Bildgebung verwendet, so kann die Lage und Orientierung des Koordinatensystems der Bildgebung im Raum gegenüber dem Koordinatensystem des Opera- tionsnavigationssystems auch durch das Operationsnavigations- system bestimmt werden. Folglich können die Bilder der intraoperativen Bildgebung im Koordinatensystem des Operationsna- vigationssystems dargestellt werden. Bei einem Röntgensystem mit einem C-Bogen bedeutet dies, dass die Position und Orien¬ tierung des Röntgendetektors und/oder der Röntgenröhre be- stimmt werden. Im Fall eines Ultraschallsystems muss ledig¬ lich die Position und die Orientierung des Ultraschallappli- kators bestimmt werden. In diesen Fällen muss zuvor die rela¬ tive Beziehung zwischen dem Bildgebungsvolumen und dem Bild- gebungsgerät , dessen Position intra-operativ bestimmt wird, ermittelt und vorzugsweise auch abgespeichert werden.
Es können mehrere stereoskopische Kameras als Positionsbe¬ stimmungssysteme verwendet werden, die zeitlich und räumlich moduliertes Licht mit unterschiedlichen Wellenlängen abgeben und die ihre gegenseitige Position kennen oder per Messung bestimmen. Die Erfindung kann auch mit herkömmlichen elektromagnetischen und/oder optischen Navigationssystemen kombi- niert werden. Beispielsweise kann die Position eines flexib¬ len Instruments im Körper mittels elektromagnetischer Navigation bestimmt werden, wobei die Position des Feldgenerators für die Bestimmung der Position des flexiblen Instrumentes mit dem hierin beschriebenen Verfahren bestimmt wird. Somit lassen sich die Positionen und Orientierungen von Instrumenten im Körper im Koordinatensystem des erfindungsgemäßen Ope- rationsnavigationssystems bestimmen und den mit einer bildge¬ benden Modalität erzeugten Bildern zuordnen. Zum Verbessern der Erkennungssicherheit können die zu erkennenden Objekte mit einer im Infrarotbereich reflektierenden Schicht versehen sein. Die Erfindung ist nicht auf stereoskopische Kameras be¬ schränkt. Es können auch räumlich unabhängige Kameras verwen¬ det werden, wenn deren Positionen zueinander exakt bekannt sind, beispielsweise wenn sie sich an den Ecken eines Opera- tionssaals, Operationstisches, Operationsbereichs etc., an festen und/oder bekannten Positionen befinden.
Die Erfindung hat den Vorteil, dass mittels dreidimensionaler Techniken Objekte in Echtzeit verfolgt werden können. Bei der üblichen Bewegungsgeschwindigkeit von Objekten in einem Ope¬ rationsbereich ist eine Abtastrate von 20 bis 30 Hz ausrei¬ chend. Optional kann eine Abtastrate von 50 Hz vorgesehen sein . Ferner kann eine Projektion von nur vier Phasenlagen (Sinus) sowie eine Projektion eines Subcodes zur Elimination von eventuellen Mehrdeutigkeiten bei in der Höhe sehr ausgedehnten Objekten vorgesehen sein. Ferner können Algorithmen zum Kompensieren der Bewegungsunschärfe bei schnell bewegten Ob- jekten implementiert sein. Die Projektion des strukturierten Lichtes erfolgt vorzugsweise im infraroten Bereich. Ferner kann das erfindungsgemäße System so implementiert sein, dass es leicht in einer bestehenden Umgebung implementiert werden kann .
Die Erfindung hat darüber hinaus den Vorteil, dass mittels dreidimensionaler Erfassungstechniken navigationsrelevante Objekte im Operationsbereich ohne Markierungselemente exakt lokalisiert werden können. Der Erfindung liegt die Erkenntnis zugrunde, dass durch den Einsatz der aktiven Triangulation mittels strukturierter Beleuchtung im gesamten dreidimensio- nalen Raum im Operationsbereich deutliche Vorteile im Hinblick auf Kosten, Handhabung und Weiterentwicklungspotentiale eröffnet werden. Die dreidimensionale Erfassung von Operati¬ onsgeräten, beispielsweise Bohrer, Meißel, Tastgeräte etc., erlaubt es auf zusätzliche, den Chirurgen behindernde Hilfs- mittel, beispielsweise Markierungselemente oder Kabel, zu verzichten .
Es können kostengünstigere Instrumente genutzt werden, die nicht durch die Zusatzkosten für die Markierungselemente be- lastet sind. Bei herkömmlichen Operationsnavigationssystemen müssen die Markierungselemente nach jedem Einsatz gewechselt werden, wodurch hohe Kosten entstehen. Ferner können die Kosten für Registrierungselemente am Röntgensystem oder am Ultraschallsystem eingespart werden, da das erfindungsgemäße Operationsnavigationssystem die Registrierung des Röntgensys- tems durchführen kann.
Es sind Bildaufnahmesysteme bekannt, die eine Auflösung von 5000 Punkte pro Linie erlauben. Legt man einen Operationsbe- reich von 1 m x 1 m zu Grunde, bedeutet das eine Auflösung von deutlich unter 1 mm. 1 b
Bezugs zeichenliste
1 Operationsbereich
2 Operationstisch
b 4 Patient
6 Erstes Instrument
8 Erstes Referenzelement
10 Zweites Instrument
12 Zweites Referenzelement
10 14 C-Bogen
16 Emitter
18 Detektor
20 Positionssensor
22 Lichtpro ektor
lb 24 Kamera
2b Pro ektionsoptik
26 Strukturiertes Licht
28 Beieuchtungseinheit
29 AufIichtbeleuchtung
20 30 Lichtmaske
31 Rotierende Walze
32 Linienförmiger Bereich
34 Wellenförmiger Bereich
36 Stereoskopische Kamera
2b 38 Erste Kamera
40 Zweite Kamera
0 Ob ekt
42 Erster Bildaufnehmer
44 Zweiter Bildaufnehmer
30 46 Lichtabgäbeeinrichtung
48 Positionsbestimmungseinrichtung bO Steuerungseinrichtung
b2 C-Bogen-Steuerungseinrichtung b4 Datenbank
3b b6 Anzeigeeinheit

Claims

Patentansprüche
OperationsnavigationsSystem, aufweisend
- eine Lichtabgabeeinrichtung (22, 46), die strukturiertes Licht auf einen Operationsbereich (1) mit zumindest einem Objekt (6, 8, 10, 12, 0) abgibt, wobei zumindest ein Beleuchtungsmuster (26, 32, 33, 34, 35) des strukturierten Lichts räumlich und zeitlich moduliert ist;
- eine Bildaufnahmeeinrichtung (24; 38, 40), die das vom Objekt (6, 8, 10, 12, 0) emittierte Licht in Abhängig¬ keit von der Zeit erfasst; und
- eine Positionsbestimmungseinrichtung (48), die den Typ und/oder die Position und/oder die Orientierung des Objektes (6, 8, 10, 12, 0) aus dem vom Objekt emittierten Licht in Abhängigkeit des Beleuchtungsmusters bestimmt (26, 32, 33, 34, 35) .
2. Operationsnavigationssystem nach Anspruch 1, gekennzeichnet durch
- eine Datenbank (54), in der Bild-Informations-Daten der
Objekte hinterlegt sind.
3. Operationsnavigationssystem nach Anspruch 1, dadurch gekennzeichnet, dass die Positionsbestimmungseinrichtung (48) dazu ausgebildet ist, zumindest ein bildgebendes Sys¬ tem (14, 16, 18), ein Werkzeug (6, 10), ein Instrument (6, 10), ein Implantat, ein Körperteil, ein Referenzobjekt (8, 12) als Objekt zu erkennen, und die Datenbank (54) dazu eingerichtet ist, als Objekt zumindest ein bildgebendes System (14, 16, 18), ein Werkzeug (6, 10), ein Instrument
(6, 10), ein Implantat, ein Körperteil, ein Referenzobjekt (8, 12) zu definieren, wobei das Referenzobjekt (8, 12) an einem Körperteil, einem beliebigen Ort im Operationsbe¬ reich und/oder an einem anderen Objekt angeordnet werden kann.
4. Operationsnavigationssystem nach Anspruch 3, dadurch gekennzeichnet, dass die Positionsbestimmungseinrichtung (48) dazu ausgebildet ist, als bildgebendes System eine beliebige Modalität zu erkennen, und die Datenbank dazu eingerichtet ist, als bildgebendes System eine beliebige Modalität zu definieren, wobei die Modalität zumindest ein Ultraschall-System, ein Röntgensystem und ein Röntgensys- tem mit einem C-Bogen (14, 16, 18) umfasst.
5. Operationsnavigationssystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Bildaufnahmeeinrich- tung mehrere Kameras umfasst, die in einem festen geomet¬ rischen Verhältnis zueinander stehen und insbesondere eine stereoskopische Kamera (36) aufweist.
6. Operationsnavigationssystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Lichtabgabeeinrichtung
(22) einen Projektor mit einer rotierenden Lichtmaske (30, 31) aufweist, die beleuchtet wird, wobei das durch die Lichtmaske erzeugte örtlich und zeitlich modulierte Licht auf den Operationsbereich (1) abgegeben wird.
7. Operationsnavigationssystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Lichtabgabeeinrichtung (27) ein streifenförmiges (32, 35) und/oder wellenförmiges Lichtintensitätsmuster (33, 34) auf den Operationsbereich abgibt.
8. Operationsnavigationssystem nach Anspruch 7, dadurch gekennzeichnet, dass die Positionsbestimmungseinrichtung (48) dazu ausgebildet ist, mittels Auswerten des auf
Grundlage des streifenförmigen (32, 35) und/oder wellenförmigen Lichtintensitätsmusters (33, 34) vom Objekt (6, 8, 10, 12, 0) emittierten Lichts die Entfernung des Objektes zu bestimmen.
9. Operationsnavigationssystem nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Bildaufnahmeeinrichtung eine Mehrzahl von Bildaufnahmesystemen (36) aufweist, die den Operationsbereich (1) aus unterschiedlichen Richtungen erfassen.
10. Operationsnavigationssystem nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Bildaufnahmeeinrichtung eine Mehrzahl von Bildaufnahmesystemen (36) aufweist, die den Operationsbereich (1) mit unterschiedlichen Auflösungen erfassen.
11. Operationsnavigationssystem nach einem der Ansprüche 3 bis 10, gekennzeichnet durch
- eine Steuerungseinrichtung (50), die dazu ausgebildet ist, die Lichtabgabeinrichtung und die Positionsbestimmungseinrichtung so anzusteuern, dass die Position und die Orientierung des bildgebende System im Koordinatensystem des Operationsnavigationssystems bestimmt wird.
12. Verwenden von räumlich und zeitlich moduliertem Licht, das auf ein Objekt (6, 8, 10, 12, 0) in einem Operations- bereich (1) emittiert wird, um den Typ und/oder die Position und/oder die Orientierung eines Objektes (6, 8, 10, 12, 0) in Abhängigkeit von der Zeit zu bestimmen.
13. Verfahren zum Bestimmen der Position eines Objektes (6, 8, 10, 12, 0) in einem Operationsbereich (1), aufweisend die folgende Schritte:
- Beleuchten des Objektes (6, 8, 10, 12, 0) im Operations¬ bereich mit strukturiertem Licht, wobei ein Beleuchtungs¬ muster des strukturierten Lichtes räumlich und zeitlich moduliert wird;
- Erfassen des vom Objekt (6, 8, 10, 12, 0) emittierten Licht in Abhängigkeit von der Zeit; und
- Bestimmen der Position und/oder der Orientierung des Objektes (6, 8, 10, 12, 0) aus dem vom Objekt emittierten Licht in Abhängigkeit des Beleuchtungsmusters (26, 32, 33,
34, 35) .
14. Computerprogrammprodukt, ladbar oder geladen in einen Speicher eines Computers umfassend Mittel, die zur Ausfüh¬ rung der Schritte des Verfahrens nach Anspruch 13 einge¬ richtet sind.
PCT/EP2011/067254 2010-10-11 2011-10-04 Operationsnavigationssystem mit strukturiertem licht WO2012049038A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010042278A DE102010042278A1 (de) 2010-10-11 2010-10-11 Operationsnavigationssystem mit strukturiertem Licht
DE102010042278.9 2010-10-11

Publications (1)

Publication Number Publication Date
WO2012049038A1 true WO2012049038A1 (de) 2012-04-19

Family

ID=44800015

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/067254 WO2012049038A1 (de) 2010-10-11 2011-10-04 Operationsnavigationssystem mit strukturiertem licht

Country Status (2)

Country Link
DE (1) DE102010042278A1 (de)
WO (1) WO2012049038A1 (de)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024871A1 (en) * 2013-08-19 2015-02-26 Basf Se Optical detector
US9665182B2 (en) 2013-08-19 2017-05-30 Basf Se Detector for determining a position of at least one object
US9741954B2 (en) 2013-06-13 2017-08-22 Basf Se Optical detector and method for manufacturing the same
US9829564B2 (en) 2013-06-13 2017-11-28 Basf Se Detector for optically detecting at least one longitudinal coordinate of one object by determining a number of illuminated pixels
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US10120078B2 (en) 2012-12-19 2018-11-06 Basf Se Detector having a transversal optical sensor and a longitudinal optical sensor
CN108955526A (zh) * 2018-07-27 2018-12-07 朱培恒 一种光场扫描装置及其光场扫描方法
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US11060922B2 (en) 2017-04-20 2021-07-13 Trinamix Gmbh Optical detector
US11067692B2 (en) 2017-06-26 2021-07-20 Trinamix Gmbh Detector for determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015208285A1 (de) 2015-05-05 2016-11-10 Friedrich-Schiller-Universität Jena Vorrichtung und verfahren zum räumlichen vermessen von oberflächen
EP3578126B1 (de) * 2018-06-08 2023-02-22 Stryker European Operations Holdings LLC Chirurgisches navigationssystem

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0672389A2 (de) * 1994-03-17 1995-09-20 Roke Manor Research Limited Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung
DE19743811A1 (de) * 1997-10-04 1999-05-20 Wolf Henning Meßverfahren und Meßvorrichtung mit drehbar gelagertem Gitterträger
EP1912039A1 (de) * 2006-10-11 2008-04-16 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102010006105A1 (de) 2010-01-28 2011-08-18 Siemens Aktiengesellschaft, 80333 Vorrichtung und Verfahren zur sequentiellen Musterprojektion

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4687326A (en) * 1985-11-12 1987-08-18 General Electric Company Integrated range and luminance camera
EP1142536B1 (de) * 2000-04-05 2002-07-31 BrainLAB AG Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
EP2326276B1 (de) * 2008-08-18 2014-04-30 Naviswiss AG Medizinisches messsystem und die verwendung dieses medizinischen messsystems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0672389A2 (de) * 1994-03-17 1995-09-20 Roke Manor Research Limited Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung
DE19743811A1 (de) * 1997-10-04 1999-05-20 Wolf Henning Meßverfahren und Meßvorrichtung mit drehbar gelagertem Gitterträger
EP1912039A1 (de) * 2006-10-11 2008-04-16 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102010006105A1 (de) 2010-01-28 2011-08-18 Siemens Aktiengesellschaft, 80333 Vorrichtung und Verfahren zur sequentiellen Musterprojektion

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120078B2 (en) 2012-12-19 2018-11-06 Basf Se Detector having a transversal optical sensor and a longitudinal optical sensor
US9989623B2 (en) 2013-06-13 2018-06-05 Basf Se Detector for determining a longitudinal coordinate of an object via an intensity distribution of illuminated pixels
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US10845459B2 (en) 2013-06-13 2020-11-24 Basf Se Detector for optically detecting at least one object
US9741954B2 (en) 2013-06-13 2017-08-22 Basf Se Optical detector and method for manufacturing the same
US9829564B2 (en) 2013-06-13 2017-11-28 Basf Se Detector for optically detecting at least one longitudinal coordinate of one object by determining a number of illuminated pixels
US10823818B2 (en) 2013-06-13 2020-11-03 Basf Se Detector for optically detecting at least one object
US9958535B2 (en) 2013-08-19 2018-05-01 Basf Se Detector for determining a position of at least one object
US10012532B2 (en) 2013-08-19 2018-07-03 Basf Se Optical detector
AU2014310703B2 (en) * 2013-08-19 2018-09-27 Basf Se Optical detector
WO2015024871A1 (en) * 2013-08-19 2015-02-26 Basf Se Optical detector
US9665182B2 (en) 2013-08-19 2017-05-30 Basf Se Detector for determining a position of at least one object
US9557856B2 (en) 2013-08-19 2017-01-31 Basf Se Optical detector
JP2016537638A (ja) * 2013-08-19 2016-12-01 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 光学検出器
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US11415661B2 (en) 2016-11-17 2022-08-16 Trinamix Gmbh Detector for optically detecting at least one object
US11635486B2 (en) 2016-11-17 2023-04-25 Trinamix Gmbh Detector for optically detecting at least one object
US11698435B2 (en) 2016-11-17 2023-07-11 Trinamix Gmbh Detector for optically detecting at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object
US11060922B2 (en) 2017-04-20 2021-07-13 Trinamix Gmbh Optical detector
US11067692B2 (en) 2017-06-26 2021-07-20 Trinamix Gmbh Detector for determining a position of at least one object
CN108955526A (zh) * 2018-07-27 2018-12-07 朱培恒 一种光场扫描装置及其光场扫描方法

Also Published As

Publication number Publication date
DE102010042278A1 (de) 2012-04-12

Similar Documents

Publication Publication Date Title
WO2012049038A1 (de) Operationsnavigationssystem mit strukturiertem licht
US20210212772A1 (en) System and methods for intraoperative guidance feedback
EP3330922B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
EP0857461B1 (de) Verfahren und Anordnung zur Positionsbestimmung bei der Röntgenbildgebung
EP2850388B1 (de) Registrierverfahren und -vorrichtung für ein positionserfassungssystem
DE69822273T2 (de) Rahmenlose stereotaktische chirurgische Vorrichtung
EP1873666B1 (de) Medizintechnisches Markertracking mit Bestimmung der Markereigenschaften
EP2840975B1 (de) Röntgenquelle mit modul und detektor für optische strahlung
EP1142536A1 (de) Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
EP0950380A1 (de) Anordnung für die bildgeführte Chirurgie
EP1925256A1 (de) Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
EP1121900A2 (de) Verfahren zur Positionsbestimmung eines medizinischen Instruments
DE19807884A1 (de) Verfahren und Vorrichtung zur intraoperativen rechnergestützten Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte
CN114727845A (zh) 用于再现医疗器械的穿刺点的方法和系统
DE102019211870A1 (de) Projektionsvorrichtung zur Erzeugung einer Lichtverteilung auf einer Oberfläche eines Untersuchungsobjekts zur Ausrichtung eines medizinischen Objekts und Verfahren zur Projektion einer Lichtverteilung auf eine Oberfläche eines Untersuchungsobjekts
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
WO2018007091A1 (de) Vorrichtung zur bildgebung in einem operationssaal
WO2017084843A1 (de) Medizintechnische koordinatenmessvorrichtung und medizintechnisches koordinatenmessverfahren
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE102011050240A1 (de) Vorrichtung und Verfahren zur Bestimmung der relativen Position und Orientierung von Objekten
DE102021205700B4 (de) Darstellungsvorrichtung zur Anzeige einer erweiterten Realität und Verfahren zum Bereitstellen einer erweiterten Realität
DE102014212913A1 (de) Verfahren und Vorrichtung zur intraoperativen Navigation
EP1667067B1 (de) Verfahren und Vorrichtung zum Kalibrieren eines medizinischen Instrumentes
EP3533408B1 (de) Verfahren, system, computerprogrammprodukt und computerlesbares medium zum temporären markieren eines interessierenden bereichs auf einem patienten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11769831

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11769831

Country of ref document: EP

Kind code of ref document: A1