WO2002034153A1 - Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur - Google Patents

Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur Download PDF

Info

Publication number
WO2002034153A1
WO2002034153A1 PCT/DE2001/003972 DE0103972W WO0234153A1 WO 2002034153 A1 WO2002034153 A1 WO 2002034153A1 DE 0103972 W DE0103972 W DE 0103972W WO 0234153 A1 WO0234153 A1 WO 0234153A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
data
dynamic image
substructure
static
Prior art date
Application number
PCT/DE2001/003972
Other languages
English (en)
French (fr)
Inventor
Gerald Glombitza
Marcus Vetter
Peter Hassenpflug
Carlos Cardenas
Matthias Thorn
Ivo Wolf
Volker Braun
Christoph Giess
Harald Evers
Wolfram Lamade
Hans-Peter Meinzer
Original Assignee
Deutsches Krebsforschungszentrum Stiffung D. Öffentl. Rechts
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Krebsforschungszentrum Stiffung D. Öffentl. Rechts filed Critical Deutsches Krebsforschungszentrum Stiffung D. Öffentl. Rechts
Priority to EP01988559A priority Critical patent/EP1328209A1/de
Priority to AU2002215823A priority patent/AU2002215823A1/en
Priority to DE10194616T priority patent/DE10194616D2/de
Publication of WO2002034153A1 publication Critical patent/WO2002034153A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/32Surgical cutting instruments
    • A61B17/3203Fluid jet cutting instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • A61B90/17Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins for soft tissue, e.g. breast-holding devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3405Needle locating or guiding means using mechanical guide means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis

Definitions

  • the invention relates to a method and a device for navigation during medical interventions on non-osseous structures or for the fixation of a non-osseous structure.
  • the invention relates in particular to the field of medical interventions on soft tissue structures of a body.
  • the invention proposes on the one hand to record and save static image data of the non-bony structure before an intervention, to record dynamic image data of the non-bony structure during the intervention, to extract substructures from the image data and by comparing the substructure in the static image data with the substructure in the dynamic image data to assign the position of at least one area of interest to the non-bony structure during the medical intervention.
  • the method according to the invention is particularly suitable for non-bony structures, such as soft tissue, which are not adequately fixed by bony structures for navigation purposes.
  • This method is preferably suitable for organs such as the liver, spleen, heart, lungs and kidneys or large-volume muscle mass.
  • the method according to the invention enables a geometrical assignment of image data recorded before the intervention to the current position of the partial area, so that safety distances can be maintained even in the case of adverse optical and palpatory conditions.
  • the solution proposed according to the invention is preferably implemented with computer support.
  • the steps of the structural recording and the suitable assignment that are necessary according to the invention can be implemented relatively easily. It is correspondingly easy to save the necessary data and prepare it for output.
  • the necessary information can be recorded and stored in any other conceivable way.
  • the data can be output in any conceivable form, output of image data, in particular of three-dimensionally prepared image data, which give a therapist an overall spatial impression, is particularly suitable.
  • the corresponding information can also be output to other senses of a therapist, such as the sense of touch or hearing, in order to convey to him an idea of the position of the non-bony structure.
  • At least one vessel preferably a blood or lymph vessel or a hollow vessel, is preferably used as the substructure used for navigation.
  • bronchial tubes or the esophagus come into consideration as hollow vessels.
  • Vessels, especially blood vessels differ relatively clearly from the tissue surrounding them. This is due on the one hand to the vessel walls themselves and on the other hand to the properties of the medium present in these vessels, such as liquids or gases. In this regard, in particular with blood vessels Flow direction and speed of the blood are relatively easy to detect. A corresponding vascular tree can then be used as a substructure.
  • a transformation can preferably be determined which can be applied to the subarea of interest of the non-bony structure in the static image data in order to indicate the current position of the subarea.
  • the current position of the partial area can be specified relatively safely and yet with reasonable computing effort, so that, in particular with this configuration, navigation which is fast and thus timely during a medical intervention is possible.
  • image data in the present context refers to any data record that, due to a spatial assignment, enables a non-bony structure to be characterized in terms of its spatial extent.
  • the image data in the present context can be stored and processed in a corresponding data processing system, the representation of the image data also depending on the creter design, can be selected accordingly by screens or printers or other aids as desired.
  • Static image data are preferably selected which have at least three spatial dimensions, so that the entire volume of the partial structure or of the overall structure can be made available visually or in another suitable form, in particular also in preparation for the medical intervention.
  • suitable sections and viewing angles can be easily selected, which can be used to prepare for the medical intervention or for comparison with the dynamic image data.
  • a higher-dimensional image data set can also be selected, which assigns further information to certain locations, such as flow directions or flow velocities, the strength of certain signal responses, frequencies or frequency spectra, chemical compositions or temperatures or the like.
  • information or dimensions are selected that can be recorded intraoperatively quickly or reliably.
  • flow directions and flow velocities can be detected very quickly and reliably using Doppler ultrasound measurements, so that the position of a vessel or a vessel tree can thus be determined quickly and reliably.
  • a low-dimensional structure such as a vascular tree
  • the intraoperative geometry of the site before the actual resection or other interventions can be compared with planning data obtained in a first operative step.
  • the dynamic image data is preferably recorded in two dimensions. This has the advantage that data acquisition can then be carried out correspondingly quickly.
  • a two-dimensional data set lying in the cutting plane can already be sufficient to enable sufficiently precise navigation.
  • a plurality of two-dimensional data records are preferably recorded as dynamic image data. On the one hand, this can be used to find a certain level.
  • these data sets can be combined to form a three-dimensional image, so that a volumetric image of the corresponding structure is obtained.
  • three-dimensional data acquisition can also take place, the main criterion for the selection of the acquisition type for the dynamic image data being the ability to process the data as quickly as possible and, if possible, for real-time display.
  • a method is preferably used to record the static image data, which maps the three-dimensional anatomical structure with sufficient accuracy for the purposes of the medical practitioner.
  • the dynamic image data can originate from an arbitrarily dimensional method, it being particularly important that the substructures of interest can be reproduced in the dynamic image data with sufficient accuracy for a medical intervention.
  • At least some of the dynamic image data or the intraoperative image data is preferably acquired only in two dimensions. In this way, the amount of data to be processed and in particular also the number of computation steps required for registration or analysis can be considerably reduced, so that real-time analysis or an analysis or display performed almost in real time can be ensured with relatively little effort.
  • sufficient 2-dimensional data which may have been subjected to an analysis or segmentation, can be used to provide sufficient navigation capability.
  • this data can be used to check whether a certain level, for example a cutting level for a planned resection, has been reached or has been achieved with sufficient accuracy by appropriately analyzing the corresponding 2-dimensional data record and determining the data from it Data are compared with the static image data. Such a comparison can be made, for example, by finding a transformation and comparing the transformed pattern with the corresponding static data, the similarity of the patterns on the two image planes being a measure of the extent to which a corresponding plane has been reached.
  • At least one sensor is used to record the static image data and is also used to record the dynamic image data.
  • the corresponding measurement data correspond in terms of their type with regard to the tissue parameters determined with the sensor, and the necessary calculations, such as the generation of corresponding image data and the determination of the corresponding transformation, can be carried out relatively easily, and accordingly also in a correspondingly short time. so that - if possible - data can be output in real time or almost in real time.
  • a substructure in the two image data sets can preferably be analyzed in each case with regard to at least one location-dependent feature, such as a flow direction, a fabric wall or a flow velocity, and a comparison can be made or a transformation can be determined between the two image data sets.
  • the static image data by means of angio-CT and the dynamic image data by means of Doppler ultrasound an adequate description of the vessels as the substructures relevant for the comparison is achieved.
  • the static image data are then preferably transformed such that flow velocities are also assigned to them and data processing can take place correspondingly quickly after the dynamic image data has been recorded.
  • the procedure is preferably such that the corresponding substructure is extracted both from the static image data and from the dynamic image data and the respective data records are mapped to one another.
  • a corresponding transformation can also be determined between two dynamic image data records recorded at different times or under different conditions. The transformation determined in this way is then applied to the data record, which contains information that cannot be found in the other data record.
  • the transformation is applied to the static image data in order to be able to adapt the information missing in the dynamic image data or to present it to the therapist or surgeon according to the current position or position of the non-bony structure.
  • the determined transformation which - depending on the specific design - was then determined only from a comparison of part of the static image data with the dynamic image data, can then be applied to the entire static image data set, in order to determine the position of the structure also for tissue areas, the one with the sensor for dynamic Data record is not, only inaccurate, takes a lot of time or is difficult to record.
  • a surgical tool or instrument can also be represented in this way, especially if it extends deep into the non-bony structure and can no longer be seen from the outside.
  • Data corresponding to the image data such as measurement data, can also be used directly accordingly. For example, the flow direction and speed can be used directly as an output variable for a data comparison to determine a transformation.
  • At least second dynamic image data can be recorded and the substructures of interest can also be extracted from the second dynamic image data.
  • the position of the subarea of interest of the non-osseous structure can then be determined and output during the medical intervention.
  • the movement sequence of the structure or different deformations of the structure can be tracked during a medical intervention and the exact position can be determined in each case.
  • an intervention is preferably preceded by a computer-assisted operation planning, in which at least one three-dimensional data record is processed, which was previously determined using various measurement methods, such as ultrasound, CT, MR and the like.
  • the respective resection areas and the like can also be defined from this.
  • the dynamic image data are then first determined by the non-bony structure essentially contained in the static image data being determined again as part of the dynamic image data acquisition and the data obtained in this way being compared with the static data.
  • the non-bony structure is preferably fixed, so that a data comparison can be carried out quickly and reliably.
  • suitable anesthetic measures or surgical measures include, in particular, jet ventilation (ventilation technology to immobilize the liver) and the abdominal cavity with cloths or the fixation of the non-osseous structure using a suitable gripper arm.
  • a fixation shell can also be used, by means of which the non-osseous structure is fixed, the fixation preferably taking place largely in the natural form.
  • the fixation shell can be used for this purpose on the basis of the image data obtained preoperatively, for example by rapid prototyping or similar processes. ren, be prepared or preformed. If the non-bony structure is largely fixed in its natural form, a data comparison between preoperative data and first intraoperative data to determine the stationary data can be carried out relatively quickly and reliably.
  • the preoperatively obtained planning data can then be compared as static image data with the geometry of the intraoperative site and supplemented if necessary.
  • the fixed non-bony structure is scanned by means of ultrasound and the image data record obtained in this way is mapped to the data record obtained preoperatively using a suitable mathematical transformation.
  • fixation device or fixation shell and the corresponding procedure are also advantageous independently of the other features of the present invention. It is also understood that the method according to the invention can possibly also be carried out without a fixation.
  • the invention proposes two different procedures by which it is ensured that the detection field of the sensor used contains the field of action of the medical instrument.
  • tracking methods can be used which determine the detection field and the field of action and ensure that the imaging sensor essentially detects the field of action of the medical device. In this way it can be displayed or output detected. In this way, it can be displayed or output where the corresponding area of action or the corresponding area of action currently lies, so that the effect of the medical instrument can be appropriately anticipated by the therapist or surgeon. It is not absolutely necessary for the sensor to cover the entire field of action of the medical instrument. Rather, the relevant areas of the field of activity should preferably be recorded. For example, in the case of a jet cutter, the upper region of the water jet, which as a rule is not involved in the cutting process anyway, can be arranged outside the field of action.
  • the invention provides a device for navigation during medical interventions on non-osseous structures, which comprises a sensor for recording image data of the non-osseous structure during the medical intervention, which is connected to a medical instrument.
  • a sensor for recording image data of the non-osseous structure during the medical intervention which is connected to a medical instrument.
  • dynamic image data can be recorded with this device, which are directly correlated with the respective medical instrument.
  • this enables the image data to be acquired without having to take another medical instrument.
  • the method according to the invention makes it relatively easy to determine the exact position of the medical instrument in relation to the structures of interest.
  • the medical instrument thus has a dual function.
  • the arrangements described above are particularly suitable for a cutter, such as a scalpel or a jet cutter (water jet cutter).
  • the cutting plane can be detected by the sensor so that a doctor can easily determine or search for the correct cutting plane before the actual cut is made.
  • the cutting performance is regulated in accordance with specifications made during the preparation for the operation.
  • the cutting performance can be reduced if there is a deviation from a cut surface defined during the preparation for the operation.
  • the senor has a detection field that includes a direction of action or an area of action of the operating tool, so that the corresponding adjustment can take place immediately.
  • the sensor preferably comprises an ultrasonic sensor.
  • an ultrasonic sensor has a relatively simple structure, is usually available in every clinic and can also be used during an operation without any additional measures, since no essential safety precautions need to be taken, as is the case with X-ray apparatuses or similar radiographic devices.
  • a Doppler ultrasonic sensor without additional effort is used which allows the measurement of flows, in particular flows in vessels.
  • MR magnetic resonance
  • CT computer tomographs
  • X-ray devices in particular for vascular recognition
  • FIG. 1 a schematic view of the resection of a liver with a tumor
  • FIG. 2 shows a schematic view of an alternative for resection of a liver with a tumor
  • FIG. 3 shows a schematic view of a registration or transformation method
  • FIG. 4 shows a schematic view of a second registration or transformation method
  • FIG. 5 shows a schematic view of a third registration or transformation method
  • FIG. 6 shows a schematic view of an instrument according to the invention
  • FIG. 7 shows a schematic view of a further instrument according to the invention
  • Figure 8 shows an embodiment for the underside of the instrument of Figure 7 and
  • FIG. 9 shows a further embodiment for the underside of the instrument according to FIG. 7.
  • the left hepatic vein 5 is apparently not affected and is essential for survival.
  • a computer-assisted operation planning in which a three-dimensional data set is determined using various measurement methods, such as ultrasound, CT, MR and the like, from which the respective resection areas are defined.
  • a symbolic representation of the Vascular structures are calculated in which different morphological, geometric and functional properties of the vascular tree 3, 4, 5 ,. such as shape features, lengths, diameters, angles and positions of bifurcations, flow direction and speed of the blood and the like. ⁇ ., are saved.
  • dynamic image data of the intraoperative geometry of the site are compared with planning data obtained preoperatively as static image data.
  • the liver is scanned three-dimensionally using ultrasound, for example.
  • This data record is then mapped to the data determined during operation planning, for example an MR data record.
  • the liver 1 is initially fixed.
  • suitable anesthetic measures or surgical measures include in particular the jet ventilation and the design of the abdominal cavity with cloths or the fixation of the liver 1 by means of a suitable gripping arm.
  • a fixation shell 12 (FIG. 1) can also be used, by means of which the liver 1 is fixed, the liver 1 preferably being largely fixed in its natural form.
  • the fixation shell 12 can be prepared or preformed using rapid prototyping on the basis of the preoperatively obtained image data.
  • the planning data obtained preoperatively are compared as static image data with the geometry of the intraoperative site and, if necessary, supplemented.
  • the fixed liver is scanned using ultrasound and the image data set obtained in this way is mapped to the data set obtained preoperatively using a suitable mathematical transformation.
  • the resection is carried out by means of a jet cutter 6, which can cut using a water jet 7.
  • the jet cutter 6 also includes a Doppler ultrasound sensor with a detection field 8.
  • the current position of the jet cutter 6 with respect to the sectional plane defined in the operation planning is determined by means of the measurement data obtained from this, by the position of the vessels 3, 4, 5 determined in the dynamic image data, a corresponding transformation is determined and this transformation is applied to the static image data. A corresponding image display is made available to the surgeon.
  • the cutting performance of the jet cutter 6 is reduced according to the preoperative planning when the jet cutter 6 leaves the previously determined cutting surface. If a further tumor is detected by the intraoperative ultrasound 8, a new resection proposal can be worked out using the existing preoperative data and then implemented during the ongoing operation.
  • a two-dimensional (FIGS. 3 and 4) or a three-dimensional (FIG. 5) measurement of the dynamic data can take place.
  • vascular structures 3, 4, 5 can be carried out due to the small amount of data.
  • a real-time method can be easily implemented in this way, by means of which a possibly previously planned cutting plane defined or definable in the static data can be localized in the deformed organ 1.
  • a direct comparison of the two geometric arrangements can be carried out to compare the position of the two image planes.
  • the similarity of the vascular patterns on the two image planes is therefore a measure of the extent to which the two image planes are positioned in accordance with their vascular features 3, 4, 5.
  • the liver 1 is recorded using preoperative data recordings, such as, for example, contrast medium CT recordings 30. Based on this A three-dimensional representation 31 of the liver 1 can be taken, which supports in particular the planning of the operation and can also be used in particular for the construction of the fixation shell 12.
  • a symbolic vascular tree 33 can be extracted from these preoperative data using a vascular tree analysis 32.
  • a resection area 34 is preferably selected first, a flow simulation 35 then being carried out on the vascular tree 33 and a pattern 36 of the vessels on the resection area 34 with simulated flow directions being able to be determined therefrom.
  • Doppler ultrasound recordings 37 are recorded as a sequence of dynamic 2D images 38, which are segmented in real time and analyzed 39 for their characteristics.
  • a representation 40 of the vessels and their directions of flow is thus also determined from this in this exemplary embodiment.
  • a similarity measure can then be determined by means of a transformation between the pattern 36 and the representation 40, which gives a therapist or surgeon information about when he has reached the resection area.
  • Two-dimensional dynamic image data corresponding to the exemplary embodiment shown in FIG. 4, which essentially corresponds to the exemplary embodiment shown in FIG. 3, so that the same method steps are also provided with an identical reference number. It is expanded that relevant image features, such as vessel patterns and flow information, are extracted from the individual two-dimensional image data 38 and the extracted features 41 are successively supplemented to a higher-dimensional dynamic decision space 42. Accordingly, a three-dimensional pattern space 44 of the rivers and the flow directions is determined preoperatively from the vascular tree 33 by a flow simulation 43, which is then available for transformation calculations 45, 46.
  • relevant image features such as vessel patterns and flow information
  • a dynamic data set is initially recorded intraoperatively with the liver 1 as undeformed as possible (registration 45) and used to determine the static image data before resection areas are searched and resections are performed by then further transformations 46 are carried out and the therapist or surgeon is given an up-to-date picture of the liver 1 or the position of its instruments.
  • registration 45 the purely two-dimensional and three-dimensional image data
  • This procedure largely corresponds to the exemplary embodiment according to FIG. 5, so that here, too, the same method steps are provided with identical reference numerals.
  • 3D images 47 are recorded immediately, so that spatial data sets 48 are created, which are extracted and processed 49 accordingly in three dimensions. If three-dimensional dynamic image data (FIGS. 4 and 5) are available, they can be subjected to the same preprocessing step as the static image data. This creates a further symbolic description of the now deformed vessel tree 3, 4, 5. The two image data sets can then be mapped onto one another with the aid of the branching structures shown, even if the dynamic image data only partially reproduce the vessel tree.
  • the instrument according to FIG. 6 comprises a puncture needle 50 which is to be inserted in a navigated manner into a substructure 52 of a non-bony structure 51, such as a liver, for example.
  • the puncture needle 50 is provided with a holder 53, which in turn is attached to an ultrasound head 54.
  • the angle of the holder 53 can be adjusted so that different positions can be reached under the ultrasound head 54.
  • the puncture needle 50 can be moved in the holder 53, as indicated by the double arrows.
  • the angle is preferably set exactly before the insertion of the needle 50 and then fixed, so that the needle 50 can be brought to its place of use in a targeted and navigated manner.
  • FIG. 7 enables navigated work.
  • This is a jet cutter 55 which can be used for resection of structure 51, for example for resection of substructure 52.
  • the jet cutter 55 comprises a water supply 56 known per se and ejects a water jet 57 which is used for a Section can be used.
  • the jet cutter 55 is provided with an ultrasound array 58, which in turn is connected to a data processing system via a data connection 59.
  • the data processing system regulates the water jet 57 and, in particular, ensures that the water jet is switched off when the planned resection area is left or parts such as veins that are left intact are reached.
  • the ultrasound array 58 is linear, so that 2-dimensional images can be generated and used for navigation as described above.
  • the jet cutter 55 is preferably configured such that the water exit point 60 is framed by the array 58.
  • a 3-dimensional ultrasound array 62 frames the water exit point 63.

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Neurosurgery (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Bei einem Verfahren zur Navigation bei medizinischen Eingriffen an nicht-knöchernen Strukturen werden vor einem Eingriff statische bilddaten der nicht-knöchernen Struktur aufgenommen und gespeichert, während des Eingriffs dynamische Bilddaten der nicht-knöchernen Struktur aufgenommen und gespeichert und aus den Bilddaten der nicht-knöchernen Struktur aufgenommen und gespeichert und aus den Bilddaten Substrukturen extrahiert. Durch Vergleich der Substruktur bei den statischen Bilddaten mit der Substruktur bei den dynamischen Bilddaten kann die Lage wenigstens eines interessierenden Teilbereiches der nicht-knöchernen Struktur während des medizinischen Eingriffs ermittelt und ausgegeben werden, wodurch eine sehr genaue Navigation möglich wird. Vorzugsweise handelt es sich bei den Substrukturen um Gefässe. Die Integration der Erfindung in medizinische Abläufe wird dadurch gewährleistet, dass erfindungsgemäss das Wirkungsfeld medizinischer Instrumente und das Erfassungsfeld der bildgebenden Sensoren zueinander in Beziehung gesetzt werden.

Description

Verfahren und Vorrichtung zur Navigation bei medizinischen Eingriffen bzw. zur Fixation einer nicht-knöchernen Struktur
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Navigation bei medizinischen Eingriffen an nicht-knöchernen Strukturen bzw. zur Fi- xation einer nicht-knöchernen Struktur. Hierbei betrifft die Erfindung insbesondere das Gebiet der medizinischen Eingriffe an Weichteilstrukturen eines Körpers.
Bisher war der für derartige Eingriffe Verantwortliche im Wesentlichen auf seinen Tast- und Sehsinn angewiesen. Dieses führt insbesondere dazu, dass häufig Sicherheitsabstände zu lebenswichtigen Bereichen des Körpers nicht eingehalten werden können. Darüber hinaus ist die Orientierung bei einer derartigen Vorgehensweise für andere an dem medizinischen Eingriff beteiligte Personen nicht transparent. Dieses gestaltet sich insbesondere dahingehend als äußerst schwierig, da in der Regel derartige Weichteil- Strukturen ihre Lage während des Eingriffs verändern, so dass lebenswichtige Bereiche an einer anderen Position als zu Beginn des Eingriffs zu liegen kommen. Es ist Aufgabe vorliegender Erfindung, eine objektivere und genauere Navigation bei medizinischen Eingriffen an nicht-knöchernen Strukturen zu ermöglichen.
Als Lösung schlägt die Erfindung einerseits vor, vor einem Eingriff stati- sehe Bilddaten der nicht-knöchernen Struktur aufzunehmen und zu speichern, während des Eingriffs dynamische Bilddaten der nicht-knöchernen Struktur aufzunehmen, aus den Bilddaten Substrukturen zu extrahieren und durch Vergleich der Substruktur bei den statischen Bilddaten mit der Sub- struktur bei den dynamischen Bilddaten die Lage wenigstens eines interes- sierenden Teilbereiches der nicht-knöchernen Struktur während des medizinischen Eingriffs zuzuordnen.
Das erfindungsgemäße Verfahren eignet sich insbesondere für nichtknöcherne Strukturen, wie Weichteilgewebe, die nicht durch knöcherne Strukturen für Navigationszwecke ausreichend fixiert sind. Vorzugsweise eignet sich dieses Verfahren für Organe, wie Leber, Milz, Herz, Lungen und Nieren oder großvolumige Muskelmassen.
Durch das erfindungsgemäße Verfahren ist eine geometrische Zuordnung von vor dem Eingriff aufgenommen Bilddaten zu der aktuellen Lage des Teilbereichs möglich, so dass Sicherheitsabstände selbst bei widrigen opti- sehen und palpatorischen Verhältnissen eingehalten werden können. Durch Ermittlung der Lage der aktuellen Schnittebene in den statischen und dynamischen Bilddaten werden die Möglichkeiten zur Orientierung verbessert und Dritte erhalten Einsicht in die Navigation. Es versteht sich, dass die erfindungsgemäß vorgeschlagene Lösung vorzugsweise rechnergestützt realisiert wird. Hierdurch lassen sich die erfindungsgemäß notwendigen Schritte der Strukturaufnahme und der geeigneten Zuordnung verhältnismäßig einfach umsetzen. Auch ist es entspre- chend einfach, die notwendigen Daten zu speichern und für eine Ausgabe geeignet aufzubereiten. Andererseits können die notwendigen Informationen erfindungsgemäß auf jede andere denkbare Art aufgenommen und gespeichert werden. Dieses kann beispielsweise auch durch Erstellen eines geeigneten Modells oder ähnlichem realisiert werden. Ebenso kann die Da- tenausgabe in jeder denkbaren Form erfolgen, wobei sich eine Ausgabe von Bilddaten, insbesondere von dreidimensional aufbereiteten Bilddaten, welche einem Therapeuten einen räumlichen Gesamteindruck vermitteln, besonders eignet. Andererseits können die entsprechenden Informationen auch an andere Sinne eines Therapeuten, wie beispielsweise den Tastsinn oder das Gehör ausgegeben werden, um ihm eine Vorstellung von der Lage der nicht-knöchernen Struktur zu übermitteln.
Vorzugsweise wird als zur Navigation genutzte Substruktur wenigstens ein Gefäß, vorzugsweise ein Blut- oder Lymphgefäß bzw. ein Hohlgefäß, genutzt. Als Hohlgefäße kommen beispielsweise Bronchen oder die Speise- röhre in Betracht. Gefäße, insbesondere Blutgefäße, unterscheiden sich von dem sie umgebenden Gewebe verhältnismäßig deutlich. Dieses liegt einerseits an den Gefäßwänden selbst und andererseits an den Eigenschaften der in diesen Gefäßen vorhanden Mediums, wie beispielsweise Flüssigkeiten oder Gase. Insbesondere bei Blutgefäßen sind diesbezüglich auch Flussrichtung und Geschwindigkeit des Blutes verhältnismäßig gut detek- tierbar. Als Substruktur kann dann ein entsprechender Gefäßbaum genutzt werden.
Insofern kann durch den Vergleich der Substruktur bei den statischen Bilddaten mit der Substruktur bei den dynamischen Bilddaten vorzugsweise eine Transformation ermittelt werden, die auf den interessierenden Teilbereich der nicht-knöchernen Struktur in den statischen Bilddaten angewandt werden kann, um die aktuelle Lage des Teilbereichs anzugeben. Auf diese Weise lässt sich verhältnismäßig sicher und dennoch mit vertretba- rem Rechenaufwand die aktuelle Lage des Teilbereichs angeben, so dass insbesondere bei dieser Ausgestaltung eine schnelle und somit während eines medizinische Eingriffs rechtzeitige Navigation möglich wird.
In diesem Zusammenhang versteht es sich, dass die Transformation nicht zwingend aus den eigentlichen Bilddaten ermittelt werden muss, sondern dass dieses auch anhand anderer, den Bilddaten entsprechenden Daten, wie beispielsweise anhand von Messdaten, erfolgen kann. Insofern bezeichnet der Begriff „Bilddaten" in vorliegendem Zusammenhang jeden Datensatz, der aufgrund einer räumlichen Zuordnung eine Charakterisierung einer nicht-knöchernen Struktur in ihrer räumlichen Ausdehnung ermöglicht.
Es versteht sich, dass die Bilddaten in vorliegendem Zusammenhang in einer entsprechenden Datenverarbeitungsanlage gespeichert und verarbeitet werden können, wobei auch die Darstellung der Bilddaten, je nach kon- kreter Ausgestaltung, entsprechend durch Bildschirme bzw. Drucker oder andere Hilfsmittel nach Wunsch gewählt werden kann.
Vorzugsweise werden statische Bilddaten gewählt, die wenigstens drei räumliche Dimensionen aufweisen, so dass - insbesondere auch zur Vor- bereitung des medizinischen Eingriffs - das gesamte Volumen der Teilstruktur bzw. der Gesamtstruktur visuell oder in anderer geeigneter Form zur Verfügung gestellt werden kann. Insbesondere können aus einem dreidimensionalem Bilddatensatz ohne weiteres geeignete Schnitte und Betrachtungswinkel gewählt werden, die zur Vorbereitung des medizinischen Eingriffs oder für den Vergleich mit den dynamischen Bilddaten genutzt werden können. Andererseits kann auch ein höherdimensionaler Bilddatensatz gewählt werden, der bestimmten Orten weitere Informationen, wie Flussrichtungen oder Flussgeschwindigkeiten, die Stärke bestimmter Signalantworten, Frequenzen oder Frequenzspektren, chemische Zusammen- Setzungen bzw. Temperaturen oder ähnliches, zuordnet. Hierbei werden insbesondere Informationen bzw. Dimensionen gewählt, die intraoperativ schnell bzw. betriebssicher erfasst werden können. Beispielsweise können Flussrichtungen und Flussgeschwindigkeiten sehr schnell und betriebssicher durch Doppler-Ultraschallmessungen nachgewiesen werden, so dass somit die Lage eines Gefäßes bzw. eines Gefäßbaumes schnell und betriebssicher ermittelt werden kann. Insbesondere kann dann eine derartiges, niederdimensionales Gebilde, wie ein Gefäßbaum, zur Navigation genutzt werden und es braucht eine entsprechende Datenaufnahme und Transfer- mation nur auf diese niederdimensionale und somit mengenmäßig geringere Datenmenge gestützt werden.
Zur Ermittlung der statischen Bilddaten können beispielsweise in einem ersten operativen Schritt die intraoperative Geometrie des Situs vor der eigentlichen Resektion oder anderen Eingriffen mit präoperativ gewonnenen Planungsdaten abgeglichen werden.
Die Aufnahme der dynamischen Bilddaten erfolgt vorzugsweise zweidi- mensional. Dieses hat den Vorteil, dass dann eine Datenerfassung entsprechend schnell durchgeführt werden kann. Insbesondere wenn ein Schnitt durchgeführt werden soll, kann ein zweidimensionaler Datensatz, der in der Schnittebene liegt, auch bereits ausreichen, um eine genügend genaue Navigation zu ermöglichen. Vorzugsweise werden als dynamische Bilddaten mehrere zweidimensionale Datensätze aufgenommen. Dieses kann einerseits genutzt werden, um eine bestimmte Ebene zu finden. Andererseits können diese Datensätze zu einem dreidimensionalen Bild zusammengesetzt werden, so dass sich ein volumetrisches Abbild der entsprechenden Struktur ergibt.
Es versteht sich, dass auch eine dreidimensionale Datenaufnahme erfolgen kann, wobei hierbei insbesondere die Fähigkeit der möglichst schnellen Datenverarbeitung, nach Möglichkeit zu einer Echtzeitdarstellung, das Hauptkriterium für die Wahl der Aufnahmeart für die dynamischen Bilddaten ist. Zur Aufnahme der statischen Bilddaten wird vorzugsweise ein Verfahren verwandt, das die dreidimensionale anatomische Struktur hinreichend genau für die Zwecke des Mediziners abbildet. Die dynamischen Bilddaten hingegen können von einem beliebig dimensionalen Verfahren stammen, wobei es insbesondere darauf ankommt, dass die interessierenden Teilstrukturen für einen medizinischen Eingriff ausreichend genau in den dynamischen Bilddaten wiedergegeben werden können.
Um insbesondere die notwendigen Transformationen bzw. Berechnungen in Echtzeit bzw. nahezu in Echtzeit realisieren zu können, wird vorzugs- weise wenigstens ein Teil der dynamischen Bilddaten bzw. der intraoperativen Bilddaten lediglich 2-dimensional erfasst. Hierdurch lässt sich die zu verarbeitende Datenmenge und insbesondere auch die für eine Registrierung bzw. Analyse erforderliche Zahl der Rechenschritte erheblich reduzieren, so dass mit verhältnismäßig wenig Aufwand eine Echtzeitanalyse bzw. eine nahezu in Echtzeit vorgenommene Analyse oder Darstellung gewährleistet werden kann.
Zum Einen kann schon anhand derartiger 2-dimensional gewonnener Daten, die ggf. einer Analyse bzw. Segmentierung unterzogen wurden, eine ausreichende Navigationsfähigkeit zur Verfügung gestellt werden. So kann beispielsweise aus diesen Daten überprüft werden, ob eine bestimmte Ebene, beispielsweise eine Schnittebene für eine geplante Resektion, erreicht bzw. mit ausreichender Genauigkeit erreicht ist, indem der entsprechende 2-dimensionale Datensatz geeignet analysiert und die hieraus ermittelten Daten mit den statischen Bilddaten verglichen werden. Ein derartiger Vergleich kann beispielsweise über das Auffinden einer Transformation und einen Vergleich des transformierten Musters mit den entsprechenden statischen Daten erfolgen, wobei die Ähnlichkeit der Muster auf den beiden Bildebenen ein Maß dafür ist, inwieweit eine entsprechende Ebene erreicht ist.
Insbesondere ist es zum Anderen ergänzend bzw. alternativ möglich, die 2- dimensionalen Daten einer ersten Analyse zu unterziehen, mit welcher wesentliche Teildaten, die beispielsweise Substrukturen repräsentieren, extra- hiert und dann weiter verarbeitet werden. Schon hierdurch bedingt sich eine erhebliche Datenreduktion für die Weiterverarbeitung und eine hierdurch bedingte Erhöhung der Verarbeitungsgeschwindigkeit. Insbesondere ist es auch möglich, derartige 2-dimensional aufgenommene und vorverarbeitete Daten zu 3- und höherdimensionalen Repräsentationen sukzessive zusammenzufügen, falls dieses für weiterverarbeitende Schritte notwendig sein sollte. Insofern können beispielsweise 2-dimensionale Aufnahmen hinsichtlich Gefäßwänden, Flussrichtungen bzw. -geschwindigkeiten, Gefäßinhalten wie Luft oder Flüssigkeiten, oder ähnlichem analysiert und währenddessen bzw. anschließend sukzessive zu 3-dimensionalen Daten- sätzen zusammengefügt werden.
Es versteht sich, dass die Aufnahme zweidimensionaler Datensätze und deren Nutzung in vorbeschriebener Weise auch unabhängig von den übrigen Merkmalen vorliegender Erfindung vorteilhaft ist. Vorzugsweise wird zur Aufnahme der statischen Bilddaten wenigstens ein Sensor genutzt, der auch zur Aufnahme der dynamischen Bilddaten genutzt wird. Auf diese Weise stimmen die entsprechenden Messdaten hinsichtlich der mit dem Sensor ermittelten Gewebeparameter in ihrer Art überein und die notwendigen Berechnungen, wie die Erzeugung entsprechender Bilddaten und die Ermittlung der entsprechenden Transformation, lassen sich verhältnismäßig einfach, und dementsprechend auch in entsprechend kurzer Zeit, durchführen, so dass - nach Möglichkeit - eine Datenausgabe in Echtzeit bzw. nahezu in Echtzeit erfolgen kann.
Obwohl statische und dynamische Daten gleicher Modalität in der Regel einfacher und schneller verarbeitet, insbesondere verglichen und abgeglichen, werden können, kann es häufig angeraten sein, verschiedene Sensoren zu verwenden und beide Sätze von Sensorausgaben geeigneten Zwischenverarbeitungsschritten zu unterziehen, die das Problem des Abgleichs der Gesamtheit der Daten beider Sätze vorzugsweise auf deren wesentliche Teildaten, die beispielsweise Substrukturen repräsentieren, reduzieren und dadurch vereinfachen und beschleunigen. Insofern kann vorzugsweise eine Substruktur in den beiden Bilddatensätzen jeweils hinsichtlich wenigstens eines ortsabhängigen Merkmals, wie beispielsweise einer Flussrichtung, einer Gewebewand oder einer Flussgeschwindigkeit, analysiert und zwischen beiden Bilddatensätzen ein Abgleich vorgenommen bzw. eine Transformation ermittelt werden. Dementsprechend kann es beispielsweise vorteilhaft sein, die statischen Bilddaten durch Angio-CT und die dynamischen Bilddaten durch Doppler-Ultraschall aufzunehmen, wodurch jeweils eine adäquate Beschreibung der Gefäße als die für den Abgleich relevanten Substrukturen erreicht wird. Vorzugsweise werden dann die statischen Bilddaten derart transformiert, dass ihnen auch Fließgeschwindigkeiten zugeordnet werden und eine Datenverarbeitung entsprechend schnell nach Aufnahme der dynamischen Bilddaten erfolgen kann.
Hinsichtlich der Transformation wird vorzugsweise derart vorgegangen, dass sowohl aus den statischen Bilddaten als auch aus den dynamischen Bilddaten die entsprechende Substruktur extrahiert und die jeweiligen Datensätze aufeinander abgebildet werden. Ebenso kann auch zwischen zwei zu verschiedenen Zeitpunkten bzw. unter verschiedenen Bedingungen aufgenommenen dynamischen Bilddatensätzen eine entsprechende Transformation ermittelt werden. Die auf diese Weise ermittelte Transformation wird dann auf den Datensatz angewandt, in dem Informationen enthalten sind, die in dem anderen Datensatz nicht zu finden sind. In der Regel wird die Transformation auf die statischen Bilddaten angewandt werden, um so die in den dynamischen Bilddaten fehlenden Informationen angepasst bzw. rechnerisch dem Therapeuten bzw. Operateur entsprechend der aktuellen Lage bzw. Position der nicht-knöchernen Struktur präsentieren zu können.
Die ermittelte Transformation, die dann - je nach konkreter Ausgestaltung - nur aus einem Vergleich eines Teils der statischen Bilddaten mit den dynamischen Bilddaten ermittelt wurde, kann dann auf den gesamten statischen Bilddatensatz angewandt werden, um so die Lage der Struktur auch für Gewebebereiche zu ermitteln, die mit dem Sensor für den dynamischen Datensatz nicht, nur ungenau, unter erheblichem Zeitaufwand oder nur schwierig zu erfassen sind. Ebenso kann auf diese Weise ein Operationswerkzeug bzw. -instrament dargestellt werden, insbesondere wenn dieses tief in die nicht-knöcherne Struktur hineinreicht und von außen nicht mehr gesehen werden kann. In diesem Zusammenhang versteht es sich, dass - wie bereits vorstehend ausgeführt - eine Transformation nicht zwingend aus den eigentlichen dargestellten Bilddaten ermittelt werden braucht. Auch den Bilddaten entsprechenden Daten, wie beispielsweise Messdaten, können unmittelbar dementsprechend genutzt werden. So können bei- spiels weise unmittelbar Flussrichtung und -geschwindigkeit als Ausgangsgröße für einen Datenabgleich zur Ermittlung einer Transformation genutzt werden.
Je nach Verlauf des Eingriffs können wenigstens zweite dynamische Bilddaten aufgenommen und auch aus den zweiten dynamischen Bilddaten die interessierenden Substrukturen extrahiert werden. Durch Vergleich der Substruktur bei den statischen Bilddaten und/oder den ersten dynamischen Bilddaten mit der Substruktur bei den zweiten dynamischen Bilddaten kann dann die Lage des interessierenden Teilbereiches der nichtknöchernen Struktur während des medizinischen Eingriffs ermittelt und ausgegeben werden. Hierdurch können der Bewegungsablauf der Struktur bzw. unterschiedliche Verformungen der Struktur während eines medizinischen Eingriffs verfolgt und jeweils die genaue Lage ermittelt werden. Hinsichtlich des Gesamtablaufes geht einem Eingriff vorzugsweise eine computergestützte Operationsplanung voraus, in welcher wenigstens ein dreidimensionaler Datensatz verarbeitet wird, der zuvor mittels verschiedener Messmethoden, wie Ultraschall, CT, MR und ähnlichem ermittelt wurde. Hierbei können insbesondere auch hieraus die jeweiligen Resektionsflächen und ähnliches definiert werden. Während des operativen Eingriffs werden dann zunächst die dynamischen Bilddaten ermittelt, indem die in den statischen Bilddaten im Wesentlichen enthaltene nichtknöcherne Struktur entsprechend nochmals, im Rahmen der dynamischen Bilddatenerfassung ermittelt und die so gewonnen Daten mit den statischen Daten abgeglichen werden.
Vorzugsweise wird hierzu die nicht-knöcherne Struktur fixiert, so dass ein Datenabgleich schnell und betriebssicher durchgeführt werden kann. Dieses kann insbesondere durch geeignete anästhetische Maßnahmen bzw. chirurgische Maßnahmen erfolgen. Hierzu zählen insbesondere die Jet- Ventilation (Beatmungstechnik zur Ruhigstellung der Leber) und die Auslegung des Bauchraumes mit Tüchern bzw. die Fixation der nichtknöchernen Struktur mittels eines geeigneten Greif armes.
Darüber hinaus kann auch eine Fixationsschale zur Anwendung kommen, mittels welcher die nicht-knöcherne Struktur fixiert wird, wobei vorzugsweise die Fixation weitgehend in der natürlichen Form erfolgt. Hierzu kann insbesondere die Fixationsschale anhand der präoperativ gewonnenen Bilddaten, beispielsweise durch Rapid-Prototyping oder ähnliche Verfah- ren, vorbereitet bzw. vorgeformt werden. Wird die nicht-knöcherne Struktur weitgehend in ihrer natürlichen Form fixiert, kann ein Datenabgleich zwischen präoperativen Daten und ersten intraoperativen Daten zur Ermittlung der stationären Daten verhältnismäßig schnell und betriebssicher durchgeführt werden.
In einem nächsten Schritt können dann somit die präoperativ gewonnenen Planungsdaten als statische Bilddaten mit der Geometrie des intraoperativen Situs abgeglichen und ggf. ergänzt werden. Hierzu wird beispielsweise die fixierte nicht-knöcherne Struktur mittels Ultraschall gescannt und der so gewonnene Bilddatensatz mittels einer geeigneten mathematischen Transformation auf den präoperativ gewonnenen Datensatz abgebildet.
Es versteht sich, dass eine derartige Fixationsvorrichtung bzw. Fixationsschale sowie die entsprechende Vorgehensweise auch unabhängig von den übrigen Merkmalen der vorliegenden Erfindung vorteilhaft ist. Ebenso ver- steht es sich, dass das erfindungsgemäße Verfahren ggf. auch ohne eine Fixation durchgeführt werden kann.
Darüber hinaus schlägt die Erfindung zwei verschiedene Vorgehensweisen vor, durch die gewährleistet wird, dass das Erfassungsfeld des verwendeten Sensors das Wirkungsfeld des medizinischen Instruments beinhaltet.
Zum einen können Tracking- Verfahren verwendet werden, die Erfassungsfeld und Wirkungsfeld ermitteln und dafür Sorge tragen, dass der bildgebende Sensor das Wirkungsfeld des medizinischen Geräts im Wesentlichen erfasst. Auf diese Weise kann angezeigt bzw. ausgegeben erfasst. Auf diese Weise kann angezeigt bzw. ausgegeben werden, wo der entsprechende Wirkungsbereich bzw. das entsprechende Wirkungsfeld momentan liegt, so dass vom Therapeuten bzw. Operateur die Wirkung des medizinischen Instruments geeignet antizipiert werden kann. Es ist nicht unbedingt zwingend erforderlich, dass der Sensor das gesamte Wirkungsfeld des medizinischen Instruments erfasst. Vielmehr sollten vorzugsweise die relevanten Bereiche des Wirkungsfeldes erfasst werden. So kann beispielsweise bei einem Jet-Cutter der obere Bereich des Wasserstrahls, der ohnehin in der Regel nicht an dem Schneidvorgang beteiligt ist, außerhalb des Wirkungsfeldes angeordnet sein.
Zum Anderen sieht die Erfindung eine Vorrichtung zur Navigation bei medizinischen Eingriffen an nicht-knöchernen Strukturen vor, die einen Sensor zur Aufnahme von Bilddaten der nicht-knöchernen Struktur während des medizinischen Eingriffs umfasst, der mit einem medizinischen Instrument verbunden ist. Auf diese Weise können dynamische Bilddaten mit dieser Vorrichtung aufgenommen werden, die unmittelbar mit dem jeweiligen medizinischen Instrument in räumlicher Korrelation stehen. Dieses ermöglicht einerseits ein Erfassen der Bilddaten, ohne dass ein anderes medizinisches Instrument ergriffen werden muss. Durch das erfindungs- gemäße Verfahren ist es andererseits somit dann auch verhältnismäßig einfach möglich, die genaue Lage des medizinischen Instruments zu interessierenden Strukturen zu ermitteln. Das medizinische Instrument weist somit eine Doppelfunktion auf. Die vorbeschriebenen Anordnungen eignen sich insbesondere für einen Cutter, wie ein Skalpell oder einen Jet-Cutter (Wasserstrahl-Schneider). Hierbei kann durch den Sensor die Schnittebene erfasst werden, so dass ein Mediziner ohne weiteres die richtige Schnittebene ermitteln bzw. suchen kann, bevor der eigentliche Schnitt getätigt wird. Insbesondere im Zusammenspiel mit einem automatisch regelbarem Schneidwerkzeug kann vorgesehen sein, dass die Schneidleistung entsprechend bei der Operationsvorbereitung getätigter Vorgaben geregelt wird. Insbesondere kann die Schneidleistung herabgesenkt werden, wenn von einer bei der Operations- Vorbereitung festgelegten Schnittfläche abgewichen wird. Es versteht sich, dass dieses Vorgehen bzw. derartige Anordnungen auch unabhängig von den übrigen Merkmalen vorliegender Erfindung vorteilhaft ist.
Dementsprechend ist es vorteilhaft, wenn der Sensor ein Erfassungsfeld aufweist, das eine Wirkungsrichtung bzw. eine Wirkungsfläche des Opera- tions Werkzeuges einschließt, so dass der entsprechende Abgleich unmittelbar erfolgen kann.
Vorzugsweise umfasst der Sensor einen Ultraschallsensor. Ein derartiger Sensor ist verhältnismäßig einfach aufgebaut, in der Regel in jeder Klinik verfügbar und auch während einer Operation ohne weiteres einsetzbar, da hierfür keine wesentlichen Sicherheitsvorkehrungen getroffen werden müssen, wie dieses bei Röntgenapparaten oder ähnlichen Durchstrahlungsgeräten der Fall ist. Insbesondere kann ein Doppler-Ultraschallsensor ohne zusätzlichen Aufwand zur Anwendung kommen, der die Messung von Strömungen, insbesondere von Strömungen in Gefäßen, erlaubt.
Weiterhin können als Sensoren MR-(Magnetresonanz-)-geräte, mobile CTs (Computertomographen), Online-Röntgengeräte und ähnliches, insbeson- dere zur Gefäßerkennung, zur Anwendung kommen, insofern die notwendigen Sicherheitsmassnahmen bzw. technischen Weiterentwicklungen diesbezüglich einen Einsatz während einer Operation erlauben.
Weitere Vorteile, Ziele und Eigenschaften vorliegender Erfindung werden anhand nachfolgender Beschreibung anliegender Zeichnung erläutert, in welcher beispielhaft ein zu operierendes Organ und ein entsprechendes Operationswerkzeug sowie erfindungsgemäße Verfahrensabläufe dargestellt sind. In der Zeichnung zeigen:
Figur 1: eine schematische Ansicht der Resektion einer Leber mit einem Tumor,
Figur 2 eine schematische Ansicht einer Alternative für die Resektion einer Leber mit Tumor,
Figur 3 ein schematische Ansicht eines Registrierungs- bzw. Transformations Verfahrens ,
Figur 4 ein schematische Ansicht eines zweiten Registrierungs- bzw. Transformations Verfahrens, Figur 5 ein schematische Ansicht eines dritten Registrierungs- bzw. Transformations Verfahrens ,
Figur 6 eine schematische Ansicht eines erfindungsgemäßen Instrumentes,
Figur 7 eine schematische Ansicht eines weiteren erfindungsgemäßen Instrumentes,
Figur 8 eine Ausführungsform für die Unterseite des Instrumentes nach Figur 7 und
Figur 9 eine weitere Ausführungsform für die Unterseite des Instrumentes nach Figur 7.
In Figur 1 ist eine Leber 1 mit einem tiefgelegenem Tumor 2 in der rechten Leberhälfte dargestellt. Die rechte Lebervene 3 ist voll von dem Tumor 2 erfasst, während die mittlere Lebervene 4 innerhalb eines Sicherheitsabstandes liegt, wenn die tumortragende Leberhälfte entfernt wird. Die linke Lebervene 5 ist augenscheinlich nicht betroffen und lebensnotwendig zu erhalten.
Der entsprechenden Operation geht eine computergestützte Operationsplanung voraus, in welcher ein dreidimensionaler Datensatz mittels verschiedener Messmethoden, wie Ultraschall, CT, MR und ähnlichem, ermittelt wird, aus dem die jeweiligen Resektionsflächen definiert werden. Hierbei wird in einem Vorverarbeitungsschritt eine symbolische Darstellung der Gefäßstrukturen berechnet, in der verschiedene morphologische, geometrische und funktionelle Eigenschaften des Gefäßbaumes 3, 4, 5,. wie beispielsweise Formmerkmale, Längen, Durchmesser, Winkel und Position von Bifurkationen, Flussrichtung und Geschwindigkeit des Blutes u. ä., gespeichert werden.
In einem nächsten Schritt werden bei diesem Beispiel nach Mobilisierung der Leber dynamische Bilddaten der intraoperativen Geometrie des Situs mit präoperativ gewonnenen Planungsdaten als statische Bilddaten abgeglichen. Hierzu wird beispielhaft die Leber dreidimensional mittels Ultra- schall gescannt. Dieser Datensatz wird dann auf die bei der Operationsplanung ermittelten Daten, beispielsweise auf einen MR-Datensatz, abgebildet.
Vorzugsweise wird nach der Mobilisierung der Leber 1, sprich nach dem Freilegen der Leber 1 in der Bauhöhle, diese zunächst fixiert. Dieses kann insbesondere durch geeignete anästhesistische Maßnahmen bzw. chirurgische Maßnahmen erfolgen. Hierzu zählen insbesondere die Jet- Ventilation und die Auslegung des Bauchraumes mit Tüchern bzw. die Fixation der Leber 1 mittels eines geeigneten Greif armes. Darüber hinaus kann auch eine Fixationsschale 12 (Figur 1) zur Anwendung kommen, mit- tels welcher die Leber 1 fixiert wird, wobei vorzugsweise die Fixation der Leber 1 weitgehend in der natürlichen Form erfolgt. Hierzu kann insbesondere die Fixationsschale 12 anhand der präoperativ gewonnenen Bilddaten durch Rapid-Prototyping vorbereitet bzw. vorgeformt werden. In einem nächsten Schritt werden bei diesem Ausfuhrungsbeispiel die präoperativ gewonnenen Planungsdaten als statische Bilddaten mit der Geometrie des intraoperativen Situs abgeglichen und ggf. ergänzt. Hierzu wird beispielsweise die fixierte Leber mittels Ultraschall gescannt und der so gewonnene Bilddatensatz mittels einer geeigneten mathematischen Transformation auf den präoperativ gewonnenen Datensatz abgebildet.
Darüber hinaus kann hierdurch ein einfacher und schneller Abgleich der intraoperativ gewonnenen dynamischen Daten mit dem statischen Datensatz ermöglicht werden.
Die Resektion wird mittels eines Jet-Cutters 6 durchgeführt, der über einen Wasserstrahl 7 schneiden kann. Der Jet-Cutter 6 umfasst darüber hinaus einen Doppler-Ultraschallsensor mit einem Erfassungsfeld 8. Mittels der hieraus gewonnen Messdaten wird die aktuelle Lage des Jet-Cutters 6 bezüglich der in der Operationsplanung definierten Schnittebene bestimmt, indem die Lage der Gefäße 3, 4, 5 in den dynamischen Bilddaten ermittelt, eine entsprechende Transformation bestimmt und diese Transformation auf die statischen Bilddaten angewendet wird. Dem Operateur wird eine entsprechende Bilddarstellung zur Verfügung gestellt.
Die Schneidleistung des Jet-Cutters 6 wird entsprechend der präoperativen Planung verringert, wenn der Jet-Cutter 6 die vorher bestimmte Schnittfläche verlässt. Wird durch den intraoperativen Ultraschall 8 ein weiterer Tumor festgestellt, so kann mittels der vorhandenen präoperativen Daten ein neuer Resektionsvorschlag erarbeitet und dann während der laufenden Operation umgesetzt werden.
In konkreter Umsetzung kann, je nach Erfordernissen, eine zweidimensio- nale (Figuren 3 und 4) oder eine dreidimensionale (Figur 5) Messung der dynamischen Daten erfolgen.
Wird ein zweidimensionales, dynamisches Bild verwendet (siehe Figur 3), ist auf Grund der geringen Datenmenge eine schnelle Extraktion der Ge- fäßstrukturen 3, 4, 5 und ihrer relevanten Eigenschaften durchführbar. Insbesondere hierdurch ist diesbezüglich ohne Weiteres ein Echtzeitverfahren realisierbar, mit welchem eine eventuell vorher geplante, in den statischen Daten definierte bzw. definierbare Schnittebene in dem verformten Organ 1 lokalisiert werden kann. Durch eine in Echtzeit durchgeführte Extraktion der Gefäßstrukturen 3, 4, 5 aus den dynamischen Bildern kann ein direkter Vergleich der beiden geometrischen Anordnungen zu einem Vergleich der Lage der beiden Bildebenen durchgeführt werden. Die Ähnlichkeit der Gefäßmuster auf den beiden Bildebenen ist daher ein Maß dafür, inwieweit die beiden Bildebenen anhand ihrer Gefäßmerkmale 3, 4, 5 übereinstimmend positioniert sind.
Wie insbesondere in Figur 3 dargestellt, wird bei diesem Ausführungsbeispiel anhand präoperativer Datenaufnahmen, wie beispielsweise anhand von Kontrastmittel-CT-Aufnahmen 30, die Leber 1 erfasst. Anhand dieser Aufnahmen kann eine dreidimensionale Darstellung 31 der Leber 1 erfolgen, die insbesondere die Operationsplanung unterstützt und insbesondere auch zur Konstruktion der Fixationsschale 12 genutzt werden kann. Aus diesen präoperativen Daten kann bei vorliegendem Ausfuhrungsbeispiel mittels einer Gefäßbaumanalyse 32 ein symbolischer Gefäßbaum 33 extrahiert werden.
Bei dem in Figur 3 dargestellten Ausführungsbeispiel wird vorzugsweise zunächst eine Resektionsfläche 34 gewählt, wobei dann an dem Gefäßbaum 33 eine Flusssimulation 35 durchgeführt und hieraus ein Muster 36 der Gefäße auf der Resektionsfläche 34 mit simulierten Flussrichtungen ermittelt werden kann.
Intraoperativ werden Doppler-Ultraschallaufnahmen 37 als Folge dynamischer 2D-Bilder 38 aufgenommen, die in Echtzeit segmentiert und hinsichtlich ihrer Merkmale analysiert 39 werden. Auch hieraus wird somit bei diesem Ausführungsbeispiel eine Darstellung 40 der Gefäße und ihrer Flussrichtungen ermittelt. Intraoperativ kann dann mittels einer Transformation zwischen dem Muster 36 und der Darstellung 40 ein Ähnlichkeits- maß bestimmt werden, das einem Therapeuten bzw. Operateur darüber Aufschluss gibt, wann er die Resektionsfläche erreicht hat.
Zweidimensionale dynamische Bilddaten können, entsprechend des in Figur 4 dargestellten Ausführungsbeispiels, welches im wesentlichen dem in Figur 3 dargestellten Ausführungsbeispiel entspricht, so dass gleiche Ver- fahrensschritte auch mit identischer Bezugsziffer versehen sind, dahinge- hend erweitert werden, dass aus den einzelnen zweidimensionalen Bilddaten 38 relevante Bildmerkmale, wie Gefäßmuster und Flussinformationen, extrahiert und die extrahierten Merkmale sukzessive 41 zu einem höherdi- mensionalen dynamischen Entscheidungsraum 42 ergänzt werden. Dem entsprechend wird präoperativ aus dem Gefäßbaum 33 durch eine Flusssimulation 43 ein dreidimensionaler Musterraum 44 der Flüsse und der Flussrichtungen ermittelt, welcher dann für Transformationsrechnungen 45, 46 zur Verfügung steht. Vorzugsweise wird, insbesondere aus Genauigkeitsgründen aber auch wegen verkürzter Rechenzeiten, bei diesem Aus- führungsbeispiel zunächst intraoperativ ein dynamischer Datensatz bei möglichst unverformter Leber 1 aufgenommen (Registrierung 45) und zur Ermittlung der statischen Bilddaten genutzt, bevor Resektionsflächen gesucht und Resektionen durchgeführt werden, indem dann weitere Transformationen 46 durchgeführt und dem Therapeuten bzw. Operateur ein ak- tuelles Bild der Leber 1 bzw. der Lage seiner Instrumente vermittelt wird. Damit liegt diese Vorgehensweise in Aufwand und Genauigkeit zwischen der Auswertung der rein zwei- und dreidimensionalen Bilddaten (Figur 5).
Dieser Vorgehensweise entspricht weitestgehend das Ausführungsbeispiel nach Figur 5, so dass auch hierbei gleiche Verfahrensschritte mit identi- sehen Bezugsziffern versehen sind. Bei diesem Ausführungsbeispiel werden jedoch unmittelbar 3D-Bilder 47 aufgenommen, so dass räumliche Datensätze 48 entstehen, die entsprechend 3-dimensional extrahiert und verarbeitet werden 49. Liegen dreidimensionale dynamische Bilddaten (Figuren 4 und 5) vor, so können diese dem gleichen Vorverarbeitungsschritt unterzogen werden, wie die statischen Bilddaten. Dadurch entsteht eine weitere symbolische Beschreibung des jetzt verformten Gefäßbaumes 3, 4, 5. Die beiden Bild- datensätze können dann, auch wenn die dynamischen Bilddaten den Gefäßbaum nur teilweise wiedergeben, unter Zuhilfenahme der dargestellten Verzweigungsstrukturen aufeinander abgebildet werden.
Das Instrument nach Figur 6 umfasst eine Punktionsnadel 50, die navigiert in eine Substruktur 52 einer nicht-knöchernen Struktur 51, wie bei- Spiels weise einer Leber, eingebracht werden soll. Hierzu ist die Punktionsnadel 50 mit einer Halterung 53 versehen, die ihrerseits an einem Ultraschallkopf 54 angebracht ist. Die Halterung 53 ist hierbei in ihrem Winkel verstellbar, so dass verschieden Positionen unter dem Ultraschallkopf 54 erreichbar sind. Darüber hinaus kann die Punktionsnadel 50 in der Hal- terung 53 verschoben werden, wie durch die Doppelpfeile angedeutet. Vorzugsweise wird der Winkel vor dem Einbringen der Nadel 50 exakt eingestellt und dann fixiert, so dass die Nadel 50 gezielt und navigiert zu ihrem Einsatzort gebracht werden kann.
In ähnlicher Weise ermöglicht die Anordnung nach Figur 7 ein navigiertes Arbeiten. Hierbei handelt es sich um einen Jet-Cutter 55 welcher für eine Resektion der Struktur 51, beispielsweise zur Resektion der Substruktur 52, genutzt werden kann. Der Jet-Cutter 55 umfasst eine an sich bekannte Wasserversorgung 56 und stößt einen Wasserstrahl 57 aus, der für eine Re- Sektion genutzt werden kann. Darüber hinaus ist der Jet-Cutter 55 mit einem Ultraschallarray 58 versehen, welcher seinerseits über eine Datenverbindung 59 mit einer Datenverarbeitungsanlage verbunden ist. Die Datenverarbeitungsanlage regelt den Wasserstrahl 57 und sorgt hierbei insbe- sondere dafür, dass der Wasserstrahl ausgeschaltet wird, wenn die geplante Resektionsfläche verlassen wird bzw. unbedingt unversehrt zu belassene Teile, wie Adern, erreicht werden.
Das Ultraschallarray 58 ist bei diesem Ausführungsbeispiel, wie in Figur 8 dargestellt, linear ausgebildet, so dass 2-dimensionale Bilder erzeugt und wie vorstehend beschrieben zur Navigation genutzt werden können. Hierbei ist vorzugsweise der Jet-Cutter 55 derart ausgestaltet, dass der Wasseraustrittspunkt 60 von dem Array 58 eingerahmt ist. Selbiges gilt für den Jet-Cutter 61 nach Figur 9, bei welchem ein 3-dimensionales Ultraschallarray 62 den Wasseraustrittspunkt 63 einrahmt.

Claims

Patentansprüche:
1. Verfahren zur Navigation bei medizinischen Eingriffen an nichtknöchernen Strukturen, dadurch gekennzeichnet, dass vor dem
Eingriff statische Bilddaten der nicht-knöchernen Struktur aufge- nommen und gespeichert werden, dass während des Eingriffs dynamische Bilddaten der nicht-knöchernen Struktur aufgenommen werden, dass aus den Bilddaten Substrukturen extrahiert werden und dass durch Vergleich der Substruktur bei den statischen Bilddaten mit der Substruktur bei den dynamischen Bilddaten die Lage we- nigstens eines interessierenden Teilbereiches der nicht-knöchernen
Struktur während des medizinischen Eingriffs in den verschiedenen verwendeten Bilddatensätzen lokalisiert und zugeordnet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als
Substruktur wenigstens ein Gefäß, vorzugsweise ein Blutgefäß, ge- nutzt wird.
3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass durch den Vergleich der Substruktur bei den statischen Bilddaten mit der Substruktur bei den dynamischen Bilddaten eine Transformation ermittelt wird, die auf den interessierenden Teilbereich der nicht-knöchernen Struktur in den statischen Bilddaten angewandt wird, um die aktuelle Lage des Teilbereichs anzugeben.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die statischen Bilddaten wenigstens drei räumliche Dimensionen besitzen .
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekenn- zeichnet, dass die dynamischen Bilddaten beliebige Dimension aufweisen können.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die dynamischen Bilddaten mehrere beliebig dimensionale Datensätze umfassen.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass wenigstens ein Teil der dynamischen Bilddaten bzw. der intraoperativen Bilddaten lediglich 2-dimensional erfasst wird.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die 2- dimensionalen Daten einer Analyse bzw. Segmentierung unterzogen und anschließend mit den statischen Bilddaten verglichen werden.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die 2-dimensionalen Daten einer Analyse, mit welcher wesentliche Teildaten, die beispielsweise Substrukturen repräsentieren, extrahiert und dann weiter verarbeitet werden, unterzogen und dass die auf diese Weise analysierten Daten sukzessive zu höherdimensiona- len Merkmalsräumen zusammengefügt werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass zur Aufnahme der statischen Bilddaten wenigstens ein Sensor genutzt wird, der auch zur Aufnahme der dynamischen Bilddaten genutzt wird.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass zur Aufnahme der statischen Bilddaten wenigstens ein erster Sensor mit einer ersten Modalität und zur Aufnahme der dynamischen Bilddaten wenigstens ein zweiter Sensor mit einer abweichenden Modalität genutzt wird.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass eine Substruktur in den beiden Bilddatensätzen jeweils hinsichtlich wenigstens eines ortsabhängigen Merkmals analysiert und zwischen beiden Bilddatensätzen ein Abgleich vorgenommen bzw. eine Transformation ermittelt wird.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die nicht-knöcherne Struktur vor Aufnahme der statischen bzw. der dynamischen Bilddaten, vorzugsweise durch eine Fi- xiationsvorrichtung, fixiert wird.
14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekenn- zeichnet, dass wenigstens zweite dynamische Bilddaten aufgenommen und dass auch aus den zweiten dynamischen Bilddaten die SubStrukturen extrahiert werden sowie dass durch Vergleich der Sub- Struktur bei den statischen Bilddaten und/oder den ersten dynamischen Bilddaten mit der Substruktur bei den zweiten dynamischen Bilddaten die Lage des interessierenden Teilbereiches der nichtknöchernen Struktur während des medizinischen Eingriffs ermittelt und ausgegeben wird.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass präoperativ die Form der nicht-knöchernen Struktur ermittelt und anhand dieser Daten eine Fixationsvorrichtung konstruiert wird.
16. Verfahren zur Fixation einer nicht-knöchernen Struktur, dadurch gekennzeichnet, dass präoperativ die Form der nicht-knöchernen Struktur ermittelt und anhand dieser Daten eine Fixationsvorrichtung konstruiert wird.
17. Verfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass die Fixationsvorrichtung durch Rapid-Prototyping konstruiert wird.
18. Vorrichtung zur Fixation einer nicht-knöchernen Struktur, gekennzeichnet durch eine Schale, deren Form derart ausgebildet ist, dass die nicht-knöcherne Struktur annähernd in ihrer natürlichen Lage in der Schale fixiert ist.
19. Vorrichtung zur Navigation bei medizinischen Eingriffen an nichtknöchernen Strukturen, dadurch gekennzeichnet, dass zumindest während des medizinischen Eingriffs das Wirkungsfeld eines medizinischen Instruments im Erfassungsfeld eines Sensors zur Aufnahme von Bilddaten der nicht-knöchernen Struktur im Wesentlichen enthalten ist.
20. Navigationsvorrichtung nach Anspruch 19, dadurch gekennzeichnet, dass die räumliche Beziehung zwischen Erfassungsfeld und Wirkungsfeld durch geeignete Verfahren ermittelt wird.
21. Vorrichtung zur Navigation bei medizinischen Eingriffen an nichtknöchernen Strukturen, dadurch gekennzeichnet, dass zumindest während des medizinischen Eingriffs das Wirkungsfeld eines medizinischen Instruments und das Erfassungsfeld eines Sensors zur Aufnahme von Bilddaten der nicht-knöchernen Struktur zueinander fixiert sind.
22. Navigationsvorrichtung nach Anspruch 21, dadurch gekennzeich- net, dass die räumliche Beziehung des Erfassungsfeldes und des
Wirkungsfeldes dadurch fixiert ist, dass der Sensor und das medizinische Instrument zu einem Gerät integriert sind.
23. Navigations Vorrichtung nach einem der Ansprüche 19 bis 22, dadurch gekennzeichnet, dass der Sensor einen Ultraschallsensor, vorzugsweise einen Doppler-Ultraschallsensor, umfasst.
PCT/DE2001/003972 2000-10-23 2001-10-23 Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur WO2002034153A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP01988559A EP1328209A1 (de) 2000-10-23 2001-10-23 Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur
AU2002215823A AU2002215823A1 (en) 2000-10-23 2001-10-23 Method and device for navigation during medical interventions or for localising a non-osseous structure
DE10194616T DE10194616D2 (de) 2000-10-23 2001-10-23 Verfahren und Vorrichtung zur Navigation bei Medizinischen Eingriffen bzw. zur Fixation einer Nicht-Knöchernen Struktur

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10052516 2000-10-23
DE10052516.4 2000-10-23
DE10052519.9 2000-10-23

Publications (1)

Publication Number Publication Date
WO2002034153A1 true WO2002034153A1 (de) 2002-05-02

Family

ID=37728503

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2001/003972 WO2002034153A1 (de) 2000-10-23 2001-10-23 Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur

Country Status (4)

Country Link
EP (1) EP1328209A1 (de)
AU (1) AU2002215823A1 (de)
DE (1) DE10194616D2 (de)
WO (1) WO2002034153A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10359317A1 (de) * 2003-12-17 2005-07-21 Siemens Ag Verfahren zur gezielten Navigation eines medizinischen Instruments, insbesondere eines Katheders
DE102004038610A1 (de) * 2004-08-08 2006-03-16 Lb Medical Gmbh System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe
DE102006038927A1 (de) * 2006-08-18 2008-02-28 Universität Zu Lübeck Verfahren zur Bestimmung der Schnittführung bei Lebertumorresektion
EP2510896A1 (de) * 2011-04-15 2012-10-17 Universität Bern Behälter für ein Organ
DE102011087748A1 (de) * 2011-12-05 2013-06-06 Deutsches Zentrum für Luft- und Raumfahrt e.V. Flüssigkeitsstrahlskalpell und Verfahren zum Betreiben eines Flüssigkeitsstrahlskalpells

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4637377A (en) * 1985-09-20 1987-01-20 Loop Floyd D Pillow or support member for surgical use
EP0728446A1 (de) * 1995-01-26 1996-08-28 The Cleveland Clinic Foundation Stereotaxie Systeme
US5868673A (en) * 1995-03-28 1999-02-09 Sonometrics Corporation System for carrying out surgery, biopsy and ablation of a tumor or other physical anomaly
WO1999027839A2 (en) * 1997-12-01 1999-06-10 Cosman Eric R Surgical positioning system
US6063025A (en) * 1993-07-09 2000-05-16 Bioenterics Corporation Apparatus for holding intestines out of an operative field
US6119033A (en) * 1997-03-04 2000-09-12 Biotrack, Inc. Method of monitoring a location of an area of interest within a patient during a medical procedure

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4637377A (en) * 1985-09-20 1987-01-20 Loop Floyd D Pillow or support member for surgical use
US6063025A (en) * 1993-07-09 2000-05-16 Bioenterics Corporation Apparatus for holding intestines out of an operative field
EP0728446A1 (de) * 1995-01-26 1996-08-28 The Cleveland Clinic Foundation Stereotaxie Systeme
US5868673A (en) * 1995-03-28 1999-02-09 Sonometrics Corporation System for carrying out surgery, biopsy and ablation of a tumor or other physical anomaly
US6119033A (en) * 1997-03-04 2000-09-12 Biotrack, Inc. Method of monitoring a location of an area of interest within a patient during a medical procedure
WO1999027839A2 (en) * 1997-12-01 1999-06-10 Cosman Eric R Surgical positioning system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10359317A1 (de) * 2003-12-17 2005-07-21 Siemens Ag Verfahren zur gezielten Navigation eines medizinischen Instruments, insbesondere eines Katheders
DE102004038610A1 (de) * 2004-08-08 2006-03-16 Lb Medical Gmbh System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe
DE102006038927A1 (de) * 2006-08-18 2008-02-28 Universität Zu Lübeck Verfahren zur Bestimmung der Schnittführung bei Lebertumorresektion
DE102006038927B4 (de) * 2006-08-18 2010-03-25 Universität Zu Lübeck Verfahren zur Bestimmung der Schnittführung bei Lebertumorresektion
EP2510896A1 (de) * 2011-04-15 2012-10-17 Universität Bern Behälter für ein Organ
DE102011087748A1 (de) * 2011-12-05 2013-06-06 Deutsches Zentrum für Luft- und Raumfahrt e.V. Flüssigkeitsstrahlskalpell und Verfahren zum Betreiben eines Flüssigkeitsstrahlskalpells
EP2601896B1 (de) * 2011-12-05 2015-10-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Flüssigkeitsstrahlskalpell
US9216032B2 (en) 2011-12-05 2015-12-22 Deutsches Zentrum für Luft- und Raumfahrt e.V. Liquid jet scalpel and method for operating a liquid jet scalpel

Also Published As

Publication number Publication date
AU2002215823A1 (en) 2002-05-06
EP1328209A1 (de) 2003-07-23
DE10194616D2 (de) 2003-10-02

Similar Documents

Publication Publication Date Title
DE69329886T2 (de) Verfahren zur Bestimmung der Lage eines Organs
DE69821072T2 (de) Echtzeit bildgesteuerte Positionierung von Verankerungseinheiten
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
DE69030926T2 (de) Sondenkorrelierte anzeige von anatomischen bilddaten
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
DE60018247T2 (de) System und Methode zur Verwendung mit bildgebenden Verfahren zur Erleichterung der Planung von chirurgischen Eingriffen
EP3393391B1 (de) Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
DE69835422T2 (de) Messung im körperinneren
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
EP2082686B1 (de) Orientierte Wiedergabe von Aufnahmen
DE3838011C2 (de) Markierelement und Verfahren zur Erzeugung von Bildern der Anatomie
DE69916235T2 (de) Gerät für gewebeentnahme von einem interessierenden bereich unter verwendung von stereotaktischer radiografischer führung
EP2044975B1 (de) Verfahren zum Registrieren von 2D-Bilddaten, Computerprogrammprodukt, Navigationsverfahren zum Navigieren eines Behandlungsgerätes im Bereich der Medizin und Recheneinrichtung zum Registrieren von 2D-Bilddaten
WO2002034152A1 (de) Verfahren, vorrichtung und navigationshilfe zur navigation bei medizinischen eingriffen
DE10004764A1 (de) Verfahren zur Positionsbestimmung eines medizinischen Instruments
WO2002062250A1 (de) Vorrichtung und verfahren für die intraoperative navigation
EP2044884A1 (de) Bestimmung und Erkennung von Lageänderungen von Körperstrukturteilen
EP1925256A1 (de) Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
DE202011110755U1 (de) Navigationsaufsatz für optische Geräte in der Medizin und Vorrichtung zum Darstellen von Bilddaten
DE102006046045A1 (de) Verfahren zur zweidimensionalen oder dreidimensionalen Bilddarstellung eines Zielbereichs in einem Hohlorgan
DE112021003530T5 (de) System zur Unterstützung eines Benutzers bei der Platzierung einer Eindringungsvorrichtung in Gewebe
EP2409645A1 (de) Bildunterstützte Biopsieentnahme
DE102004003381B4 (de) Verfahren zur Bestimmung der Lage einer Schicht in einem Untersuchungsgebiet, in welcher Schicht eine Schichtbildaufnahme erfolgen soll
DE60318010T2 (de) Verfahren und vorrichtung zur rekonstruktion von knochenoberflächen während einer chirurgischen behandlung
WO2002034153A1 (de) Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur

Legal Events

Date Code Title Description
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001988559

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2001988559

Country of ref document: EP

REF Corresponds to

Ref document number: 10194616

Country of ref document: DE

Date of ref document: 20031002

Kind code of ref document: P

WWE Wipo information: entry into national phase

Ref document number: 10194616

Country of ref document: DE

NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Ref document number: 2001988559

Country of ref document: EP