DE102021109825A1 - Mikroinstrumentsystem und Verfahren zum Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes - Google Patents

Mikroinstrumentsystem und Verfahren zum Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes Download PDF

Info

Publication number
DE102021109825A1
DE102021109825A1 DE102021109825.4A DE102021109825A DE102021109825A1 DE 102021109825 A1 DE102021109825 A1 DE 102021109825A1 DE 102021109825 A DE102021109825 A DE 102021109825A DE 102021109825 A1 DE102021109825 A1 DE 102021109825A1
Authority
DE
Germany
Prior art keywords
data
distal end
optical fiber
image data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102021109825.4A
Other languages
English (en)
Inventor
Christian Voigt
Delbert Peter Andrews
Carolin Klusmann
Matthias Hillenbrand
Max Riedel
Christian Marzi
Franziska Mathis-Ullrich
Fritz Hengerer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Original Assignee
Carl Zeiss Meditec AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG filed Critical Carl Zeiss Meditec AG
Priority to DE102021109825.4A priority Critical patent/DE102021109825A1/de
Priority to PCT/EP2022/060131 priority patent/WO2022223469A1/de
Priority to JP2023564031A priority patent/JP2024513529A/ja
Priority to CN202280029315.1A priority patent/CN117255640A/zh
Priority to DE112022001532.2T priority patent/DE112022001532A5/de
Publication of DE102021109825A1 publication Critical patent/DE102021109825A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/103Scanning systems having movable or deformable optical fibres, light guides or waveguides as scanning elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02049Interferometers characterised by particular mechanical design details
    • G01B9/0205Interferometers characterised by particular mechanical design details of probe head
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0028Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders specially adapted for specific applications, e.g. for endoscopes, ophthalmoscopes, attachments to conventional microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0036Scanning details, e.g. scanning stages
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • G02B21/0056Optical details of the image generation based on optical coherence, e.g. phase-contrast arrangements, interference arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/008Details of detection or image processing, including general computer control
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Endoscopes (AREA)
  • Microscoopes, Condenser (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Es wird ein Mikroinstrumentsystem zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes von einem Beobachtungsobjekt (27) zur Verfügung gestellt. Das Mikroinstrumentsystem umfasst- ein Mikroinstrument (1) mit wenigstens einer integrierten optische Faser (15), die ein dem Beobachtungsobjekt (27) zuzuwendendes distales Ende (23) aufweist,- eine Aufnahmevorrichtung (9), der zum Aufnehmen von Bilddaten mit Hilfe der wenigstens einen optischen Faser (15) Licht von dem Beobachtungsobjekt (27) zuführbar ist;- eine Ermittlungseinrichtung (2, 41a, 41b, 43), welche dazu ausgestaltet ist, die Positionen des distalen Endes (23) der wenigstens einen optischen Faser (15) zu den Aufnahmezeitpunkten der jeweiligen Bilddaten zu ermitteln; gekennzeichnet durch eine Datenverarbeitungseinrichtung (45), die- zum Empfang der Bilddaten mit der Aufnahmevorrichtung (9) verbundenen ist;- zum Empfang der Positionsdaten mit der Ermittlungseinrichtung (2, 41a, 41b, 43) verbundenen ist und- dazu ausgestaltet ist, die Bilddaten mit Hilfe der Positionsdaten zu einem zweidimensionalen oder dreidimensionalen Bild zusammenzusetzen.

Description

  • Die vorliegende Erfindung betrifft ein Mikroinstrumentensystem sowie dessen Verwendung zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes. Daneben betrifft die Erfindung ein computerimplementiertes Verfahren zum Generieren eines zweidimensionalen oder dreidimensionalen Bildes von einem Beobachtungsobjekt.
  • In manchen chirurgischen Gebieten, wie beispielsweise der Neurochirurgie und der ophthalmischen Chirurgie, findet eine intraoperative Visualisierung des Operationssitus mit einem Operationsmikroskop statt. Das Operationsmikroskop kann zudem noch mit einer Vorrichtung zur Durchführung einer optischen Kohärenztopographie (OCT, optical coherence tomography) ausgestattet sein, mit deren Hilfe ein interessierender Bereich des Operationssitus mit einem fein fokussierten Strahl abgerastert wird. Eine solche rein externe Bildgebung weist jedoch gewisse Limitationen auf, wenn schwer zugängliche Strukturen, beispielsweise im Auge, visualisiert werden sollen. So können im Auge etwa das Trabekelmaschenwerk oder Bereiche hinter der Iris wie die periphere Retina, die ora serrata, die pars plana, die Ziliarkörperregion oder der Sulcus aufgrund von Abschattungseffekten oder geometrischen Limitationen nicht oder nur schwer direkt visualisiert und/oder vermessen werden. Außerdem gibt es Situationen, in denen die Visualisierung des Operationssitus mit externer Bildgebung zwar grundsätzlich möglich wäre, aber auf Grund bestimmter Umstände verhindert wird. So ist eine externe Visualisierung etwa im Falle eines ophthalmischen chirurgischen Eingriffs in der hinteren Augenregion bei getrübten Glaskörper, einer Hornhauttrübung oder einer Glaskörperblutung stark beeinträchtigt oder gar nicht möglich. Derartige Limitationen in der auf einem Operationsmikroskop basierenden intraoperativen Visualisierung stellen den Chirurgen vor große Herausforderungen und können sich auch negativ auf die Möglichkeiten oder das Ergebnis eines chirurgischen Eingriffs auswirken. In der ophthalmischen Chirurgie besteht für manche Fälle eine einfache Methode zur Überwindung der oben genannte Problematik, nämlich das manuelle Eindellen des Auges (sogenannte Sceral Indentation and Depression), um sonst abgeschattete Strukturen für die Bildgebung zugänglich zu machen. Diese Methode birgt jedoch das Risiko von Traumata des Gewebes. Zudem ist die Stabilität der Bildgebung mangels einer ausreichenden Kontrolle der Eindellung nicht immer einfach. Ein weiterer erheblicher Nachteil dieses Verfahrens ist, dass eine freie Hand zum Eindellen des Auges verfügbar sein muss. Zudem eignet sich das Eindellen nicht in jedem Fall dazu, die obstruierten Stellen im Auge einer Visualisierung zuzuführen. Auch beim neurochirurgischen Verfahren kann es vorkommen, dass obstruierte Stellen nicht ohne weiteres durch Verlagern von Gewebe einer Bildgebung zugeführt werden können.
  • Eine Möglichkeit, obstruierte Strukturen im Operationssitus einer Bildgebung zuzuführen, sind faseroptische OCT-Systeme. Ein derartiges faseroptisches OCT-System ist beispielsweise in US 10,517,760 B2 beschrieben. Das in US 10,517,760 B2 beschriebene OCT-System kommt in OCT-geführten Glaukom-Operationen zur Anwendung, wobei mit einem faseroptischen OCT-System eine intraokulare Bildgebung erfolgen kann. Eine optische Faser oder ein optisches Faserbündel ist dabei in eine faseroptische Sonde integriert, die in das Augeninnere eingeführt werden kann. Mit diesem faseroptischen OCT-System sind eindimensionale Scans und, wenn ein Faserbündel Verwendung findet, zweidimensionale und dreidimensionale Scans möglich.
  • Die GB 2551102 A beschreibt ein chirurgisches Instrument, in das eine oder mehrere optische Fasern eines OCT-Systems integriert sind. Mit Hilfe der optischen Fasern können zwei- oder dreidimensionale Bilder aufgenommen werden.
  • Die WO 2012/0126070 A1 und die WO 2014/0175853 A1 beschreiben sogenannte Pullback-Verfahren, bei denen eine OCT-Sonde in ein Blutgefäß eingeführt und dann zurückgeführt wird. Während des Zurückziehens werden mit der OCT-Sonde dreidimensionale Bilder des Blutgefäßes gewonnen.
  • Aus WO 2016/01689 A1 ist zudem das Erzeugen eines 3D-Bildes oder einer Karte mittels eines OCT-Systems bekannt, das eine Faser mit einem Scan-Kopf aufweist, und aus US 2007/0239033 A1 und WO 02/083003 A1 sind Biopsie-Nadeln mit integrierten optischen Fasern bekannt.
  • Zudem ist in US 2013/0077048 A1 die Bildgebung mittels einer Faserkamera beschrieben, wobei der Durchmesser der verwendeten Fasern zwischen 0,5 und 2 mm beträgt.
  • Außerdem ist bekannt, mit Hilfe von faseroptischen OCT-Systemen den Abstand der Spitze eines mikrochirurgischen Instruments von einem Zielort des Instruments zu ermitteln. Derartige Verfahren und Vorrichtungen sind bspw. in WO 2012/012540 A2 , US 2015/0297404 A1 und US 10,045,882 B2 beschrieben.
  • Die beschriebenen Verfahren benötigen entweder ein Faserbündel zum Erzeugen eines zweidimensionalen oder dreidimensionalen Bildes oder eine Scaneinrichtung am distalen Faserende, mit dem ein lateraler Scan durchgeführt werden kann. Bei Verwendung eines Faserbündels ist dessen laterale Ausdehnung durch das freie Lumen des Mikroinstrumentes beschränkt, so dass das zweidimensionale oder dreidimensionale Bild lediglich einen recht kleinen lateralen Bereich des Operationssitus mit der bestmöglichen Auflösung darstellen kann, insbesondere dann wenn sehr kleine Mikroinstrumente zum Einsatz kommen. Zwar könnte der dargestellte laterale Bereich mit einer geeigneten Vorsatzoptik vergrößert werden, jedoch würde dadurch die Auflösung verschlechtert werden. Die Verwendung eines Scanners im Bereich des distalen Faserendes führt zudem zu einer mechanisch komplexen distalen Konstruktion des Mikroinstruments, was eine Desinfektion des Mikroinstrumentes schwierig oder gar unmöglich machen kann und dessen minimale Größe stark einschränkt. Außerdem steigen mit der Komplexität der Konstruktion auch die Herstellungskosten, wodurch die wirtschaftliche Attraktivität einer solchen Lösung sinkt. Hinzu kommt, dass die distalen Komponenten umso größer und komplexer sein müssen, je größer der Erfassungs- bzw. Scanbereich sein soll. Wenn das distale Ende dagegen klein gehalten werden soll, ist nur eine stark begrenzte Leistung der Bildgebung bspw. im Hinblick auf eine große Ausdehnung der möglichen Scanbereiche in Kombination mit einem hohen Auflösungsvermögen möglich.
  • Das Aufnehmen dreidimensionaler Bilder im Rahmen des Pullback-Verfahrens ist in erster Linie zur Aufnahme von Bildern von röhrenförmigen Objekten geeignet, nicht jedoch so sehr zur Aufnahme von Bildern von flächigen Objekten.
  • Es besteht daher ein Bedarf an einem Mikroinstrumentensystem sowie an einem Verfahren zum Aufnehmen zweidimensionaler oder dreidimensionaler Bilder, das es ermöglicht, zweidimensionale oder dreidimensionale Bilder mit einer einzigen optischen Faser aufzunehmen oder mit einem Faserbündel zweidimensionale bzw. dreidimensionale Bilder aufzunehmen, die einen Objektbereich zeigen, der eine größere laterale Ausdehnung als das Faserbündel aufweist und das darüber hinaus eine geringe Komplexität am distalen Ende des Mikroinstruments aufweist.
  • Diese Aufgabe wird durch ein Mikroinstrumentensystem nach Anspruch 1, ein computerimplementiertes Verfahren zum Generieren eines zweidimensionalen oder dreidimensionalen Bildes nach Anspruch 9 sowie ein Verfahren zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes nach Anspruch 14 gelöst. Die abhängigen Ansprüche enthalten vorteilhafte Ausgestaltungen der Erfindung.
  • Ein erfindungsgemäßes Mikroinstrumentensystem zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes von einem Beobachtungsobjekt umfasst:
    • - Ein Mikroinstrument mit wenigstens einer integrierten optischen Faser, die ein in dem Beobachtungsobjekt zuzuwendendes distales Ende aufweist. Die wenigstens eine optische Faser kann dabei insbesondere eine optische Faser eines faseroptischen OCT-Systems sein. Sie kann alternativ aber auch Teil eines faseroptischen konfokalen Mikroskops sein.
    • - Eine Aufnahmevorrichtung, der zum Aufnehmen von Bilddaten mit Hilfe der wenigstens einen optischen Faser Licht von dem Beobachtungsobjekt zuführbar ist. Die Bilddaten können dabei im Falle einer einzelnen optischen Faser einzelne Pixel, also einzelne Bildpunkte in einem zweidimensionalen Bild, oder Voxel, also einzelne Bildpunkt in einem dreidimensionalen Bild, sein oder, wenn die optische Faser Teil eines faseroptischen OCT-Systems ist einzelne A-Scans, d.h. eine Mehrzahl an Bildpunkten die aus unterschiedlichen Tiefen des Beobachtungsobjektes stammen. Im Falle eines Faserbündels können die Bilddaten kleinflächige 2D-Bilder sein oder, wenn das Faserbündel Teil einer faseroptischen OCT-Vorrichtung ist, kleinvolumige 3D-Bilder. Die laterale Ausdehnung der von den einzelnen Bilddaten repräsentierten Fläche bzw. des von den einzelnen Bilddaten repräsentierten Volumens entspricht dabei der Ausdehnung des distalen Endes des Faserbündels.
    • - Eine Ermittlungseinrichtung, die dazu ausgestaltet ist, wenigstens Positionsdaten, welche die Position des distalen Endes der wenigstens einen optische Faser zu den Aufnahmezeitpunkten der jeweiligen Bilddaten repräsentieren, zu ermitteln und den Bilddaten zuzuordnen. Die Ermittlungseinrichtung kann dabei dazu ausgestaltet sein, wenigstens die Position des distalen Endes der wenigstens der einen optischen Faser zu den Aufnahmezeitpunkten der jeweiligen Bilddaten zu erfassen. Dabei kann beispielsweise ein optisches Trackingsystem oder eine Inertialsensorik, welche die Position auf der Basis erfasster Bewegungen oder, falls nur eine Drehung um einen Drehpunkt möglich ist, anhand der erfasster Orientierungen ermittelt, als Ermittlungseinrichtung Verwendung finden. Alternativ oder zusätzlich kann die Ermittlungseinrichtung dazu ausgestaltet sein, die Positionsdaten des distalen Endes der wenigstens einen optischen Faser zu den Aufnahmezeitpunkten der jeweiligen Bilddaten auf der Basis von erfassten Daten, aus denen sich die Positionen des distalen Endes der wenigstens einen optischen Faser zu den Aufnahmezeitpunkten der jeweiligen Bilddaten ableiten lassen, rechnerisch zu ermitteln. Wenn bspw. unterschiedliche Position des distalen Endes des Mikroinstruments auf einer Drehung des Mikroinstrumentes um einen Drehpunkt beruhen, kann die Position des distalen Endes der Mikrosonde anhand der Orientierung des Mikroinstrumentes und des Abstandes zwischen dem Drehpunkt und seinem distalen Ende ermittelt werden. Die Daten, aus denen sich die Positionsdaten des distalen Endes der wenigstens einen optischen Faser bei der Gewinnung der jeweiligen Bilddaten ableiten lassen, können demnach Orientierungsdaten sein. Auch ein Ermitteln der Positionsdaten des distalen Endes der wenigstens einen optischen Faser anhand das distale Ende in Bezug auf das Beobachtungsobjekt zeigender stereoskopischer Bilder ist grundsätzlich möglich. Die Daten, aus denen sich die Positionsdaten des distalen Endes der wenigstens einen optischen Faser bei der Gewinnung der jeweiligen Bilddaten ableiten lassen, sind dann die Daten der stereoskopischen Bilder.
  • Erfindungsgemäß ist die Datenverarbeitungseinrichtung zum Empfang der Bilddaten mit der Aufnahmevorrichtung verbunden, und zum Empfang der Positionsdaten mit der Ermittlungseinrichtung. Sie ist dazu ausgestaltet, die Bilddaten mit Hilfe der Positionsdaten zu einem zweidimensionalen oder dreidimensionalen Bild zusammenzusetzen.
  • Es ist zudem vorteilhaft, wenn die Ermittlungseinrichtung dazu ausgestaltet ist, auch Orientierungsdaten, welche die Orientierung des distalen Endes der wenigstens einen optischen Faser zu den Aufnahmezeitpunkten der jeweiligen Bilddaten repräsentieren, zu ermitteln und den Bilddaten zuzuordnen, und die Datenverarbeitungseinrichtung auch zum Empfang der Orientierungsdaten mit der Ermittlungseinrichtung verbundenen ist. Die Datenverarbeitungseinrichtung ist dann dazu ausgestaltet, die Bilddaten außer mit Hilfe der Positionsdaten auch mit Hilfe der Orientierungsdaten zu einem zweidimensionalen oder dreidimensionalen Bild zusammenzusetzen. Das Ermitteln der Orientierungsdaten kann insbesondere dann sinnvoll sein, wenn sich die Orientierung des distalen Endes der wenigstens einen optische Faser mit seiner Position über eine vorgegebene Grenze erlaubter Orientierungsschwankungen hinaus ändert. Die vorgegeben Grenze erlaubter Orientierungsschwankungen kann dabei von der Auflösung, mit der die Bilddaten erfasst werden, und ggf. von dem Tiefenbereich, über den ein A-Scans erfolgt, abhängen. Sie sollte so gewählt werden, dass die erlaubten Orientierungsschwankungen des distalen Endes der wenigstens einen optische Faser für den gesamten Tiefenbereich eines A-Scans nur zu Schwankungen derjenigen Orte, an denen die Bilddaten für den A-Scan gewonnen werden, führen, die kleiner als die räumliche Auflösung der gewonnen Bilddaten sind.
  • Zum Zuordnen der Positionsdaten sowie ggf. der Orientierungsdaten zu den Bilddaten kann eine Synchronisationseinrichtung vorhanden sein, die dazu ausgestaltet ist, die Positionsdaten sowie ggf. der Orientierungsdaten einerseits und die Bilddaten andererseits miteinander zeitlich zu synchronisieren.
  • Das erfindungsgemäße Mikroinstrumentensystem ermöglicht es mit einer geringen Zahl an optischen Fasern und sogar mit einer einzigen optischen Faser ein zweidimensionales oder dreidimensionales Bild von einem Beobachtungsobjekt aufzunehmen, welches einen lateralen Bereich des Beobachtungsobjekts wiederspiegelt, der erheblich größer als die Ausdehnung des distalen Endes der wenigstens einen optische Faser bzw. des distalen Endes des verwendeten Faserbündels ist. Hierzu braucht der Nutzer das distale Ende des Mikroinstrumentes lediglich in Art einer Streichbewegung über den interessierenden Bereich des Beobachtungsobjektes zu fahren, so als wolle er das Beobachtungsobjekt anmalen. Während dieser Streichbewegung werden an einer Vielzahl von Positionen des distalen Endes der wenigstens einen optische Faser Bilddaten gewonnen, aus denen dann mit Hilfe der den Bilddaten zugeordneten Positionsdaten und, falls nötig, mit Hilfe der Orientierungsdaten Punkt für Punkt ein zweidimensionales oder dreidimensionales Bild aufgebaut wird. Falls statt einer einzelnen optischen Faser ein Faserbündel zum Einsatz kommt, kann aus einzelnen, jeweils einen kleinen lateralen Bereich des Beobachtungsobjektes wiedergebenden zweidimensionalen oder dreidimensionalen Bildern ein großes zweidimensionales oder dreidimensionales Bild zusammengesetzt werden. Bei Verwendung eines Faserbündels können bei der Streichbewegung außerdem Objektbereiche teilweise auch nacheinander von mehreren Fasern des Faserbündels erfasst werden, so dass die Signalintensität erhöht und somit das Signal zur Rauschverhältnis verbessert werden kann. Da die Relativpositionen der distalen Enden der einzelnen optischen Fasern des Faserbündels zueinander bekannt sind, genügt es, wenn die Position und ggf. die Orientierung des distalen Endes einer einzelnen optischen Faser des Faserbündels erfasst oder ermittelt wird. Die Positionen und die Orientierung der übrigen Faser können dann aus der bekannten räumlichen Beziehung zwischen den distalen Enden der einzelnen optischen Fasern im Faserbündel ermittelt werden.
  • Das erfindungsgemäße Mikroinstrumentensystem benötigt keinen Scanner am distalen Ende der wenigstens einen optischen Faser, so dass das Mikroinstrument in seinem Aufbau einfach gehalten werden kann, was eine Sterilisierung des Mikroinstruments erleichtert. Zusätzlich ermöglicht der einfach gehaltene Aufbau eine kostengünstige Herstellung des Mikroinstruments als Wegwerfprodukt, mit dem sich die Sterilität des Instruments besser gewährleisten lässt, als beim Resterilisieren von benutzten Instrumenten, insbesondere bei sehr kleinen Strukturabmessungen. Ein Scanner am distalen Ende der wenigstens einen optischen Faser ist aber als Option möglich.
  • Die Position und/oder die Orientierung des distalen Endes der wenigstens einen optische Faser kann bzw. können entweder unmittelbar erfasst werden, beispielsweise mittels eines Trackingsystems, einer Inertialsensorik oder, indem das distale Ende der wenigstens einen optische Faser in stereoskopischen Bildern erkannt wird, oder mittelbar, indem die Position und/oder die Orientierung eines Elementes des Mikroinstrumentes, etwa eines am Mikroinstrument angeordneten Markers, erfasst wird, von dem die räumliche Lage und ggf. die Orientierung in Bezug auf das distale Ende der wenigstens einen optische Faser bekannt ist bzw. sind. Zudem besteht die Möglichkeit, die Positionsdaten und/oder die Orientierungsdaten absolut zu ermitteln, d.h. in einem festgelegten Koordinatensystem, oder relativ zu ermitteln, bspw. relativ zum Objekt (etwa über die Erfassung von Abständen und Orientierungen zum Objekt) oder relativ zueinander (etwa anhand gleicher Bildinhalte in aufeinander folgenden Bilddaten). Die Positionsdaten und/oder die Orientierungsdaten können zudem dazu Verwendung finden, auf der Position basierende Parameter der Bildaufnahme wie etwa den Fokus einzustellen, oder die wenigstens eine Faser für den Scan zu positionieren und/oder zu orientieren.
  • Hierbei ist es nicht zwingend notwendig, dass für jeden Bilddatensatz auch eine Positionsmessung erfolgt. Beispielweise ist es auch möglich, Positionsdaten für Bilddatensätze für die keine Position gemessen worden ist, anhand einer Interpolation bzw. modelbasierten Rekonstruktion zu ermitteln. Voraussetzung hierfür ist, dass die Dynamik der Bewegung nicht die durch die diskrete Erfassung limitierte Bandbreite der Positionserfassung überschreitet oder, falls sie dies doch tut, diese Überschreitung dem System bekannt ist. So ist es etwa bei einer der handgeführten Bewegung überlagerten hochfrequenten Schwingung, die sowohl in ihrer Amplitude als auch in ihrer Orientierung bekannt ist, ausreichend, die die Position immer nur einmal pro Schwingungsperiode zu messen, beispielsweise bei jedem Nulldurchgang. Die während einer Schwingungsperiode eingenommenen Positionen können dann anhand der bekannten Schwingung berechnet werden.
  • Für die Positionserfassung kann zudem eines sog. Sensorfusion oder Informationsfusion zum Einsatz kommen, in der aus unterschiedlichen Sensoren stammende Informationen miteinander verknüpft werden. So kann bspw. hochfrequente, aber ungenaue Inertialsensorik mit einem niederfrequenten, aber genauen Tracking-System kombiniert werden. Auf diese Weise werden die ungenaueren, mit der Inertialsensorik gewonnenen Positions- und ggf. Orientierungsdate wiederkehrend mit den genauen Positions- und ggf. Orientierungsdaten des Tracking-Systems kalibriert, bevor die Ungenauigkeiten zu groß werden können.
  • In einer vorteilhaften Weiterbildung des erfindungsgemäßen Mikroinstrumentensystems umfasst das Mikroinstrument eine Einrichtung zum Induzieren einer transversalen Schwingung des distalen Endes der wenigstens einen optischen Faser oder des distalen Endes des Mikroinstruments. Die Einrichtung zum Induzieren einer transversalen Schwingung kann bspw. wenigstens ein Piezoelement und eine geeignete Steuerung des wenigstens einen Piezoelementes umfassen.
  • Durch die transversale Schwingung des distalen Endes der wenigstens einen optischen Faser oder des distalen Endes des Mikroinstruments kann eine Linie an Bildinformationen in Schwingungsrichtung aufgenommen werden. Wenn dann die Streichrichtung des distalen Endes der wenigstens einen optische Faser nicht parallel zur Schwingungsrichtung verläuft, werden selbst bei lediglich einer einzigen optischen Faser während der Streichbewegung nicht nur Bildpunkte entlang eines der Streichbewegung entsprechenden Pfades aufgenommen, sondern entlang eines Streifens, der eine Ausdehnung senkrecht zur Linie der Streichbewegung aufweist. Besonders vorteilhaft kann dies erreicht werden, wenn die Einrichtung zum Induzieren einer Schwingung derart ausgestaltet ist, dass sie das Induzieren einer transversalen Schwingung mit einer einstellbaren Orientierung ermöglicht. Dies kann beispielsweise durch die Verwendung von mindestens zwei Piezoelementen erreicht werden. In dieser Ausgestaltung ist die Datenverarbeitungseinrichtung dann dazu ausgestaltet, aus zeitlich aufeinanderfolgenden Positionsdaten die um die Schwingung bereinigte Bewegungsrichtung des distalen Endes der wenigstens einen optische Faser zu ermitteln. Auf der Basis der ermittelten Bewegungsrichtung kann sie dann ein Steuersignal generieren und an die Einrichtung zum Induzieren einer Schwingung ausgeben, das die Einrichtung derart steuert, dass die transversale Schwingung senkrecht zur ermittelten Bewegungsrichtung orientiert ist. Auf diese Weise kann mit der induzierten Schwingung die größtmögliche Ausdehnung des Streifens senkrecht zur Bewegungsrichtung erzielt werden.
  • Im erfindungsgemäßen Mikroinstrumentensystem kann das Mikroinstrument ein proximales und ein distales Ende umfassen, wobei sich das proximale Ende der wenigstens einen optischen Faser am proximalen Ende des Mikroinstrumentes und das distale Ende der wenigstens einen optischen Faser am distalen Ende des Mikroinstrumentes befindet. Am proximalen Ende oder am distalen Ende am Mikroinstrument kann ein Scanner vorhanden sein, mit dem sich die Richtung des aus dem entsprechenden Ende der wenigstens einen optischen Faser austretenden und des in das entsprechende Ende der optischen Faser eintretenden Lichtes verändern lässt. Ein Scanner am proximalen Ende bietet dabei den Vorteil, dass kein Bauraum für den Scanner am distalen Ende benötigt wird und das distale Ende daher so klein wie möglich ausgestaltet werden kann. Mit einem Scanner am proximalen Ende kann dann beispielsweise im Falle eines Faserbündels jedes Faserbündel in einer bestimmten zeitlichen Reihenfolge nacheinander angesteuert werden, um die Bilddaten zu gewinnen. Aber auch im Falle einer einzelnen optischen Faser kann ein Scanner am proximalen Ende zum Einsatz kommen, nämlich dann, wenn die optische Faser über ihren Querschnitt einen Brechungsindexgradienten aufweist. Dies führt dazu, dass die Austrittsrichtung eines Lichtstrahls aus einem der Enden der optischen Faser von der Eintrittsrichtung in das andere Ende der optischen Faser abhängt. Mittels einer Scanbewegung am proximalen Ende kann somit ein kleiner Bereich des Beobachtungsobjektes mit einer einzelnen Faser gescannt werden, ohne dass dieser Faser relativ zum Beobachtungsobjekt dazu bewegt werden muss.
  • Ein Scanner am distalen Ende des Mikroinstrumentes bietet sich insbesondere dann an, wenn das distale Ende des Mikroinstrumentes ohnehin bewegliche Teile aufweist. Beispielsweise kann die wenigstens eine optische Faser in den beweglichen Teil eines Vitrektoms integriert sein. Dieser bewegliche Teil führt eine longitudinale Bewegung im Inneren einer Hülse aus und dient dazu, den Glaskörper im Auge zu zerkleinern.
  • Erfindungsgemäß wird außerdem ein computerimplementiertes Verfahren zum Generieren eines zweidimensionalen oder dreidimensionalen Bildes von einem Beobachtungsobjekt mit Hilfe eines Mikroinstruments, in das eine optische Faser mit einem dem Beobachtungsobjekt zuzuwendenden distalen Ende aufweist, integriert ist. Das Verfahren umfasst die Schritte:
    • - Empfangen oder Abrufen einer Mehrzahl von mithilfe der wenigstens einen optischen Faser gewonnen Bilddaten. Die Bilddaten können dabei wie weiter oben bereits erwähnt, einzelne Bildpunkte, ein- oder zweidimensionale Bilder mit einer geringen Länge bzw. Fläche oder dreidimensionale Bilder mit einem kleinen Volumen sein.
    • - Empfangen oder Abrufen wenigstens von den Bilddaten zugeordneten Positionsdaten, welche die Position des distalen Endes der wenigstens einen optische Faser bei der Gewinnung der jeweiligen Bilddaten repräsentieren, oder Ermitteln der Positionsdaten aus empfangen oder abgerufenen, den Bilddaten zugeordneten Daten, aus denen sich die Positionsdaten des distalen Endes der wenigstens einen optischen Faser bei der Gewinnung der jeweiligen Bilddaten ableiten lassen. Beispielsweise ist es möglich, aus empfangenen oder abgerufenen Orientierungsdaten die Positionsdaten rechnerisch zu ermitteln, wenn etwa unterschiedliche Position des distalen Endes des Mikroinstruments auf einer Drehung des Mikroinstrumentes um einen Drehpunkt beruhen. In diesem Fall kann die Position des distalen Endes der Mikrosonde anhand seiner Orientierung und des Abstandes zwischen dem Drehpunkt und dem distalen Ende ermittelt werden. Die Daten, aus denen sich die Positionsdaten des distalen Endes der wenigstens einen optischen Faser ableiten lassen, können demnach Orientierungsdaten sein. Auch stereoskopische Bilddaten kommen als Daten, aus denen sich die Positionsdaten des distalen Endes der wenigstens einen optischen Faser ableiten lassen, in Frage.
  • Insbesondere, wenn sich die Orientierung des distalen Endes der wenigstens einen optische Faser mit seiner Position ändert, ist es zudem vorteilhaft, zusätzlich zu den Positionsdaten den Bilddaten zugeordnete Orientierungsdaten, welche die Orientierung des distalen Endes der wenigstens einen optische Faser bei der Gewinnung der jeweiligen Bilddaten repräsentieren, zu empfangen oder abzurufen, oder die Orientierungsdaten aus empfangen oder abgerufenen, den Bilddaten zugeordneten Daten, aus denen sich die Orientierungsdaten des distalen Endes der wenigstens einen optische Faser bei der Gewinnung der jeweiligen Bilddaten ableiten lassen, zu ermitteln. Daten, aus denen sich Orientierungsdaten ableiten lassen, können bspw. digitale stereoskopischer Bilder sein.
  • Die Positionsdaten und/oder die Orientierungsdaten können die Position bzw. die Orientierung des distalen Endes der wenigstens einen optische Faser unmittelbar angeben oder mittelbar, beispielsweise in dem die Position und/oder Orientierung eines Elements des Mikroinstruments, etwa eines am Mikroinstrument angeordneten Markers, erfasst wird, wobei die Position und/oder die Orientierung des distalen Endes der wenigstens einen optische Faser in Bezug auf dieses Element bekannt ist. Zudem können die Positionsdaten und/oder die Orientierungsdaten absolute Positionsdaten bzw. absolute Orientierungsdaten sein, die in einem fixen Koordinatensystem gegeben sind oder relative Positionsdaten bzw. relative Orientierungsdaten, welche die Position bzw. Orientierung des distalen Endes der wenigstens einen optische Faser in Bezug auf Elemente des Beobachtungsobjektes oder in Bezug auf aus vorherigen Bildern extrahierten Gewebestrukturen beschreiben. Die Zuordnung der Positionsdaten und ggf. der Orientierungsdaten zu den Bilddaten kann bspw. anhand von den Positionsdaten und ggf. der Orientierungsdaten sowie den Bilddaten hinzugefügten Zeitstempeln erfolgen, anhand denen sich die zu einem Zeitpunkt aufgenommenen Bilddaten den für diesen Zeitpunkt erfassten oder ermittelten Positions- und ggf. der Orientierungsdaten zuordnen lassen. Die Zuordnung kann aber auch ohne Zeitstempel erfolgen, bspw. indem für eine bestimmte Position und ggf. Orientierung gewonnene Bilddaten in einer gemeinsamen Datei mit den für diese Bilddaten erfassten oder ermittelten Positions- und ggf. Orientierungsdaten abgespeichert werden, oder, wenn alle Daten in einer einzigen Datei gespeichert werden, indem die für eine bestimmte Position und ggf. Orientierung gewonnene Bilddaten in dieser Datei immer unmittelbar vor oder hinter den zugehörigen Positions- und ggf. Orientierungsdaten stehen.
  • Erfindungsgemäß wird das zweidimensionale oder dreidimensionale Bild mit Hilfe der Positionsdaten und ggf. der Orientierungsdaten aus den Bilddaten zusammengesetzt. Auf diese Weise kann mit einer einzigen optischen Faser ein zweidimensionales oder dreidimensionales Bild gewonnen werden, ohne dass das distale Ende der wenigstens einen optischen Faser eine Scaneinrichtung aufzuweisen braucht. Falls ein Faserbündel mit einer Mehrzahl an optischen Fasern in das Mikroinstrument integriert ist, können aus den mit dem Faserbündel aufgenommenen zweidimensionalen oder dreidimensionalen Bildern mit einer geringen Ausdehnung zwei- oder dreidimensionale Bilder mit einer größeren Ausdehnung zusammengesetzt werden. Das computerimplementierte Verfahren ermöglicht es dabei insbesondere, einen interessierenden Objektbereich aufzunehmen, indem der Nutzer das distale Ende des Faserbündels bzw. das distale Ende des Mikroinstruments in einer Bewegung als wolle er den interessierenden Objektbereich anmalen über den interessierenden Objektbereich führt. Während dieser Bewegung werden an einer Vielzahl von Positionen Bilddaten gewonnen, die dann mit Hilfe der für die einzelnen Positionen ebenfalls gewonnen Positionsdaten und ggf. Orientierungsdaten zu einem Gesamtbild zusammengesetzt werden.
  • Wenn das verwendete Mikroinstrument wie weiter oben weiter beschrieben einen Scanner oder eine Einrichtung zum Induzieren einer transversalen Schwingung seines distalen Endes oder des distalen Endes der wenigstens einen optische Faser aufweist, kann das computerimplementierte Verfahren auch einen Schritt des Empfangens oder des Abrufens von Scandaten und/oder Schwingungsdaten beinhalten. Die Schwingungsdaten können dabei auch Daten sein, aus denen die jeweilige Auslenkung des distalen Endes anhand eines Modells der Schwingung rechnerisch ermittelt werden kann.
  • Wenn die Schwingungsdaten bspw. die einem Piezoelement zum Herbeiführen der Schwingung zugeführte Spannung repräsentieren, kann die jeweilige Auslenkung des distalen Endes anhand eines den Zusammenhang zwischen der Spannung und der Auslenkung wiedergebenden Modells rechnerisch ermittelt werden. Beim Zusammensetzen des zweidimensionalen oder dreidimensionalen Bildes können dann auch die Scandaten und/oder die Schwingungsdaten berücksichtigt werden. Das Berücksichtigen von Scandaten kann beispielsweise dann sinnvoll sein, wenn ein Faserbündel Verwendung findet, um die mit den einzelnen optischen Fasern des Faserbündels erfassten Bildinformationen zu dem mit dem Faserbündel gewonnenen kleinflächigen zweidimensionalen Bild oder dem kleinvolumigen dreidimensionalen Bild zusammenzusetzen. Auch im Falle einer einzelnen optischen Faser mit einem Brechungsindexgradienten kann mit Hilfe des Wissens über die jeweilige Scannerstellung und damit die Eintritts- und Austrittsrichtung des Strahlenbündels in die optische Faser bzw. aus der optischen Faser ein zweidimensionales oder dreidimensionales Bild mit geringer Ausdehnung gewonnen werden. In beiden Fällen in es vorteilhaft, wenn die Scangeschwindigkeit größer ist als die Geschwindigkeit, mit der das distale Ende optische Fasern bzw. das distale Ende des Mikroinstrumentes über den interessierenden Objektbereich bewegt wird. Dabei kann die Scangeschwindigkeit um einen Faktor 10 bis 1000 größer als die Bewegungsgeschwindigkeit des distalen Endes der optischen Fasern bzw. des distalen Endes des Mikroinstrumentes sein. Insbesondere kann die Scangeschwindigkeit so groß sein, dass sich während eines Scans die Position des distalen Endes der optischen Fasern bzw. des distalen Endes des Mikroinstruments nicht wesentlich ändert, d.h. dass die Positionsänderung nicht mehr als dem dreifachen Abstand zwischen zwei benachbarten Bildpunkten im gescannten Bild, insbesondere nicht mehr als dem einfachen Abstand zwischen zwei benachbarten Bildpunkten im gescannten Bild und vorzugsweise nicht mehr als dem halben Abstand zwischen zwei benachbarten Bildpunkten im gescannten Bild entspricht. Insbesondere, wenn die Positionsänderung nicht mehr als dem halben Abstand zwischen zwei benachbarten Bildpunkten entspricht, enthält das gescannte Bild keine merklichen Bewegungsunschärfen. Falls für den beabsichtigten Einsatzzweck kleine Bewegungsunschärfen hingenommen werden können, kann die Positionsänderung während eines Scans auch großer oder gleich dem einfachen Abstand zwischen zwei benachbarten Bildpunkten im gescannten Bild sein. Allerdings ist es auch möglich, die durch die Bewegungsgeschwindigkeit während eines A-Scans verursachte laterale Positionsänderung des distalen Endes in den Daten des A-Scans zu berücksichtigen. Mit anderen Worten, wenn die Scangeschwindigkeit in derselben Größenordnung wie die Bewegungsgeschwindigkeit oder sogar darunter liegt, können die in unterschiedlichen Tiefen aufgenommenen, lateral zueinander verschobenen Bilddaten anhand der Positionsdaten im zu erstellenden zweidimensionalen oder dreidimensionalen Bild positionsrichtig zusammengesetzt werden.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird außerdem ein Verfahren zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes von einem interessierenden Bereich eines Beobachtungsobjektes zur Verfügung gestellt, wobei im Rahmen des Verfahrens ein Mikroinstrument Verwendung findet, in welches wenigstens eine optische Faser mit einem dem Beobachtungsobjekt zuzuwendenden distalen Ende integriert ist. Das Aufnehmen erfolgt, während das distale Ende der wenigstens einen optischen Faser mit Hilfe des Mikroinstrumentes über den interessierenden Bereich des Beobachtungsobjekts bewegt wird. Die Bewegung kann dabei insbesondere von Hand erfolgen und so ausgeführt werden, als wolle man den interessierenden Bereich des Beobachtungsobjektes anmalen. Das Verfahren umfasst die Schritte:
    • - Erfassen von Positionsdaten für eine Anzahl an Positionen des Pfades, entlang dessen das distale Ende der wenigstens einen optische Faser während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts bewegt wird, oder Erfassen von Daten, aus denen sich die Positionsdaten des distalen Endes der wenigstens einen optischen Faser bei der Gewinnung der jeweiligen Bilddaten ableiten lassen, und ermitteln der Positionsdaten aus diesen Daten. Wie weiter oben bereits erwähnt worden ist, ist es möglich, die Positionsdaten rechnerisch aus Orientierungsdaten, aus stereoskopischen Bildern oder aus den Bilddaten selbst zu ermitteln.
    • - Erfassen von Bilddaten und Zuordnen der Bilddaten zu den jeweiligen Positionsdaten. Für das Zuordnen der Positionsdaten zu den Bilddaten können die Positionsdaten und die Bilddaten bspw. miteinander zeitlich synchronisiert werden.
    • - Zusammensetzen der Bilddaten mit Hilfe der Positionsdaten zu dem zweidimensionalen oder dreidimensionalen Bild.
  • Mit Hilfe des erfindungsgemäßen Verfahrens zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes von einem interessierenden Bereich eines Beobachtungsobjektes kann ein Chirurg intraoperativ einen frei wählbaren interessierenden Objektbereich zweidimensional oder dreidimensional abbilden, in dem er das distale Ende der wenigstens einen optische Faser oder das distalen Ende des Mikroinstrumentes in Art einer Streichbewegung über den interessierenden Bereich führt. Dieses Verfahren zum Gewinnen zweidimensionaler oder dreidimensionaler Bilder kann intuitiv ausgeführt werden und benötigt keine komplexe Ausgestaltung des distalen Endes des Mikroinstrumentes. Da insbesondere eine einzige optische Faser genügt, um das Verfahren auszuführen, können hierzu Mikroinstrumente mit sehr kleinem Durchmesser Verwendung finden, so dass das Verfahren insbesondere auch in der Augenchirurgie und der Neurochirurgie problemlos anwendbar ist.
  • Insbesondere, wenn sich die Orientierung des distalen Endes der wenigstens einen optische Faser mit seiner Position ändern kann, ist es zudem vorteilhaft, wenn zusätzlich zu den Positionsdaten Orientierungsdaten für die Anzahl an Positionen des Pfades, entlang dessen das distale Ende der wenigstens einen optischen Faser während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts bewegt wird, erfasst werden, oder die Orientierungsdaten aus erfassten Daten, aus denen sich Orientierungsdaten für die Anzahl an Positionen des Pfades, entlang dessen das distale Ende der wenigstens einen optischen Faser während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts bewegt wird, ableiten lassen, ermittelt werden. Die Bilddaten können dann außer den jeweiligen Positionsdaten auch den jeweiligen Orientierungsdaten zugeordnet werden, und das Zusammensetzten der Bilddaten zu dem zweidimensionalen oder dreidimensionalen Bild kann außer mit Hilfe der Positionsdaten auch mit Hilfe der Orientierungsdaten erfolgen. Um eine Zuordnung der erfassten oder ermittelten Positions- Orientierungsdaten zu den erfassten Bilddaten zu ermöglichen, können die Orientierungsdaten einerseits und die Bilddaten anderseits bspw. miteinander zeitlich synchronisiert aufgenommen und mit Zeitstempeln versehen werden oder in einer die Zusammengehörigkeit der Bilddaten zu gleichzeitig aufgenommenen Orientierungsdaten kennzeichnenden Ordnung abgespeichert werden.
  • Wenn in das Mikroinstrument nicht nur eine einzelne optische Faser integriert ist, sondern eine Mehrzahl an optischen Fasern, deren Positionen relativ zueinander bekannt sind, wie dies beispielsweise in einem optischen Faserbündel der Fall ist, kann an jeder Position der Streichbewegung ein zweidimensionales oder dreidimensionales Bild aufgenommen werden, dessen laterale Abmessungen von der lateralen Ausdehnung der Anordnung von optischen Fasern bestimmt wird. Dies ermöglicht es, die Abstände zwischen Punkten, an denen die zweidimensionalen oder dreidimensionalen Bilder mit kleinen Abmessungen aufgenommen werden, im Vergleich zu den benötigten Punkten bei einer einzelnen optischen Faser zu vergrößern. Andererseits besteht auch die Möglichkeit, die gleichen Abstände wie bei einer einzelnen optischen Faser beizubehalten, wodurch die aufgenommenen zweidimensionalen oder dreidimensionalen Bilder mit geringen Abmessungen einander überlappen. Auf diese Weise entstehen redundante Bildpunkte, welche die Signalintensität der jeweiligen Bildpunkte erhöhen und somit das Signal zum Rauschverhältnis verbessern. Außerdem besteht die Möglichkeit, die Auflösung zu erhöhen, wenn bei überlappenden Bildern die Objektbereiche um einen Betrag gegeneinander verschoben sind, der unterhalb der Auflösung der einzelnen Bilder liegt. Die Bildpunkte der jeweiligen Bilder repräsentieren Intensitätswerte des vom Objekt reflektierten Lichtes wobei die Intensitätswerte in den einzelnen Bildern in einem Raster angeordnet sind, in dem der Abstand zwischen den Rasterpunkten der Bildauflösung entspricht. Mittels einer Verschiebung, um einen Betrag, der kleiner als der Abstand der Rasterpunkte ist, kann aus den Intensitätswerten der Bilder ein zwischen den Rasterpunkten der Bilder liegender Intensitätswert ermittelt werden und ein Bild synthetisiert werden, in dem der Rasterabstand zwischen den einzelnen Intensitätswerten verringert ist, wodurch das synthetisierte Bild eine höhere Bildauflösung aufweist als die Bilder, aus denen es gweonnen wurde. An dieser Stelle sei darauf hingewiesen, dass die Abstände zwischen den Positionen, an denen Bilddaten aufgenommen werden, durch Einstellen einer geeigneten Frequenz, mit der Bilddaten aufgenommen und Positionsdaten erfasst werden, eingestellt werden kann.
  • Es sei noch erwähnt, dass die Möglichkeit besteht, das Erfassen der Bilddaten durch die Positionsdaten auszulösen. Bspw. bann ein Positionsraster vorgegeben werden und immer, wenn eine Position des Positionsrasters erreicht ist, werden für diese Position Bilddaten erfasst, oder es kann eine bestimmte Verschiebung vorgegeben werden, nach der eine neue Erfassung von Bilddaten erfolgt. Alternativ ist es aber auch möglich, das Erfassen der Positionsdaten durch das Erfassen von Bilddaten auszulösen, d.h. jedes Mal, wenn Bilddaten aufgenommen werden, werden auch Positionsdaten und ggf. Orientierungsdaten für den Ort der Aufnahme erfasst oder ermittelt. Von Bedeutung ist im Rahmen der Erfindung jedoch nicht, was wodurch ausgelöst wird, sondern, dass sich die erfassten Bilddaten einerseits und die erfassten oder ermittelten Positionsdaten und ggf. Orientierungsdaten andererseits einander eindeutig zuordnen lassen. Die Zuordnung kann bspw. mittels einer zeitlichen Synchronisation erfolgen, etwa unter Zuhilfenahme von Zeitstempeln in den Bilddaten und den Positionsdaten sowie ggf. den Orientierungsdaten, oder die Zuordnung kann durch eine bestimmte Reihenfolge des Abspeicherns der Daten erfolgen. Beispielsweise können die Bilddaten und die zugehörigen Positionsdaten sowie ggf. Orientierungsdaten in einer einzigen Datei abgespeichert werden, wobei Daten, welche eine Position und ggf. eine Orientierung repräsentieren, immer unmittelbar vor oder hinter den zu dieser Position und ggf. Orientierung gehörenden Bilddaten abgespeichert werden.
  • Im Rahmen der Erfindung besteht auch die Möglichkeit, eine transversale Schwingung des distalen Endes der wenigstens einen optische Faser oder des distalen Endes des Mikroinstrumentes zu induzieren, wobei das Erfassen der Positionsdaten und ggf. Orientierungsdaten an unterschiedlichen Positionen des distalen Endes der wenigstens einen optische Faser während einer Schwingungsperiode der induzierten Schwingung erfolgt. Auf diese Weise kann der beim Streichen über den interessierenden Bereich des Beobachtungsobjektes entlang des Pfades überstrichende Bereich vergrößert werden. Dies gilt im besonderen Maße, wenn die aktuelle Richtung des Pfades, entlang dessen das distale Ende der wenigstens einen optische Faser während des Bewegens über den interessierenden Bereich des Beobachtungsobjektes bewegt wird, ermittelt wird und als die transversale Schwingung des wenigstens einen distalen Endes der wenigstens einen optische Faser oder distalen Endes des Mikroinstruments eine transversale Schwingung induziert wird, die senkrecht zu der ermittelten aktuellen Richtung verläuft. Auf diese Weise kann ein breiter Bereich, insbesondere ein maximal breiter Bereich entlang des Pfades während der Bewegung überstrichen werden.
  • Bei dieser Ausgestaltung des Verfahrens besteht grundsätzlich die Möglichkeit, dass die Positionserfassung und ggf. die Orientierungserfassung derart rasch erfolgt, dass einzelne Positionen und ggf. einzelne Orientierungen während einer Schwingungsperiode der transversalen Schwingung aufgelöst werden können. Wenn andererseits die Amplitude, die Frequenz und die Schwingungsrichtung der Schwingung bekannt sind, ist es ausreichend, die Erfassung der Positionsdaten und ggf. der Orientierungsdaten mit einer Frequenz auszuführen, die einer Schwingungsperiode entspricht und die einzelnen Positionen und ggf. Orientierungen des distalen Endes der wenigstens einen optische Faser bzw. des distalen Endes des Mikroinstrumentes ausgehend von der erfassten Position mit Hilfe der Schwingungsfrequenz und der Schwingungsamplitude zu ermitteln. Die Aufnahmefrequenz mit der die Bilddaten aufgenommen werden, muss dann jedoch wenigstens gleich der Frequenz der Schwingung sein, damit während einer Schwingungsperiode eine Mehrzahl an Bilddaten gewonnen werden kann.
  • In einer weiteren Abwandlung des erfindungsgemäßen Verfahrens besteht die Möglichkeit, die Richtung des dem distalen Endes der wenigstens einen optische Faser zur Aufnahme der Bilddaten zugeführten Lichtes zu verändern, während das distale Ende der wenigstens einen optische Faser bzw. das Mikroinstrument über den interessierenden Bereich des Beobachtungsobjekts bewegt wird. Dies kann beispielsweise mit Hilfe eines Scanners am distalen Ende der wenigstens einen optischen Faser bzw. des Mikroinstrumentes erfolgen oder dadurch, dass eine optische Faser mit einem Brechungsindexgradienten Verwendung findet, an deren proximalen Ende ein Scanner vorhanden ist, mit dem aus unterschiedlichen Richtungen aus der optischen Faser austretendes Licht auf einen lichtempfindlichen Sensor der Aufnahmevorrichtung gelenkt wird. In der gerade beschriebenen Abwandlung des erfindungsgemäßen Verfahrens sollte der am proximalen Ende oder am distalen Ende der wenigstens einen optischen Faser bzw. des Mikroinstruments verwendete Scanner eine so hohe Scanfrequenz haben, dass sich die Position und die Orientierung des distalen Endes der wenigstens einen optische Faser bzw. des distalen Endes des Mikroinstrumentes während eines Scans nicht wesentlich ändern, wie dies weiter oben bereits beschrieben worden ist.
  • Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen unter Bezugnahme auf die beiliegenden Figuren.
    • 1 zeigt ein erstes Ausführungsbeispiel für ein Mikroinstrumentensystem.
    • 2 zeigt in einer schematischen Darstellung die Bewegung des distalen Endes eines Mikroinstrumentes im Rahmen des Verfahrens zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes in einer Seitenansicht.
    • 3 zeigt den Pfad der distalen Endes des Mikroinstrumentes beim Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes in einer Draufsicht.
    • 4 zeigt eine Abwandlung des ersten Ausführungsbeispiels, in der das distale Ende des Mikroinstruments in Schwingung versetzt wird, in einer Seitenansicht.
    • 5 zeigt die Bewegungsrichtung des distalen Endes des Mikroinstruments gemäß 4 zusammen mit der der Bewegungsrichtung überlagerten Schwingung.
    • 6 zeigt eine weitere Abwandlung des ersten Ausführungsbeispiels in einer schematischen Darstellung.
    • 7 zeigt das distale Ende eines Mikroinstruments, wie es im Rahmen des ersten Ausführungsbeispiels Verwendung finden kann.
    • 8 zeigt eine alternative Ausgestaltung des distalen Endes des Mikroinstrumentes, wie es im Rahmen des ersten Ausführungsbeispiels zur Anwendung kommen kann.
    • 9 zeigt eine weitere alternative Ausgestaltung des distalen Endes des Mikroinstruments, wie es im Rahmen des ersten Ausführungsbeispiels Verwendung finden kann.
    • 9 zeigt noch eine weitere Abwandlung des distalen Endes des Mikroinstruments, wie es im Rahmen des ersten Ausführungsbeispiels zur Anwendung kommen kann.
    • 10 zeigt noch eine weitere Abwandlung des distalen Endes des Mikroinstruments, wie es im Rahmen des ersten Ausführungsbeispiels Verwendung finden kann.
    • 11 zeigt noch eine weitere Abwandlung des distalen Endes des Mikroinstrumentes, wie es im Rahmen des ersten Ausführungsbeispiels zur Anwendung kommen kann.
    • 12 zeigt ein zweites Ausführungsbeispiel für das Mikroinstrumentensystem, bei dem statt einer einzelnen optischen Faser ein Faserbündel Verwendung findet.
    • 13 zeigt in einer schematischen Darstellung den Pfad des distalen Endes des Faserbündels beim Aufnehmen eines zweidimensionalen oder eines dreidimensionalen Bildes.
    • 14 zeigt eine alternative Ausgestaltung des distalen Endes des Mikroinstrumentes, wie es im zweiten Ausführungsbeispiel Verwendung finden kann.
    • 15 zeigt eine alternative Möglichkeit der Aufnahme zweidimensionaler oder dreidimensionaler Bilder bei Verwendung einer Mehrzahl an optischen Fasern.
  • Ein erstes Ausführungsbeispiel für das erfindungsgemäße Mikroinstrumentensystem wird nachfolgend mit Bezug auf die 1 bis 11 beschrieben.
  • Das Mikroinstrumentensystem des ersten Ausführungsbeispiels umfasst ein Mikroinstrument 1, das als Sonde ausgebildet ist. Diese umfasst eine Kanüle 3 oder eine andere stab- oder röhrenartige Struktur, die im vorliegenden Ausführungsbeispiel einen Außendurchmesser von 1,5 mm oder weniger, vorzugsweise 1,0 mm oder weniger und insbesondere 0,6 mm oder weniger aufweist. Am proximalen Ende 5 der Kanüle 3 befindet sich ein Handgriff 7 mit dem ein behandelnder Chirurg das Mikroinstrument 1 führen kann.
  • Außerdem umfasst das Mikroinstrumentensystem eine Aufnahmevorrichtung, die im vorliegenden Ausführungsbeispiel als OCT-System 9 ausgebildet ist. Mit einem OCT-System können Bilddaten aus verschiedenen Objekttiefen eines Beobachtungsobjektes 27 aufgenommen werden. Hierzu wird Beleuchtungslicht in einen Objektzweig 11 und einen Referenzzweig 13 aufgespalten. Sowohl der Objektzweig 11 als auch der Referenzzweig 13 umfassen jeweils eine optische Faser 15 bzw. 17, in die Licht von einer Beleuchtungseinrichtung, die im vorliegenden Ausführungsbeispiel ein in eine OCT-Hardware 10 integrierter Laser 19 ist, über einen dem Objektzweig 11 und dem Referenzzweig 13 gemeinsamen Faserabschnitt 25 und einem an dessen distalem Ende angeordneten Koppler 28 eingekoppelt wird. Die optische Faser 15 des Objektzweiges erstreckt sich durch das Mikroinstrument 1 bis zum distalen Ende 21 der Kanüle 3, wo sich das distale Ende 23 der optischen Faser 15 des Objektzweiges 11 befindet. Am distalen Ende 35 der optischen Faser 17 des Referenzzweiges 13 befindet sich eine Kollimationsoptik, mit deren Hilfe ein paralleles Strahlenbündel auf einen Spiegel 33 gerichtet wird und mit deren Hilfe das vom Spiegel 33 reflektierte parallele Strahlenbündel auf das distale Ende 35 der optischen Faser 17 des Referenzzweiges 13 fokussiert wird. Die optischen Fasern 15, 17 des Objektzweiges 11 und des Referenzzweiges 13 haben dieselbe optische Länge, und der Spiegel 33 hat einen Abstand vom distalen Ende der optischen Faser 17 des Referenzzweiges 13, der im Wesentlichen dem Abstand des distalen Endes 23 der optischen Faser 15 des Objektzweiges 11 vom Beobachtungsobjekt 27 entspricht.
  • Das aus dem distalen Ende 23 der optischen Faser 15 des Objektzweiges 11 austretende Licht beleuchtet das Beobachtungsobjekt 27, das beispielsweise ein Abschnitt oder eine Struktur im inneren des Auges oder eine neuronale Struktur, beispielsweise innerhalb des Gehirns, sein kann. Hierzu ist am distalen Ende 23 der optischen Faser 15 eine Mikrooptik oder eine auf einem Brechungsindexgradienten basierende Linse (nicht dargestellt) vorhanden, die Licht auf einen Punkt 25 des Beobachtungsobjektes 27 fokussiert. Das monochromatische Laserlicht dringt dabei bis zu einer bestimmten Tiefe in das Gewebe des Beobachtungsobjekts 27 ein. Aus dem gesamten Tiefenbereich, in den das Laserlicht eindringt, wird es reflektiert. Das reflektierte Laserlicht wird dann mittels der Mikrooptik bzw. der auf dem Brechungsindexgradienten basierenden Linse wieder in das distale Ende 23 der optischen Faser 15 eingekoppelt und zum Koller 28 geleitet, der es dann in den gemeinsamen Faserabschnitt 25 eingekoppelt. Vom gemeinsamen Faserabschnitt 25 wird das Licht dann über einen in der OCT-Hardware angeordneten Strahlteiler 31, der beispielsweise als Strahlteilerspiegel oder als Strahlteilerprima ausgestaltet sein kann, einem ebenfalls in der OCT-Hardware angeordneten Detektor 12 zugeführt.
  • Neben dem Licht des Objektzweiges 11 wird außerdem Licht des Referenzzweiges 13 in den gemeinsamen Faserabschnitt 29 eingekoppelt. Mit dem eingekoppelten Licht wurde zuvor der Spiegel 33 beleuchtet, dessen Abstand vom gemeinsamen Faserabschnitt 29 variiert werden kann. Die bei dieser Variation auftretenden Abstände des Spiegels 33 vom distalen Ende der optischen Faser 17 des Referenzzweiges 13 entsprechen den Abständen der Tiefenbereiche im Objekt 27, aus denen das Laserlicht reflektiert wird, vom distalen Endes 23 der optischen Faser 15 des Objektzweiges 11. Durch Verschieben des Spiegels 31 relativ zum distalen Ende 35 der optischen Faser 17 des Referenzzweiges 13 lässt sich die optische Weglänge, die das Licht im Referenzzweig zurücklegt, variieren. Wenn die optische Weglänge des vom Spiegel 33 reflektierten Lichtes mit der optischen Weglänge des aus einer bestimmten Tiefe des Beobachtungsobjekts 27 reflektierten Lichtes übereinstimmt, überlagert sich das Licht des Referenzzweiges 13 mit dem Licht des Objektzweiges 11 im gemeinsamen Faserabschnitt 29 konstruktiv. Dies führt zu einer Intensitätserhöhung am Detektor, die wiederum dazu führt, dass das konstruktiv interferierende Licht den Hauptanteil des detektierten Lichtes bildet. Dabei bestimmt der Abstand des Spiegels 31 vom distalen Ende 35 der optischen Faser 17 im Referenzzweig 13 die Tiefe im Beobachtungsobjekt 27, aus dem Licht reflektiert werden muss, um mit dem Licht im Referenzzweig 13 konstruktiv interferieren zu können. Wenn nun der Abstand des Spiegels 31 vom distalen Ende 35 der optischen Faser 17 des Referenzzweiges 13 bewegt wird, führt dies dazu, dass während der Bewegung je nach Speiegelstellung Licht aus unterschiedlichen Tiefen des Beobachtungsobjekts 27 mit dem Licht des Referenzzweiges 13 konstruktiv interferiert, so dass durch die Bewegung des Spiegels über diesen vorgegebenen Bereich ein Scannen eines vorgegebenen Tiefenbereiches im Beobachtungsobjekt 27 möglich ist. Ein solcher Scan über einen bestimmten Tiefenbereich wird Tiefenscan oder A-Scan genannt.
  • Es sei an dieser Stelle darauf hingewiesen, dass auch andere Formen von OCT-Systemen möglich sind, insbesondere auch solche, die mit einem feststehenden Spiegel 33 auskommen. Beispielsweise können mit Hilfe von Weißlichtinterferometrie alle Tiefenbereiche des Objektes gleichzeitig aufgenommen werden. Hierbei wird ausgenutzt, dass weißes Licht eine Vielzahl von Wellenlängen umfasst, was dazu führt, dass bei einer fixen optischen Weglänge im Referenzzweig 13 für jede Wellenlänge im Weißlicht die konstruktive Interferenz bei einer etwas anderen optischen Weglänge im und des Objektzweig 11 erfolgt. Bei einem fix angeordneten Spiegel wird daher die Bedingung für konstruktive Referenz einer bestimmten Wellenlänge durch die Tiefe im Beobachtungsobjekt 27, aus der die Reflektion erfolgt bestimmt. Andere Wellenlängen erfüllen die Bedingung von konstruktive Indifferenz dagegen für andere Tiefen im Beobachtungsobjekt, so dass die Tiefeninformation in der spektralen Verteilung des vom Detektor detektierten Lichtes kodiert ist.
  • Das Mikroinstrumentensystem umfasst außerdem eine Ermittlungseinrichtung zum Ermitteln der Position und, falls nötig, der Orientierung des Mikroinstruments 1. Im vorliegenden Ausführungsbeispiel dient ein Trackingsystem 2 als Ermittlungseinrichtung, welches anhand eines am Mikroinstrument 1 angeordneten Markes 2A die Position und, falls nötig, die Orientierung des Mikroinstruments 1 erfasst und anhand der bekannten Anordnung des Markers 2A relativ zum distalen Enden der Kanüle 3 die Position und die Orientierung des distalen Endes der Kanüle 3 ermittelt. Alternativ kann die Erfassungseirichtung eine Inertialsensorik oder ein Operationsmikroskop 39 mit zwei jeweils einen digitalen Bildsensor 41A, 41B aufweisenden stereoskopischen Teilstrahlengängen umfassen. Die von den beiden Bildsensoren 41A, 41B aufgenommenen Bilder werden dann einer Auswerteeinheit 43 zugeführt, die mit Hilfe von Bildverarbeitungssoftware das distale Ende der Kanüle 3 in den aufgenommenen Bildern erkennt und anhand stereoskopischer Informationen den Position und ggf. die Orientierung des distalen Endes 21 in Bezug auf das Beobachtungsobjekt oder in Bezug auf das Koordinatensystem des Operationsmikroskops ermittelt.
  • Die vom Detektor 12 in der OCT-Hardware 10 aufgenommenen Bilddaten werden zusammen mit den von der Auswerteinheit 43 ermittelten Positionsdaten und den ggf. ermittelten Orientierungsdaten an eine Datenverarbeitungsvorrichtung 45 ausgegeben, die im vorliegenden Ausführungsbeispiel ein handelsüblicher PC ist, mit dem die Auswerteeinrichtung 43 der Ermittlungseinrichtung und der Detektor 12 der OCT-Hardware 10 verbunden ist. Alternativ kann die Datenverarbeitungsvorrichtung 45 aber auch eine dedizierte Hardwarekomponente sein. Auf dem Computer 45 ist eine Software installiert, die unter Zuhilfenahme der Positionsdaten und ggf. der Orientierungsdaten die mit dem OCT-System gewonnenen Bilddaten zu einem zweidimensionalen oder dreidimensionalen Bild zusammengesetzt. Hierzu werden die jeweils aufgenommenen Bilddaten sowie die jeweils erfassten Positionsdaten und ggf. Orientierungsdaten im vorliegenden Ausführungsbeispielen mit Zeitstempeln versehen, auf deren Basis die Bilddaten einer erfassten Position und ggf. einer erfassten Orientierung zugeordnet werden können.
  • Das Aufnehmen zweidimensionaler oder dreidimensionaler Bilder mit Hilfe des beschriebenen Mikroinstrumentensystems wird nachfolgend mit Bezug auf die 2 bis 11 beschrieben.
  • Das Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes mithilfe des in 1 gezeigten Mikroinstrumentensystems wird nachfolgend mit Bezug auf die 2 und 3 beschrieben. 2 zeigt dabei die Bewegung des Mikroinstruments 1 in einer Seitenansicht und 3 ein Beispiel für den Pfad der Bewegung in einer Draufsicht.
  • Zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes wird das distale Ende 21 des Mikroinstrumentes 1 lateral über die Oberfläche des Beobachtungsobjekts 27 bewegt, wie dies durch den Pfeil in 2 angedeutet ist. Soll ein zweidimensionales Bild aufgenommen werden, braucht das distale Ende 21 des Mikroinstrumentes 1 lediglich entlang einer Linie über die Oberfläche geführt zu werden, so als wolle man einen Strich auf das Beobachtungsobjekt malen. Entlang der Linie werden dann mit Hilfe des OCT-Systems A-Scans aufgenommen, die unter Zuhilfenahme der Positionsdaten und ggf. der Orientierungsdaten zu einem zweidimensionalen Bild zusammengesetzt werden können, in welchem die eine Dimension die Linie repräsentiert und die zweite Dimension die Tiefe innerhalb des Beobachtungsobjektes, aus dem das Licht reflektiert worden ist. Ein solches zweidimensionales Bild wird auch B-Scan genannt. Um ein dreidimensionales Bild zu generieren, muss das distale Ende 21 des Mikroinstrumentes 1 über den gesamten interessierenden Bereich bewegt werden, wie dies anhand des beispielhaften Pfades in 3 dargestellt ist. Dieser Pfad repräsentiert eine Art Hin- und Her-Bewegung des distalen Endes 21 des Mikroinstrumentes, so als wolle man den interessierenden Bereich anmalen. Entlang des Pfades des distalen Endes 21 des Mikroinstrumentes 1 werden an einer Vielzahl von Positionen Bilddaten aufgenommen. Außerdem werden zu allen erfassten Bilddaten jeweils die zugehörigen Positionsdaten sowie ggf. die zugehörigen Orientierungsdaten des distalen Endes 21 ermittelt und den jeweiligen Bilddaten zugeordnet. Das Zuordnen der Positionsdaten und ggf. der Orientierungsdaten zu den jeweiligen Bilddaten erfolgt im vorliegenden exemplarischen Ausführungsbeispiel anhand der Zeitstempel. Sie kann aber bspw. auch erfolgen, indem die Bilddaten, die Positionsdaten und ggf. die Orientierungsdaten in eine gemeinsame Datei geschrieben werden, in der die den Bilddaten zugeordneten Positionsdaten und ggf. Orientierungsdaten den Bilddaten immer unmittelbar vorausgehen oder immer unmittelbar nachfolgen.
  • Das zusammensetzen der Bilddaten mit Hilfe der ihnen zugeordneten Positionsdaten und ggf. Orientierungsdaten erfolgt dann mit der auf dem Computer 45 installierten Software, welche die folgenden Schritte eines computerimplementierten Verfahrens ausführt:
    • (i) Empfangen oder Abrufen der mit dem OCT-System gewonnenen Bilddaten, die im vorliegenden Ausführungsbeispiel mit Hilfe des OCT-Systems gewonnene A-Scans darstellen, sowie der den Bilddaten zugeordneten Positionsdaten und, falls nötig, der den Bilddaten zugeordneten Orientierungsdaten.
    • (ii) Ermitteln der Positionen und ggf. der Orientierunen der A-Scans relativ zueinander anhand der den Bilddaten zugeordneten Positionsdaten und ggf. der den Bilddaten zugeordneten Orientierungsdaten und
    • (iii) Aufbauen des dreidimensionalen Bildes durch Zusammensetzen der korrekt zueinander positionierten und, falls nötig, korrekt zueinander orienteierten A-Scans, wobei auch die Möglichkeit besteht, zwischen den einzelnen Bildpunkten des dreidimensionalen Bildes zu interpolieren.
  • Statt der Positionen und ggf. der Orientierungen der A-Scans relativ zueinander können alternativ auch die Positionen und ggf. die Orientierungen der A-Scans in einem fixen Koordinatensystem ermittelt werden, wobei die A-scans dann zum Aufbauen des dreidimensionalen Bildes an den entsprechenden Positionen des Koordinatensystems und ggf. in den entsprechenden Orientierungen positioniert werden.
  • Obwohl in 2 ein Pfad für die Bewegung des distalen Endes 21 des Mikroinstrumentes 1 gezeigt ist, in dem lineare Pfadabschnitte benachbart voneinander verlaufen, ist auch jeder beliebige andere Pfad, mit dem sich der interessierende Bereich abdecken lässt, grundsätzlich geeignet. Beispielsweise könnte von einem zentralen Punkt ausgehend der interessierende Bereich mit einer spiralförmigen Bewegung überstrichen werden. Aber auch eine völlig willkürliche, unregelmäßige Bewegung über den interessierenden Bereich führt zu einem Ergebnis, da in jedem Fall die einzelnen A-Scans anhand der zugeordneten Positionsdaten und ggf. der zugeordneten Orientierungsdaten zu einem dreidimensionalen Bild zusammengesetzt werden können.
  • Eine Abwandlung des in 1 gezeigten Ausführungsbeispiels wird nachfolgend mit Bezug auf die 4 und 5 beschrieben. In dieser Abwandlung weist das Mikroinstrument 1 zwei Piezoelemente auf, mit denen die Kanüle 3 in Schwingung versetzt werden kann. Die Piezoelemente sind in einem Winkel von 90 Grad um die Achse der Kanüle verteilt angeordnet, so dass mit den Piezoelementen 47, 49 zueinander senkrechte transversale Schwingungen in die Kanüle eingebracht werden können. Durch geeignetes Ansteuern der Piezoelemente 47, 49 können die transversalen Schwingungen entlang jeder beliebigen Radialrichtung der Kanüle 3 induziert werden.
  • In der beschriebenen Abwandlung ermittelt der Computer 45 auf der Basis der erfassten Positionsdaten und ggf. der Orientierungsdaten die aktuelle Bewegungsrichtung und Bewegungsgeschwindigkeit des distalen Endes 21 des Mikroinstrumentes 1 über den interessierenden Bereich des Beobachtungsobjektes. Diese aktuelle Bewegungsrichtung ist in 5 anhand der Bewegungsrichtung des Fleckes 25 auf dem Beobachtungsobjekt, an dem ein A-Scan aufgenommen wird, dargestellt. Die Bewegungsrichtung wird durch den vom Punkt 25 ausgehenden Pfeil repräsentiert. Der Computer 45 ermittelt dann die zu der zuvor ermittelten Bewegungsrichtung senkrechte Richtung und steuert die Piezoelemente 47, 49 derart an, dass sie eine lineare Schwingung senkrecht zu der aktuellen Bewegungsrichtung induzieren. Da die Schwingungsdaten bekannt sind, kann diese Schwingung aus den erfassten Positionsdaten und ggf. den erfassten Orientierungsdaten herausgerechnet werden, wenn die Bewegungsrichtung des distalen Endes 21 des Mikroinstrumentes 1 ermittelt wird.
  • In der in den 4 und 5 gezeigten Abwandlung des Mikroinstrumentensystems erfolgt die Bildaufnahme so rasch, dass während einer Schwingungsperiode eine Mehrzahl von Bildern aufgenommen wird. Die Schwingung wird dabei in der Regel mit einer Frequenz induziert, die so hoch ist, dass die Nulllage der Schwingung ihre Position senkrecht zur Schwingungsrichtung während einer Schwingungsperiode nicht wesentlich ändert. Da die Führung des Mikroinstrumentes von Hand erfolgt, kann es jedoch sein, dass aufgrund einer ungleichmäßigen händischen Bewegungsgeschwindigkeit eine größere Änderung der Nulllage während einer Schwingungsperiode erfolgt, wie dies etwa in der Mitte von 5 gezeigt ist. Da der Computer jedoch nicht nur die Schwingungsfrequenz und die Schwingungsamplitude kennt, sondern auch die Bewegungsgeschwindigkeit senkrecht zur Schwingungsrichtung erfasst, können derartige Geschwindigkeitsschwankungen beim Zusammensetzen des dreidimensionalen Bildes berücksichtigt werden.
  • Mit Hilfe des schwingenden distalen Endes 21 der Kanüle 3 wird es möglich, ein dreidimensionales Bild aufzunehmen, ohne dass eine von Hand geführte Hin- und Her-Bewegung, wie sie in 3 gezeigt ist, nötig ist. Es braucht lediglich eine Bewegung entlang einer Linie zu erfolgen. Erfolgt dennoch eine Hin- und Her-Bewegung, ermöglicht es das schwingende distale Ende 21 der Kanüle 3 die Abstände zwischen benachbarten Bereichen des Pfades zu vergrößern, wie dies beispielsweise beim Anstreichen mit einem breiten Pinsel ebenfalls möglich ist. Auf diese Weise kann sehr rasch ein großflächiger Bereich des Beobachtungsobjektes einer dreidimensionalen Bildgebung zugeführt werden.
  • Obwohl in der beschriebenen Abwandlung des ersten Ausführungsbeispiels die gesamte Kanüle 3 in Schwingung versetzt worden ist, besteht auch die Möglichkeit, lediglich die optische Faser 15 im Inneren der Kanüle 3 in Schwingung zu versetzen. Zudem besteht die Möglichkeit, eine Schwingung des Objektlichtstrahles des OCT-Systems zu verursachen, ohne dass eine mechanische Schwingung der Kanüle 3 oder der optischen Faser 15 des Referenzzweiges 11 nötig ist. Dies wird möglich, wenn eine optische Faser 51 mit einem Indexgradienten senkrecht zur Längsrichtung der optischen Faser 51 Verwendung findet. Die Austrittsrichtung des Objektlichtstrahles im aus dem distalen Ende 52 der optischen Faser 51 hängt dann von der Eintrittsrichtung des Lichtes in die optische Faser 51 ab. Wenn nun das Licht in die optische Faser 51 beispielsweise mit einem schwingenden Galvanospiegel in unterschiedlichen Richtungen in das proximale Ende 57 der optischen Faser 51 eingekoppelt wird, führt dies dazu, dass die Austrittsrichtung des aus dem distalen Ende 52 der optischen Faser 51 austretenden Lichtes mit der Schwingung des Galvanometerspiegels 53 seine Austrittsrichtung ändert. Gleiches gilt für die Eintrittsrichtung des von Beobachtungsobjekt 27 reflektierten Lichtes, das von dem Galvanometerspeiegel dann in Richtung auf den Detektor 12 weitergeleitet wird. Mit Hilfe der Schwingung können so nicht nur Bilddaten entlang des Pfades, entlang dessen das Mikroinstrument 1 von Hand geführt wird, aufgenommen werden, sondern auch Bilddaten aus einem Bereich links und rechts dieses Pfades. Eine optische Faser 51 mit einem Indexgradienten und einem an ihrem proximalen Ende 57 angeordneten schwingenden Galvanometerspiegel 53 ist in 6 dargestellt. Darüber hinaus ist der Verlauf eines in die optische Faser 51 eingekoppelten Objektlichtstrahls 55 bis zum Beobachtungsobjekt 27 schematisch eingezeichnet.
  • Grundsätzlich besteht darüber hinaus die Möglichkeit, auszunutzen, dass eine von Hand geführte Bewegung immer auch einen Tremor beinhaltet. Dieser Tremor kann wie eine Schwingung des distalen Endes des Mikroinstrumentes angesehen werden und ebenfalls dazu genutzt werden, Bilddaten aus einem Bereich links und rechts des von Hand geführten Pfades über das Beobachtungsobjekt 27 aufzunehmen. Da in diesem Fall sind die Amplitude, die Frequenz und die Richtung der aus dem Tremor resultierenden Schwingung nicht bekannt sind, sollte die Frequenz, mit der die Positionserfassung und ggf. die Orientierungserfassung des distalen Endes 21 des Mikroinstrumentes 1 oder des distalen Endes 23 der optischen Faser 15 erfolgt, so groß sein, dass die aufgrund des Tremors variierenden Aufnahmepositionen bei der Aufnahme der Bilddaten jeweils einzeln erfasst werden können. Bei einer induzierten Schwingung, deren Amplitude, deren Frequenz und deren Richtung bekannt ist, ist es ausreichend, wenn die Frequenz, mit der die Positionsdaten und ggf. die Orientierungsdaten erfasst werden, groß genug ist, um die jeweiligen Nullpunkte der einzelnen Schwingungsperioden zu ermitteln. Die einzelnen Aufnahmepositionen bei der Aufnahme der Bilddaten während einer Schwingungsperiode können dann auf der Basis der Frequenz, der Amplitude und der Richtung der Schwingung ausgehend von der Nullposition ermittelt werden. Zwar wird die erfasste Nullposition um den Pfad der von Hand geführte Bewegung schwanken, jedoch kann diese Schwankung auf der Basis der bekannten Frequenz, der bekannten Amplitude und der bekannten Richtung der Schwingung korrigiert werden. Die korrigierte Position stellt dann die Nullposition dar.
  • Eine weitere Möglichkeit, der Bewegungsrichtung des von Hand geführten Mikroinstrumentes 1 eine zweite Richtung zu überlagern, besteht darin, am distalen Ende des Mikroinstrumentes einen beweglichen Scanner anzuordnen. Eine derartige Variante des ersten Ausführungsbeispiels ist in 7 schematisch dargestellt. In dieser Variante ist das Mikroinstrument 1 nicht lediglich eine einfache Kanüle, durch die die optische Faser 15 des Objektszweiges 11 geführt ist. Stattdessen ist das Mikroinstrument als Vitrektom zum Zerkleinern des Glaskörpers des Auges ausgeführt. Ein solches Vitrektom umfasst einen hohlen Schaft 59 mit einer Öffnung 61. In hohlen Schaft 59 ist ein in seiner Longitudinalrichtung bewegliches, ebenfalls hohles Röhrchen 63 angeordnet. Durch dieses hohle Röhrchen 63 können zerkleinerte Glaskörperstücke abgesaugt werden. Das hohle Röhrchen bewegt sich dabei longitudinal zwischen einer Position, in der die Öffnung 61 durch das Röhrchen vollständig verschlossen ist und einer Position, in der die Öffnung offen ist, hin und her. Wenn nun das distale Ende des Röhrchens 63 wie in 7 schematisch dargestellt mit einem reflektierenden Element, beispielsweise einem Spiegel oder einem Prisma, versehen ist, kann seine Hin- und Her-Bewegung dazu genutzt werden, mit dem Objektlichtstrahl 55 einen Bereich des Beobachtungsobjektes 27 zu scannen, der im Wesentlichen der Strecke entspricht, die das Röhrchen 63 während der Hin- und Her-Bewegung zurücklegt. Im Unterschied zu den bisher beschriebenen Ausführungsvarianten des ersten Ausführungsbeispiels erfolgt die Aufnahme der Bilddaten in der in 7 gezeigten Ausführungsvariante nicht in Longitudinalrichtung der optischen Faser 15, sondern in Radialrichtung zur optischen Faser 15.
  • Während in der in 7 gezeigten Ausführungsvariante die optische Faser 15 selber stationär ist, also nicht bewegt wird, besteht auch die Möglichkeit, die optische Faser mit dem inneren Röhrchen 63 mitzubewegen. Hierzu kann beispielsweise im Handgriff 7 des Vitrektoms ein elastischer Teil der optischen Faser 15 vorhanden sein. Dieser elastische Teil kann beispielsweise wie in 8 dargestellt durch eine Schleife, die mit der Bewegung des inneren Röhrchens 63 enger oder weiter wird, realisiert sein. Das distale Ende 23 der optischen Faser 15 weist in dieser Ausführungsvariante zudem einen Deflektor auf (in 8 nicht dargestellt), der den Objektlichtstrahl beim Austritt aus der optischen Faser 15 in Radialrichtung der optischen Faser 15 ablenkt.
  • Die in 8 gezeigte Ausgestaltung zum Scannen des Objektes bietet gegenüber der in 7 gezeigten Ausführungsvariante den Vorteil, dass sich die optische Weglänge im Objektzweig 11 durch die Hin- und Her-Bewegung des inneren Röhrchens 63 nicht ändert. In der in 7 gezeigten Variante führt der Stellweg der Hin- und Her-Bewegung des reflektierenden Elementes 64 dagegen zu einer Veränderung der optischen Weglänge im Objektzweig 11, die durch eine Anpassung der optischen Weglänge im Referenzzweig 13 ausgeglichen werden muss. Diese Anpassung kann mechanisch erfolgen, beispielsweise, indem eine Nullposition des sich bewegenden Spiegels 33 im Referenzzweig 13 mit der der Position des reflektierenden Elementes 64 bei der Hin- und Her-Bewegung im Objektzweig 15 verschoben wird, oder elektronisch, indem die Änderung der Weglänge im Objektzweig 11 im Computer 45 Berücksichtigung findet, beispielsweise um die Objekttiefen, aus denen die einzelnen konstruktiv interferierenden Wellenlängen reflektiert worden sind, anhand der jeweiligen Stellung des reflektierenden Elementes 64 während dessen Bewegung zu korrigieren. Falls zum Gewinnen der Bilddaten kein OCT-System Verwendung findet, sondern beispielsweise ein konfokales Laser-Scanning-Mikroskop, besteht die Möglichkeit, das System mit einer so großen Fokustiefe zu versehen, dass der Stellweg des reflektierenden Elementes 64 bei der Hin- und Her-Bewegung die Fokussierung nicht wesentlich beeinträchtigt.
  • Die mit Bezug auf die 7 und 8 beschriebenen Vitrektrome ermöglichen ein Aufnehmen von Bilddaten in Radialrichtung der optischen Faser 15 des Referenzzweiges 11. Es besteht aber auch die Möglichkeit, das Vitrektom wie die zuvor beschriebene Kanüle zu verwenden. In diesem Fall ist die optische Faser 15 des Objektzweiges 11 bis zum distalen Ende 65 des Schaftes geführt, so dass das distale Ende 23 der optischen Faser 15 mit dem distalen Ende 65 des Vitrektoms abschließt, wie dies in 9 gezeigt ist.
  • Es besteht aber auch die Möglichkeit, dass die Bildaufnahme in anderen Richtungen als der Longitudinalrichtung der optischen Faser 15 oder der Radialrichtung der optischen Faser 15 erfolgt. Hierzu kann am distalen Ende der optischen Faser 15 des Objektzweiges 11 ein Deflektor 67 angeordnet sein, der den aus dem distalen Ende 23 der optischen Faser 15 austretenden Objektlichtstrahl in eine Richtung ablenkt, die zwischen der Longitudinalrichtung und der Radialrichtung der optischen Faser 15 liegt (siehe 10). Der Deflektor kann beispielsweise als Mikroprisma oder als sogenannter „off-axis-freeform TIR mirror“ ausgebildet sein. In einem „off-axis-freeform TIR mirror“ erfolgt die Ablenkung aufgrund innerer Totalreflektion (TIR, total internal reflection), wobei die Reflektionsrichtung durch die Form einer Freiformfläche bestimmt ist. In der Figur sind mehrere mögliche alternative Richtungen, in denen die Bildaufnahme erfolgen kann schematisch dargestellt.
  • Noch eine weitere Variante des ersten Ausführungsbeispiels ist in 11 dargestellt. In dieser Ausführungsvariante ist das distale Ende 65 des Schaftes des Vitrektoms als transparenter Bereich 69 ausgebildet. Dieser transparente Bereich 69 weist im Wesentlichen die Form einer Halbkugelschale mit einer halbkugelförmigen Innenfläche 70 auf. In Inneren des Schaftes 59 ist eine bis in den transparenten Bereich 69 verlaufende Führungsschiene 71 vorhanden, mit deren Hilfe das distale Ende 23 optische Faser 15 des Objektzweiges 11 zwischen der Führungsschiene 71 und der Wand 73 des transparenten Bereiches 69 longitudinal bewegt werden kann. Durch diese longitudinale Bewegung kann die Position des distalen Endes 21 der optischen Faser 15 entlang der halbkugelförmigen Innenfläche 70 zusammen mit seiner Orientierung eingestellt werden, wobei die Orientierung und somit die Abstrahlrichtung der optischen Faser von der Position des distalen Endes 21 an der Innenfläche 70 des transparenten Bereiches 69 abhängt. Auf diese Weise kann die Abstrahlrichtung des Objektlichtes bzw. die Aufnahmerichtung beim Aufnehmen der Bilddaten variiert werden, wie dies in 11 dargestellt ist.
  • Ein zweites Ausführungsbeispiel für das erfindungsgemäße Mikroinstrumentensystem wird nachfolgend mit Bezug auf die 12 bis 15 beschrieben. 12 zeigt dabei das Mikroinstrumentensystem und 13 den Pfad des distalen Endes des Mikroinstrumentensystems während des Aufnehmens eines dreidimensionalen Bildes. Die 14 und 15 zeigen Abwandlungen des zweiten Ausführungsbeispiels.
  • Das in 12 dargestellte zweite Ausführungsbeispiel für das erfindungsgemäße Mikroinstrumentensystem beinhaltete wie das erste Ausführungsbeispiel ein OCT-System mit einem Objektzweig 11, einem Referenzzweig 13 und einer OCT-Hardware 10. Der Referenzzweig 13 sowie die OCT-Hardware 10 und der gemeinsame Faserabschnitt 29 unterscheiden sich nicht von dem Referenzzweig 13, der OCT-Hardware 10 und dem gemeinsamen Faserabschnitt 29 des ersten Ausführungsbeispiels. Sie sind daher mit denselben Bezugsziffern wie im ersten Ausführungsbeispiel bezeichnet und werden nicht noch einmal erläutert, um Wiederholungen zu vermeiden. Auch das Operationsmikroskop 39, die Auswerteeinheit 43 und der Computer 45 unterscheiden sich nicht von denen des ersten Ausführungsbeispiels. Sie sind daher ebenfalls mit den Bezugsziffern aus dem ersten Ausführungsbeispiel bezeichnet und werden zur Vermeidung von Wiederholungen nicht noch einmal erläutert.
  • Das zweite Ausführungsbeispiel des erfindungsgemäßen Mikroinstrumentensystems unterscheidet sich vom ersten Ausführungsbeispiel in der Ausgestaltung des Objektzweiges 11 des OCT-Systems. Anstatt die optische Faser 15 bis in das distale Ende des Mikroinstrumentes zu führen, endet die optische Faser 15 in einer Kollimationsoptik 75, die sich vor dem proximalen Ende eine Kanüle 77 eines Mikroinstruments endet. Durch die Kanüle 77 erstreckt sich ein Faserbündel 79 mit einer Mehrzahl an optischen Fasern 80. Typischerweise umfasst das Faserbündel 79 mindestens zwei optische Fasern 80, jedoch nicht mehr als 1000 optische Fasern 80. Die Zahl der optischen Fasern 80 des Faserbündels 79 wird dabei durch den in der Kanüle 77 zur Verfügung stehenden Raum beschränkt, der wiederum durch den Außendurchmesser der Kanüle 77 beschränkt ist. Sein Außendurchmesser beträgt im vorliegenden Ausführungsbeispiel 1,5 mm oder weniger, vorzugsweise 1,0 mm oder weniger und insbesondere 0,6 mm oder weniger. Am proximalen Ende der Kanüle 77 befindet sich ein in 12 nicht gezeigter Handgriff mit dem ein behandelnder Chirurg das Mikroinstrument führen kann.
  • Zwischen der Kollimationsoptik 75 der optischen Faser 15 des Objektzweiges 11 und dem proximalen Ende 81 des Faserbündels 79 befindet sich ein Scanner 83, der im vorliegenden Ausführungsbeispiel zwei ansteuerbare, um zueinander senkrechte Achsen drehbare Galvanometerspiegel 85, 87 umfasst. Dieser Scanner 83 kann insbesondere auch im Handgriff des Mikroinstrumentes angeordnet sein. Mit Hilfe der Galvanometerspiegel 85, 87 des Scanners 83 kann die Position des von der Kollimationsoptik 75 kollimierten Objektlichtstrahles 89 beim Auftreffen auf eine Fokussieroptik 91 in lateraler Richtung variiert werden. In Abhängigkeit von der Position, an welcher der kollimierte Objektlichtstrahl 89 auf die Fokussieroptik 91 auftrifft, wird er in eine andere optische Faser 80 des Faserbündels 79 eingekoppelt. Das von dem Beobachtungsobjekt 27 zurückgestreute Licht wird dann durch diese optische Faser zurück auf die Fokussieroptik 91 geleitet, die in dieser Richtung als Kollimationsoptik wirkt. Über die Galvanometerspiegel 85, 87 wird der kollimierte Objektlichtstrahl dann auf die Kollimationsoptik 75 gerichtet, die in dieser Richtung als Fokussieroptik wird, mit deren Hilfe der kollimierte Objektlichtstrahl auf das Ende der optischen Faser 15 fokussiert wird.
  • Durch geeignetes Ansteuern der beiden Galvanometerspiegel 85, 87 kann ein lateraler Bereich des Beobachtungsobjektes 27 gescannt werden. Die Verarbeitung der mittels der einzelnen optischen Fasern 80 des Faserbündels 79 gewonnenen Bilddaten entspricht der mit Bezug auf das erste Ausführungsbeispiel beschriebenen Verarbeitung. Da die Positionen und Orientierungen der distalen Enden 93 der optischen Fasern 80 des Faserbündels 79 relativ zueinander bekannt sind, kann aus den mit den einzelnen optischen Fasern 80 des Faserbündels 79 aufgenommenen A-Scans ein zweidimensionales oder dreidimensionales Bild aufgebaut werden, dessen laterale Ausdehnung der lateralen Ausdehnung der Anordnung der distalen Enden 93 der optischen Fasern im Faserbündel 79 entspricht. Im Unterschied zum ersten Ausführungsbeispiel werden im zweiten Ausführungsbeispiel beim Bewegen des distalen Endes des Mikroinstrumentes über das Beobachtungsobjekt 27 also nicht lediglich A-Scans aufgenommen, sondern B-Scans, wenn die distalen Enden 93 der optischen Fasern 80 im Faserbündel 79 entlang einer Linie angeordnet sind, oder ein dreidimensionales Bild, wenn die distalen Enden 93 der optischen Fasern 80 des Faserbündels7 9 flächig angeordnet sind.
  • Wie im ersten Ausführungsbeispiel wird auch im zweiten Ausführungsbeispiel die Position und, falls nötig, die Orientierung des distalen Endes 90 des Mikroinstrumentes beim Bewegen über den interessierenden Bereich des Beobachtungsobjektes 27 mit Hilfe eines Trackingsystems 2 und des Markers 2A, einer Inertialsensorik oder mit Hilfe der Bildsensoren 41A, 41B des Operationsmikroskops 39 erfasst, wie dies mit Bezug auf das erste Ausführungsbeispiel bereits erläutert worden ist. Mit Hilfe der Positionsdaten und ggf. der Orientierungsdaten können die unter Verwendung des Faserbündels 79 beim Bewegen des distalen Endes 90 des Mikroinstrumentes über den interessierenden Bereich des Beobachtungsobjektes 27 aufgenommenen Bilddaten zu einem großen zweidimensionalen oder dreidimensionalen Bild zusammengesetzt werden, d.h. einem Bild, dessen laterale Ausdehnung größer ist als die laterale Ausdehnung der Anordnung der distalen Enden der optischen Fasern 80 im Faserbündel 79.
  • Das Ermitteln der Positionsdaten des distalen Endes 90 des Mikroinstrumentes mittels eines Navigationssystems 2, einer Inertialsensorik oder mittels stereoskopische Bilder ist im zweiten Ausführungsbeispiel jedoch nicht notwendig. Auch ohne eine derartige Ermittlung der Positionsdaten können die aufgenommenen zweidimensionalen oder dreidimensionalen Bilder zu einem größeren zweidimensionalen oder dreidimensionalen Bild zusammengesetzt werden. Hierbei wird ausgenutzt, dass die Position der distalen Enden 93 der einzelnen optischen Fasern 80 im Faserbündel 79 relativ zueinander bekannt ist. Insbesondere eine flächige Anordnung der distalen Enden 93 der optischen Fasern im Faserbündel 79 führt dazu, dass beim Bewegen des distalen Endes 90 des Mikroinstrumentes über den interessierenden Bereich des Beobachtungsobjektes 27 die einzelnen optischen Fasern 80 nacheinander dieselben Bildbereiche überstreichen. Die Pfade der einzelnen optischen Fasern 80 des Faserbündels 79 während dieser Bewegung sind in 13 schematisch dargestellt. Wenn nun die Frequenz der Bildaufnahme so hoch ist, dass die in den jeweiligen während des Bewegens des distalen Endes über das Beobachtungsobjekt 27 aufgenommenen zweidimensionalen oder dreidimensionalen Bildern abgebildeten Objektbereiche einander Überschneiden, bildet das aktuell aufgenommene zweidimensionale bzw. dreidimensionale Bild jeweils auch ein Teil des im vorausgegangenen zweidimensionalen bzw. dreidimensionalen Bildes abgebildeten Objektbereiches ab. Durch Erkennen von Strukturen in dem sowohl im aktuellen Bild als auch im vorausgegangenen Bild abgebildeten Objektbereich und deren Position im jeweiligen Bild lassen sich die Positionen und, falls nötig, die Orientierungen der dargestellten Objektbereiche relativ zum distalen Ende des Faserbündels ermitteln. Auf der Basis der ermittelten Positionen und ggf. der ermittelten Orientierungen der dargestellten Objektbereiche relativ zum distalen Ende des Faserbündels können für jedes Bild Positionsdaten und ggf. Orientierungsdaten ermittelt werden, die dann dazu Verwendung finden können, die aufgenommenen zweidimensionalen oder dreidimensionalen Bilder zu einem größeren zweidimensionalen oder dreidimensionalen Bild zusammenzusetzen.
  • Zwar kann auf die beschrieben Weise ein zweidimensionales oder dreidimensionales Bild zusammengesetzt werden, jedoch kann ein auf diese Weise zusammengesetztes Bild nicht ohne weiteres positionsgetreu in ein präoperativ oder postoperativ gewonnenen Bild eingeblendet werden, wenn nicht die absolute Position des Bildes in einem bestimmten Koordinatensystem bekannt ist. Daher ist es vorteilhaft, wenn auch in dieser Ausgestaltung Positionsdaten erfasst werden, welche die jeweiligen Positionen des distalen Endes 90 des Mikroinstrumentes in Bezug auf ein gegebenes Koordinatensystem, das im vorliegenden Ausführungsbeispiel das Koordinatensystem des Operationsmikroskops 39 sein kann, ermittelt werden. Dann kann das aufgenommene Bild mittels geeigneter Koordinatentransformationen präoperativ oder postoperativ gewonnenen Bilddaten überlagert werden. Für ein bloßes Einblenden der mit dem OCT-System gewonnenen Bilddaten in ein mit dem Operationsmikroskop 39 gewonnenes stereoskopisches Bild ist die Positionserfassung in einem eingegebenen Koordinatensystem dagegen nicht unbedingt notwendig, wenn die in den mit dem OCT-System aufgenommenen Bildern erkannten Objektbereiche auch im stereoskopischen Bild des Operationsmikroskops erkannt werden können. Dann können zur Überlagerung des mit dem Operationsmikroskop gewonnenen Bildes mit dem mit dem OCT-System gewonnenen Bild die erkannten Strukturen zur Deckung gebracht werden, wodurch eine positionsrichtige Überlagerung möglich wird.
  • 14 zeigt eine Abwandlung des zweiten Ausführungsbeispiels. In dieser Abwandlung umfasst das Faserbündel 79 lediglich vier optische Fasern 80a-d. Von diesen vier optischen Fasern 80a-d ist zudem lediglich eine optische Faser 80a bis zum distalen Ende 90 des Mikroinstrumentes bzw. der Kanüle 77 geführt. Diese optische Faser 80a nimmt Bilddaten entlang ihrer Longitudinalrichtung auf und dient zur eigentlichen Aufnahme der Bilddaten, die zu dem zweidimensionalen oder dreidimensionalen Bild zusammengesetzt werden. Die übrigen drei optischen Fasern 80b - c enden bereits vor dem distalen Ende 90 des Mikroinstrumentes und erfassen die Bilddaten in ihrer Radialrichtung. Sie dienen in der in 14 gezeigten Ausführungsvariante lediglich zur Positionserfassung, nicht jedoch zum Erfassen der Bilddaten, aus denen das zweidimensionale oder dreidimensionale Bild gewonnen werden soll.
  • Mit Hilfe der in Radialrichtung und der in den Longitudinalrichtungen gewonnenen Bilddaten kann dann die Position und die Orientierung des distalen Endes 90 der Kanüle innerhalb des Beobachtungsobjektes 27, im vorliegenden Beispiel also innerhalb des Auges, ermittelt werden. Dabei kann ausgenutzt werden, dass das Mikroinstrument bzw. die Kanüle in der Regel durch einen Trokar in das Auge eingeführt wird, der nur eine Drehbewegung um den Trokarpunkt, also den Punkt des Augapfels, an den der Trokar in das Auge eingeführt ist, erlaubt, so dass sich das distale Ende des Mikroinstrumentes bzw. der Kanüle in guter Näherung auf einer Kugelfläche bewegt, solange es nicht entlang seiner Längsachse verschoben wird. Da die Form des Augapfels im Wesentlichen anhand präoperativer Daten ermittelt werden kann, kann aus den ermittelten Abständen der distalen Enden der vier optischen Fasern 80a-d zur Retina die Position des distalen Endes 90 des Mikroinstrumentes bzw. der Kanüle um Auge ermittelt werden. Mit Hilfe so ermittelter Positionen und ggf. Orientierungen können dann die mit Hilfe der optischen Faser 80a in longitudinaler Richtung erfassten Bilddaten zu einem zweidimensionalen oder dreidimensionalen Bild zusammengesetzt werden.
  • Eine Abwandlung der in 14 gezeigten Variante des zweiten Ausführungsbeispiels ist in 15 gezeigt. Statt vier optischer Fasern 80a-d umfasst das Faserbündel in der in 15 gezeigten Ausführungsvariante lediglich zwei optische Fasern 80a, 80b. Dem distalen Ende 93b der optischen Faser 80b ist ein drehbarer Spiegel 95 oder eine sonstige Scaneinrichtung zugeordnet, mit der die Richtung, aus welcher mit Hilfe der optischen Faser 80b Bilddaten gewonnen werden, variiert werden kann. Auf diese Weise können Bilddaten aus unterschiedlichen Richtungen gewonnen werden, die wie in der in 14 gezeigten Ausführungsvariante dazu verwendet werden können, anhand der präoperativ ermittelten Geometrie des Beobachtungsobjektes die Position des distalen Endes 90 des Mikroinstrumentes, das in der dargestellten Variante ein Vitrektom ist, und damit die Position des distalen Endes 93a der optischen Faser 80a im Beobachtungsobjekt zu ermitteln.
  • Die vorliegende Erfindung wurde anhand von Ausführungsbeispielen zu Erläuterungszwecken im Detail beschrieben. Ein Fachmann erkennt jedoch, dass er im Rahmen der vorliegenden Erfindung von dem beschriebenen Ausführungsbeispielen abweichen kann. Insbesondere braucht die Bildaufnahme nicht mit Hilfe eines OCT-Systems zu erfolgen, sondern sie kann auch mit jedem anderen faseroptischen scannenden System realisiert werden, beispielsweise mit einem faseroptischen konfokalen Laser-Scanning-Mikroskop. Außerdem braucht das Ermitteln der Positionsdaten nicht notwendigerweise mit dem Operationsmikroskop zu erfolgen. Es besteht auch die Möglichkeit, das Mikroinstrument mit einem Marker zu versehen, dessen Positionierung relativ zum distalen Ende der wenigstens eine optische Faser bekannt ist. Durch Nachverfolgen der Position (Tracken) des Markers mit einem Trackingsystem können jederzeit die Positionsdaten des Markers und damit die in Bezug auf die Positionsdaten des Markers bekannte Position des distalen Endes ermittelt werden. Relative Positionsdaten können darüber hinaus auch mit Beschleunigungssensoren erfasst werden, welche den Bewegungsverlauf des distalen Endes des Mikroinstrumentes erfassen. Mögliche weitere Verfahren, die im Rahmen der Erfindung zum Erfassen der Positionsdaten zum Einsatz kommen können, sind das Projizieren eines Musters beispielsweise im infraroten auf das Beobachtungsobjekt, das in dem aufgenommenen Bilddaten erkannt wird. Das projizierte Muster kann dann als Referenz zum Zusammensetzen des zweidimensionalen oder dreidimensionalen Bildes Verwendung finden. Wenn das Mikroinstrument durch einen Trokar in das Beobachtungsobjekt eingeführt wird, besteht zudem die Möglichkeit, die Position des Mikroinstrumentes in Bezug auf einen Referenzpunkt am Trokar zu ermitteln. Wenn die Position des Trokars, beispielsweise mittels eines externen Navigationssystems umfasst wird, ist auf diese Weise auch eine absolute Positionserfassung des distalen Endes des Mikroinstrumentes möglich. Im Fall einer Schwingung des distalen Endes des Mikroinstrumentes ist es möglich dessen Krümmung mit dessen Hilfe von Faser-Bragg-Gittern zu erfassen. Aus der Krümmung und der Lage der Faser-Bragg-Gitter am Mikroinstrument kann dann die Position des distalen Endes des Mikroinstrumentes relativ zum proximalen Ende ermittelt werden. Die mit dem Mikroinstrumentensystem gewonnenen zweidimensionalen oder dreidimensionalen Bilder können zudem statt wie in den Ausführungsbeispielen in andere Bilder eingeblendet zu werden auch als selbständige Bilddaten angezeigt werden. Um die Robustheit der Positionserfassung zu erhöhen, können außerdem mehrere Positionserfassungssysteme gleichzeitig zum Einsatz kommen. Die vorliegende Erfindung soll daher nicht durch die Ausführungsbeispiele beschränkt sein, sondern lediglich durch die beiliegenden Ansprüche.
  • Bezugszeichenliste
  • 1
    Mikroinstrument
    2
    Navigationssystem
    2A
    Marker
    3
    Kanüle
    5
    proximales Ende
    7
    Handgriff
    9
    Aufnahmevorrichtung
    10
    Hardware
    11
    Objektzweig
    12
    Detektor
    13
    Referenzzweig
    15
    optische Faser
    17
    optische Faser
    19
    Laser
    21
    distales Ende
    23
    distales Ende
    25
    Fleck
    27
    Beobachtungsobjekt
    28
    Koppler
    29
    gemeinsamer Faserabschnitt
    31
    Strahlteiler
    33
    Spiegel
    35
    distales Ende
    37
    Kollimationsoptik
    39
    Operationsmikroskop
    41
    A,B Bildsensor
    43
    Auswerteeinheit
    45
    Computer
    47
    Piezoelement
    49
    Piezoelement
    51
    optische Faser
    52
    distales Ende
    53
    schwingender Galvanometerspiegel
    55
    Objektlichtstrahl
    57
    proximales Ende
    59
    Schaft
    61
    Öffnung
    63
    hohles Röhrchen
    64
    reflektierendes Element
    65
    distales Ende
    66
    Schleife
    67
    Deflektor
    69
    transparenter Bereich
    70
    Innefläche
    71
    Führungsschiene
    73
    Außenwand
    75
    Kollimationsoptik
    77
    Mikroinstrument
    79
    Faserbündel
    80
    optische Faser
    81
    proximales Ende
    83
    Scanner
    85
    Galvanometerspiegel
    87
    Galvanometerspiegel
    89
    kollimierter Objektlichtstrahl
    90
    distales Ende
    91
    Fokussieroptik
    93
    distales Ende
    95
    drehbarer Spiegel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 10517760 B2 [0003]
    • GB 2551102 A [0004]
    • WO 2012/0126070 A1 [0005]
    • WO 2014/0175853 A1 [0005]
    • WO 2016/01689 A1 [0006]
    • US 2007/0239033 A1 [0006]
    • WO 02/083003 A1 [0006]
    • US 2013/0077048 A1 [0007]
    • WO 2012/012540 A2 [0008]
    • US 2015/0297404 A1 [0008]
    • US 10045882 B2 [0008]

Claims (20)

  1. Mikroinstrumentsystem zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes von einem Beobachtungsobjekt (27), umfassend: - ein Mikroinstrument (1) mit wenigstens einer integrierten optische Faser (15, 80), die ein dem Beobachtungsobjekt (27) zuzuwendendes distales Ende (23, 93) aufweist, - eine Aufnahmevorrichtung (9), der zum Aufnehmen von Bilddaten mit Hilfe der wenigstens einen optischen Faser (15, 80) Licht von dem Beobachtungsobjekt (27) zuführbar ist; - eine Ermittlungseinrichtung (2, 41a, 41b, 43), die dazu ausgestaltet ist, wenigstens Positionsdaten, welche die Positionen des distalen Endes (23, 93) der wenigstens einen optischen Faser (15, 80) zu den Aufnahmezeitpunkten der jeweiligen Bilddaten repräsentieren, zu ermitteln und den Bilddaten zuzuordnen; gekennzeichnet durch eine Datenverarbeitungseinrichtung (45), die - zum Empfang der Bilddaten mit der Aufnahmevorrichtung (9) verbundenen ist; - zum Empfang der Positionsdaten mit der Ermittlungseinrichtung (2, 41a, 41b, 43) verbundenen ist und - dazu ausgestaltet ist, die Bilddaten mit Hilfe der Positionsdaten zu einem zweidimensionalen oder dreidimensionalen Bild zusammenzusetzen.
  2. Mikroinstrumentsystem nach Anspruch 1, dadurch gekennzeichnet, dass - die Ermittlungseinrichtung (2, 41a, 41 b, 43) dazu ausgestaltet ist, auch Orientierungsdaten, welche die Orientierung des distalen Endes (23, 93) der wenigstens einen optischen Faser (15, 80) zu den Aufnahmezeitpunkten der jeweiligen Bilddaten repräsentieren, zu ermitteln und den Bilddaten zuzuordnen, - die Datenverarbeitungseinrichtung (45) auch zum Empfang der Orientierungsdaten mit der Ermittlungseinrichtung (2, 41a, 41b, 43) verbundenen ist und - die Datenverarbeitungseinrichtung (45) dazu ausgestaltet ist, die Bilddaten außer mit Hilfe der Positionsdaten auch mit Hilfe der Orientierungsdaten zu einem zweidimensionalen oder dreidimensionalen Bild zusammenzusetzen.
  3. Mikroinstrumentsystem nach Anspruch 1 oder Anspruch 2, gekennzeichnet durch eine Synchronisationseinrichtung, die dazu ausgestaltet ist, für das Zuordnen der Positionsdaten sowie ggf. der Orientierungsdaten zu den Bilddaten die Positionsdaten sowie ggf. der Orientierungsdaten einerseits und die Bilddaten andererseits miteinander zeitlich zu synchronisieren.
  4. Mikroinstrumentsystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass eine Mehrzahl an optischen Fasern (80) mit jeweils einem distalen, einem Beobachtungsobjekt zuzuwendenden Ende in das Mikroinstrument integriert ist.
  5. Mikroinstrumentsystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Mikroinstrument (1) eine Einrichtung zum Induzieren einer transversalen Schwingung (47, 49) des distalen Endes (23) der wenigstens einen optischen Faser (15) oder des distalen Endes (21) des Mikroinstrumentes (1) aufweist.
  6. Mikroinstrumentsystem nach Anspruch 5, dadurch gekennzeichnet, dass - die Einrichtung zum Induzieren einer Schwingung (47, 49) derart ausgestaltet ist, dass sie das Induzieren einer transversalen Schwingung mit einer einstellbaren Orientierung ermöglicht, und - die Datenverarbeitungseinrichtung (45) dazu ausgestaltet ist, aus zeitlich aufeinander folgenden Positionsdaten und ggf. Orientierungsdaten die um die Schwingung bereinigte Bewegungsrichtung des distalen Endes (21 der wenigstens einen optischen Faser (15) bzw. des distalen Endes (21) des Mikroinstumentes (1) zu ermitteln und ein Steuersignal zu generieren und an die Einrichtung zum Induzieren einer Schwingung (47, 49) auszugeben, das die Einrichtung zum Induzieren einer Schwingung (47, 49) derart steuert, dass die transversale Schwingung senkrecht zur ermittelten, um die Schwingung bereinigte Bewegungsrichtung orientiert ist.
  7. Mikroinstrumentsystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, - dass das Mikroinstrument (1) ein proximales Ende (57, 81), an dem sich das proximale Ende der wenigstens einen optischen Faser (15, 80) befindet, und ein distales Ende (21, 90), an dem sich das distale Ende (23, 93) der wenigstens einen optischen Faser (15, 80) befindet, umfasst - und dass am proximalen Ende (57, 81) oder am distalen Ende (21, 90) des Mikroinstruments (1) ein Scanner (53, 83) vorhanden ist, mit dem sich die Richtung des aus dem entsprechenden Ende der wenigstens eine optischen Faser (15, 80) austretenden und des in die optische Faser (15, 80) eintretenden Lichtes verändern lässt.
  8. Mikroinstrumentsystem nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass - in das Mikroinstrument eine Mehrzahl an optischen Fasern (80) integriert ist, - das Mikroinstrument einen Scanner (83) umfasst, der sich an den proximalen Enden der optischen Fasern (80) befindet und mit dem sich Licht sequentiell in die proximalen Enden der einzelnen optischen Fasern (80) einkoppeln und aus den einzelnen optischen Fasern (80) auskoppeln lässt.
  9. Computerimplementiertes Verfahren zum Generieren eines zweidimensionalen oder dreidimensionalen Bildes von einem Beobachtungsobjekt (27) mit Hilfe eines Mikroinstruments (1), in welches eine optische Faser (15, 80) mit einem dem Beobachtungsobjekt (27) zuzuwendenden distalen Ende (23, 93), integriert ist, welches die Schritte umfasst: - Empfangen oder Abrufen einer Mehrzahl von mit Hilfe der wenigstens einen optischen Faser (1, 80) gewonnenen Bilddaten; und - Empfangen oder Abrufen wenigstens von den Bilddaten zugeordneten Positionsdaten, welche die Positionen des distalen Endes (23, 93) der wenigstens einen optischen Faser (15, 80) bei der Gewinnung der jeweiligen Bilddaten repräsentieren, oder Ermitteln der Positionsdaten aus empfangen oder abgerufenen, den Bilddaten zugeordneten Daten, aus denen sich die Positionsdaten des distalen Endes (23, 93) der wenigstens einen optischen Faser (15, 80) bei der Gewinnung der jeweiligen Bilddaten ableiten lassen, gekennzeichnet durch - Zusammensetzten des zweidimensionalen oder dreidimensionalen Bildes aus den Bilddaten mit Hilfe der Positionsdaten.
  10. Computerimplementiertes Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass - auch den Bilddaten zugeordnete Orientierungsdaten, welche die Orientierung des distalen Endes (23, 93) der wenigstens einen optischen Faser (15, 80) bei der Gewinnung der jeweiligen Bilddaten repräsentieren, empfangen oder abgerufen werden, oder die Orientierungsdaten aus empfangen oder abgerufenen, den Bilddaten zugeordneten Daten, aus denen sich die Orientierungsdaten des distalen Endes (23, 93) der wenigstens einen optische Faser (15, 80) bei der Gewinnung der jeweiligen Bilddaten ableiten lassen, zu ermitteln. und - das Zusammensetzten der Bilddaten zu dem zweidimensionalen oder dreidimensionalen Bild außer mit Hilfe der Positionsdaten auch mit Hilfe der Orientierungsdaten erfolgt.
  11. Computerimplementiertes Verfahren nach Anspruch 9 oder Anspruch 10, dadurch gekennzeichnet, dass für das Zuordnen der Positionsdaten sowie ggf. der Orientierungsdaten zu den Bilddaten die Positionsdaten sowie ggf. die Orientierungsdaten einerseits und die Bilddaten andererseits miteinander zeitlich synchronisiert werden.
  12. Computerimplementiertes Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass außerdem Scandaten und/oder Schwingungsdaten erfasst oder abgerufen werden und beim Zusammensetzten des zweidimensionalen oder dreidimensionalen Bildes auch die Scandaten und/oder die Schwingungsdaten berücksichtigt werden.
  13. Computerimplementiertes Verfahren nach Anspruch 9 oder Anspruch 12, dadurch gekennzeichnet, dass Positionsdaten und ggf. die Orientierungsdaten aus gemeinsamen Bildinhalten aufgenommener Bilddaten gewonnen werden.
  14. Verfahren zum Aufnehmen eines zweidimensionalen oder dreidimensionalen Bildes von einem interessierenden Bereich eines Beobachtungsobjekts (27) unter Verwendung eines Mikroinstruments (1), in welches wenigstens eine optische Faser (15, 80) mit einem dem Beobachtungsobjekt (27) zuzuwendenden distalen Ende (23, 93) integriert ist, während das distale Ende (23, 93) der wenigsten einen optischen Faser (15, 80) mit Hilfe des Mikroinstruments (1) über den interessierenden Bereich des Beobachtungsobjekts (27) bewegt wird, wobei das Verfahren die Schritte umfasst: - Erfassen von Positionsdaten für eine Anzahl an Positionen des Pfades, entlang dessen das distale Ende (23, 93) der wenigstens einen optischen Faser (15, 80) während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts (27) bewegt wird, oder von Daten, aus denen sich Positionsdaten für eine Anzahl an Positionen des Pfades, entlang dessen das distale Ende (23, 93) der wenigstens einen optischen Faser (15, 80) während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts (27) bewegt wird, ableiten lassen, und Ermitteln der Positionsdaten aus diesen Daten; - Erfassen von Bilddaten an Positionen, für die Positionsdaten erfasst oder ermittelt worden sind und Zuordnen der Bilddaten zu den jeweiligen Positionsdaten; und - Zusammensetzten der Bilddaten mit Hilfe der Positionsdaten zu dem zweidimensionalen oder dreidimensionalen Bild.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass - Orientierungsdaten für die Anzahl an Positionen des Pfades, entlang dessen das distale Ende (23, 93) der wenigstens einen optischen Faser (15, 80) während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts (27) bewegt wird, erfasst werden, oder die Orientierungsdaten aus Daten, aus denen sich Orientierungsdaten für die Anzahl an Positionen des Pfades, entlang dessen das distale Ende (23, 93) der wenigstens einen optischen Faser (15, 80) während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts (27) bewegt wird, ableiten lassen, ermittelt werden: - die Bilddaten außer den jeweiligen Positionsdaten auch den jeweiligen Orientierungsdaten zugeordnet werden, und - das Zusammensetzten der Bilddaten zu dem zweidimensionalen oder dreidimensionalen Bild außer mit Hilfe der Positionsdaten auch mit Hilfe der Orientierungsdaten erfolgt.
  16. Verfahren nach Anspruch 14 oder Anspruch 15, dadurch gekennzeichnet, dass für das Zuordnen der Positionsdaten sowie ggf. der Orientierungsdaten zu den Bilddaten die Positionsdaten sowie ggf. der Orientierungsdaten einerseits und die Bilddaten andererseits miteinander zeitlich synchronisiert werden.
  17. Verfahren nach einem der Ansprüche 14 bis 16, in dem ein Mikroinstrument Verwendung findet, in das eine Mehrzahl an optischen Fasern (80) mit jeweils einem dem Beobachtungsobjekt zuzuwendenden distalen Ende (93) integriert ist und an den Positionen, für die Positionsdaten erfasst worden sind, mit jeder der optischen Fasern (80) Bilddaten gewonnen werden.
  18. Verfahren nach einem der Ansprüche 14 bis 17, in dem eine transversale Schwingung des wenigstens einen distalen Endes (23, 93) der wenigsten einen optischen Faser (15, 80) oder des distalen Endes (21) des Mikroinstrumentes (1) induziert wird und das Erfassen der Positionsdaten an unterschiedlichen Positionen des distalen Endes (23, 93) der wenigsten einen optischen Faser (15, 80) während einer Schwingungsperiode der induzierten Schwingung erfolgt.
  19. Verfahren nach Anspruch 18, in dem aus den Positionsdaten die aktuelle, um die Schwingung bereinigte Richtung des Pfades, entlang dessen das distale Ende (23, 93) der wenigsten einen optischen Faser (15, 80) oder das distale Ende (21) des Mikroinstrumentes (1) während des Bewegens über den interessierenden Bereich des Beobachtungsobjekts (27) bewegt wird, ermittelt wird und die transversale Schwingung des distalen Endes (23, 93) der wenigsten einen optischen Faser (15, 80) oder des distalen Endes (21) des Mikroinstruments (1) eine transversale Schwingung induziert wird, die senkrecht zu der ermittelten aktuellen, um die Schwingung bereinigte Richtung, verläuft.
  20. Verfahren nach einem der Ansprüche 14 bis 19, in dem während das distale Ende (23, 93) der wenigsten einen optischen Faser (15, 80) mit Hilfe des Mikroinstruments (1) über den interessierenden Bereich des Beobachtungsobjekts (27) bewegt wird, die Richtung des dem distalen Ende (23, 93) der wenigsten einen optischen Faser (15, 80) zur Aufnahme der Bilddaten zugeführten Lichtes verändert wird.
DE102021109825.4A 2021-04-19 2021-04-19 Mikroinstrumentsystem und Verfahren zum Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes Withdrawn DE102021109825A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102021109825.4A DE102021109825A1 (de) 2021-04-19 2021-04-19 Mikroinstrumentsystem und Verfahren zum Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes
PCT/EP2022/060131 WO2022223469A1 (de) 2021-04-19 2022-04-14 Mikroinstrumentsystem und verfahren zum faseroptisch scannenden aufnehmen eines bildes sowie computerimplementiertes verfahren zum generieren eines bildes
JP2023564031A JP2024513529A (ja) 2021-04-19 2022-04-14 光ファイバ走査によって画像を記録するためのマイクロ器具システム及び方法、並びに画像を生成するためのコンピュータ実装方法
CN202280029315.1A CN117255640A (zh) 2021-04-19 2022-04-14 用于通过光纤扫描记录图像的显微器械系统和方法、以及用于生成图像的计算机实施的方法
DE112022001532.2T DE112022001532A5 (de) 2021-04-19 2022-04-14 Mikroinstrumentsystem und Verfahren zum faseroptisch scannenden Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021109825.4A DE102021109825A1 (de) 2021-04-19 2021-04-19 Mikroinstrumentsystem und Verfahren zum Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes

Publications (1)

Publication Number Publication Date
DE102021109825A1 true DE102021109825A1 (de) 2022-10-20

Family

ID=81654560

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102021109825.4A Withdrawn DE102021109825A1 (de) 2021-04-19 2021-04-19 Mikroinstrumentsystem und Verfahren zum Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes
DE112022001532.2T Pending DE112022001532A5 (de) 2021-04-19 2022-04-14 Mikroinstrumentsystem und Verfahren zum faseroptisch scannenden Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112022001532.2T Pending DE112022001532A5 (de) 2021-04-19 2022-04-14 Mikroinstrumentsystem und Verfahren zum faseroptisch scannenden Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes

Country Status (4)

Country Link
JP (1) JP2024513529A (de)
CN (1) CN117255640A (de)
DE (2) DE102021109825A1 (de)
WO (1) WO2022223469A1 (de)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002083003A1 (en) 2001-04-11 2002-10-24 Clarke Dana S Tissue structure identification in advance of instrument
US20070239033A1 (en) 2006-03-17 2007-10-11 The General Hospital Corporation Arrangement, method and computer-accessible medium for identifying characteristics of at least a portion of a blood vessel contained within a tissue using spectral domain low coherence interferometry
WO2012012540A2 (en) 2010-07-20 2012-01-26 The Johns Hopkins University Surface tracking and motion compensating surgical tool system
WO2012126070A1 (en) 2011-03-24 2012-09-27 Katholieke Universiteit Leuven Automatic volumetric analysis and 3d registration of cross sectional oct images of a stent in a body vessel
US20130077048A1 (en) 2010-06-10 2013-03-28 Ram Srikanth Mirlay Integrated fiber optic ophthalmic intraocular surgical device with camera
WO2014175853A1 (en) 2013-03-12 2014-10-30 Lightlab Imaging, Inc. Vascular data processing and image registration systems, methods, and apparatuses
US20150297404A1 (en) 2014-04-18 2015-10-22 The Johns Hopkins University Fiber optic distal sensor controlled micro-manipulation systems and methods
WO2016001689A1 (en) 2014-07-04 2016-01-07 Idscan Biometrics Limited Portable identity document verification apparatus
GB2551102A (en) 2016-04-04 2017-12-13 Gerard Rohan Jayamanne Don System and method for image guided insertion of intraocular devices for control of Intraocular pressure and other intraocular diagnostic and interventional
US10045882B2 (en) 2009-10-30 2018-08-14 The Johns Hopkins University Surgical instrument and systems with integrated optical sensor
US10517760B2 (en) 2017-06-16 2019-12-31 Michael S. Berlin Methods and systems for OCT guided glaucoma surgery

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6294775B1 (en) * 1999-06-08 2001-09-25 University Of Washington Miniature image acquistion system using a scanning resonant waveguide
US7189961B2 (en) * 2005-02-23 2007-03-13 University Of Washington Scanning beam device with detector assembly
US7496259B2 (en) * 2007-01-02 2009-02-24 University Of Washington Endoscope with optical fiber and fiber optics system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002083003A1 (en) 2001-04-11 2002-10-24 Clarke Dana S Tissue structure identification in advance of instrument
US20070239033A1 (en) 2006-03-17 2007-10-11 The General Hospital Corporation Arrangement, method and computer-accessible medium for identifying characteristics of at least a portion of a blood vessel contained within a tissue using spectral domain low coherence interferometry
US10045882B2 (en) 2009-10-30 2018-08-14 The Johns Hopkins University Surgical instrument and systems with integrated optical sensor
US20130077048A1 (en) 2010-06-10 2013-03-28 Ram Srikanth Mirlay Integrated fiber optic ophthalmic intraocular surgical device with camera
WO2012012540A2 (en) 2010-07-20 2012-01-26 The Johns Hopkins University Surface tracking and motion compensating surgical tool system
WO2012126070A1 (en) 2011-03-24 2012-09-27 Katholieke Universiteit Leuven Automatic volumetric analysis and 3d registration of cross sectional oct images of a stent in a body vessel
WO2014175853A1 (en) 2013-03-12 2014-10-30 Lightlab Imaging, Inc. Vascular data processing and image registration systems, methods, and apparatuses
US20150297404A1 (en) 2014-04-18 2015-10-22 The Johns Hopkins University Fiber optic distal sensor controlled micro-manipulation systems and methods
WO2016001689A1 (en) 2014-07-04 2016-01-07 Idscan Biometrics Limited Portable identity document verification apparatus
GB2551102A (en) 2016-04-04 2017-12-13 Gerard Rohan Jayamanne Don System and method for image guided insertion of intraocular devices for control of Intraocular pressure and other intraocular diagnostic and interventional
US10517760B2 (en) 2017-06-16 2019-12-31 Michael S. Berlin Methods and systems for OCT guided glaucoma surgery

Also Published As

Publication number Publication date
WO2022223469A1 (de) 2022-10-27
JP2024513529A (ja) 2024-03-25
DE112022001532A5 (de) 2024-04-11
CN117255640A (zh) 2023-12-19

Similar Documents

Publication Publication Date Title
DE60038008T2 (de) Vorrichtung zur bilderzeugung von augengewebe
EP2107884B1 (de) Verfahren und gerät zur netzhautdiagnostik
EP2386244B1 (de) Ophthalmoskop
DE10038875B4 (de) Endoskopsystem
EP2482113B1 (de) Operationsmikroskop mit OCT-System
DE102008000225B3 (de) Fundusabtastvorrichtung
DE19930408A1 (de) OCT-gestütztes Chirurgiesystem
DE10041878A1 (de) Endoskopsystem
EP2398379A1 (de) Handgehaltene dentale kamera und verfahren zur optischen 3d-vermessung
WO2010017954A2 (de) Tiefenauflösende optische kohärenzreflektrometrie
EP0167877A2 (de) Gerät zur Darstellungflächenhafter Bereiche des menschlichen Auges
WO2010031540A2 (de) Augenchirurgie-messsystem
DE102011004253A1 (de) Bildaufnahmevorrichtung und Verfahren
DE10039182A1 (de) Endoskopsystem,optisches Abtastsystem und Polygonspiegel
DE102014010350A1 (de) Augenchirurgiesystem
EP2709577B1 (de) Gerät zur untersuchung oder bearbeitung eines humanen auges
EP2194840B1 (de) Vorrichtung und verfahren zur untersuchung des augenhintergrundes, insbesondere der photorezeptoren
WO2021219473A1 (de) Medizinisch optisches system, datenverarbeitungssystem, computerprogramm und nichtflüchtiges computerlesbares speichermedium
DE102021109825A1 (de) Mikroinstrumentsystem und Verfahren zum Aufnehmen eines Bildes sowie computerimplementiertes Verfahren zum Generieren eines Bildes
EP2281500B1 (de) Ophthalmologische Messvorichtung und Messverfahren
DE102008059876B4 (de) Ophthalmoskopie-System und Ophthalmoskopie-Verfahren
WO2004055570A2 (de) Kohärenzmikroskop
DE102022132628B3 (de) System zum Visualisieren von OCT-Signalen
DE19812297A1 (de) Verfahren und Vorrichtung zur Untersuchung einesAugenabschnittes
EP1969995A1 (de) Augenuntersuchungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R118 Application deemed withdrawn due to claim for domestic priority