DE102006017003A1 - Endoskop zur Tiefendatenakquisition - Google Patents

Endoskop zur Tiefendatenakquisition Download PDF

Info

Publication number
DE102006017003A1
DE102006017003A1 DE102006017003A DE102006017003A DE102006017003A1 DE 102006017003 A1 DE102006017003 A1 DE 102006017003A1 DE 102006017003 A DE102006017003 A DE 102006017003A DE 102006017003 A DE102006017003 A DE 102006017003A DE 102006017003 A1 DE102006017003 A1 DE 102006017003A1
Authority
DE
Germany
Prior art keywords
light
endoscope
depth data
evaluation unit
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006017003A
Other languages
English (en)
Inventor
Jochen Penne
Oliver Jesorsky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elektrobit Automotive GmbH
Original Assignee
Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Elektrobit Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Friedrich Alexander Univeritaet Erlangen Nuernberg FAU, Elektrobit Automotive GmbH filed Critical Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Priority to DE102006017003A priority Critical patent/DE102006017003A1/de
Publication of DE102006017003A1 publication Critical patent/DE102006017003A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Abstract

Die Erfindung betrifft ein Endoskop (100) zur Tiefendatenakquisition, bei dem ein gemäß Modulationsinformationen moduliertes Lichtsignal ausgesendet wird und ein empfangenes Lichtsignal unter Heranziehung der Modulationsinformationen ausgewertet wird, um die Tiefendaten zu berechnen.

Description

  • Technisches Gebiet der Erfindung
  • Die Erfindung betrifft ein Endoskop zur Tiefendatenakquisition. Genauer gesagt liegt die Erfindung auf dem Gebiet der 3D-Videoendoskopie, welche das Ziel hat, einem Betrachter eine dreidimensionale Ansicht eines Bereiches vor einer Spitze des Endoskops zu vermitteln.
  • Hintergrund der Erfindung
  • Endoskopische Untersuchungen bieten beispielsweise in der Medizin oder in der Industrie die Möglichkeit, solche Bereiche visuell zu inspizieren, die nur schwer zugänglich sind. Außerdem ist speziell im Bereich der Medizin ein offener Eingriff für den Patienten traumatisierender als ein minimal-invasiv durchgeführter und endoskopisch unterstützter Eingriff.
  • Herkömmliche monokulare Endoskope dienen der Akquise von Bilddaten, d.h. solchen Daten, die das Erzeugen zweidimensionaler Visualisierungen gestatten. Bei der Erfassung des vor der Spitze des Endoskops liegenden Bereichs gehen allerdings die räumlichen Informationen der betrachteten Szene verloren. Die Tiefen- oder räumliche Wahrnehmung ist jedoch für den Menschen ein wesentliches Kriterium zur Analyse und Bewertung einer Szene. Häufig sind daher räumliche Informationen für die aussagekräftige Bewertung einer Szene erforderlich. Tiefendaten sind in diesem Zusammenhang relative oder absolute Angaben über Abstände bzw. Entfernungen (z.B. von der Endoskopspitze), die beispielsweise ein direktes Vermessen der Szene ermöglichen. Aus vorliegenden Tiefendaten kann über eine Visualisierung dieser Informationen eine Tiefenwahrnehmung erzeugt werden.
  • Die endoskopische Akquisition von Tiefendaten etwa im medizinischen oder im industriellen Bereich würde daher eine deutliche Verbesserung der Anwendbarkeit bedeuten. Im industriellen Bereich werden Endoskope derzeit u.a. für die Inspektion von Hohlräumen eingesetzt. Hier stellt die Interpretation der von herkömmlichen Systemen gewonnenen 2D-Daten ein Problem dar, da eine Vermessung von Objekten zwar wünschenswert, aber mit derartigen Daten nicht möglich ist. Als weiteres Beispiel sei der Einsatz von Endoskopen bei chirurgischen Eingriffen genannt. Liegen räumliche Informationen vor, beispielsweise in Form einer geeigneten Darstellung auf einer Anzeigeeinrichtung, kann der Chirurg viel leichter den Abstand seines Werkzeuges (z.B. eines Skalpells oder einer Biopsie-Nadel) zu Organen und Gefäßen einschätzen. Neben einer Verkürzung der Operationszeit könnten auch unbeabsichtigte Verletzungen sicherer vermieden werden.
  • Der Mensch gewinnt einen räumlichen Eindruck von seiner Umgebung durch binokulares, stereoskopisches Sehen mittels zweier Augen und Verrechnung der Konvergenzstellung der Augen im Gehirn. Bei einkanaligen Optiken (etwa bei monokularen Endoskopen) kann der Betrachter für sich einen räumlichen Eindruck durch Erfahrung und die Bewertung von Helligkeitsunterschieden, Schattenbildungen und Überlagerungen von Objekten gewinnen.
  • Bei dem derzeitigen Stand der Technik auf dem Gebiet der Endoskopie ist die technische Rekonstruktion von Tiefeninformationen nur bei Vorliegen mehrerer Bilder und/oder unter erheblichem rechentechnischem Aufwand möglich. Beispielsweise werden bei manchen einkanaligen Optiken zwei stereoskopische Halbbilder durch eine Stablinsenoptik übertragen. Aufgrund der geringen Stereobasis entsteht allerdings nur ein geringer Raumeindruck. Bei zweikanaligen Optiken mit zwei Kameras werden zwei stereoskopische Halbbilder durch zwei verschiedene Einzeloptiken übertragen. Eine Drehung der Optik gegen die zugeordnete Kamera ist auf Grund der festen Adaptation beider Kameras an die Einzeloptiken nicht möglich. Bei einer Drehung müssen somit immer beide Kameras gedreht werden.
  • Aus der WO 96/02114 ist ein Endoskop mit zwei optischen Eingängen bekannt. Die beiden optischen Eingänge werden mittels Blenden und eines Prismas abwechselnd auf den optischen Eingang einer einzigen Kamera gelenkt. Die Video-Halbbilder werden dann auf einem nachgeschalteten Monitor zum Bild der Szene zusammengesetzt.
  • Bei den geschilderten Ansätzen werden jeweils zwei stereoskopische Halbbilder akquiriert. Es werden jedoch keine 3D-Daten berechnet, sondern die Erzeugung eines 3D- oder räumlichen Eindrucks aus den zwei 2D-Bildern wird dem menschlichen Gehirn überlassen. Durch die Emulation stereoskopischer Daten ist es für einen geübten Betrachter möglich, eine gewisse Tiefenwahrnehmung zu erlangen. Tatsächliche Tiefendaten werden aber nicht ermittelt, und derartige Endoskope sind darüber hinaus für ungeübte Benutzer nicht geeignet.
  • Bei der rechenbasierten 3D-Endoskopie werden 3D-Informationen aus einer Sequenz von 2D-Bildern extrahiert. Dazu werden Feature-Punkte über mehrere Bilder der Sequenz verfolgt. Bei Kenntnis extrinsischer und intrinsischer Kameraparameter können die 3D-Koordinaten des Feature-Punktes berechnet werden. Das Ergebnis ist eine 3D-Punktewolke der Feature-Punkte. Allerdings ist dieses Verfahren rechen- und damit zeitaufwändig. Eine Ermittlung von brauchbaren Tiefendaten in Echtzeit ist mit verfügbaren Berechnungskapazitäten im Allgemeinen nicht möglich. Auch hängt die Qualität und die Quantität der Tiefendaten von der Segmentierbarkeit einzelner Merkmale (Features) der beobachteten Szenerie ab. Insgesamt sind derartige Endoskopsysteme kompliziert aufgebaut und teuer.
  • Die Aufgabe der Erfindung besteht darin, ein Endoskop anzugeben, bei dem die Akquisition von Tiefendaten mit geringerem Rechenaufwand als beim Stand der Technik möglich ist, und mit dem Tiefendaten möglichst unabhängig von den Eigenschaften der Szene, etwa der Segmentierbarkeit ihrer Merkmale, gewonnen werden können.
  • Kurzdarstellung der Erfindung
  • Diese Aufgabe wird durch ein Endoskop zur Tiefendatenakquisition gelöst mit einer ersten Lichtquelle, einer Lichtleiteroptik, um Licht der Lichtquelle aufzunehmen und das aufgenommene Licht einem Lichtaustritt an einer Spitze des Endoskops zuzuleiten und um von einem Lichteintritt an der Spitze des Endoskops empfangenes Licht aufzunehmen und weiterzuleiten, sowie einem Sensor, um von der Lichtleiteroptik vom Lichteintritt weitergeleitetes Licht zu empfangen und ein das empfangene Licht repräsentierendes Sensorsignal zu erzeugen. Ein erfindungsgemäßes Endoskop umfasst weiterhin eine Modulationseinheit zur Ansteuerung der Lichtquelle gemäß Modulationsinformationen derart, dass die Lichtquelle ein moduliertes Lichtsignal aussendet, und eine mit dem Sensor verbundene Auswertungseinheit zur Auswertung des Sensorsignals unter Heranziehung der Modulationsinformationen, um Tiefendaten zu ermitteln. Der Begriff „Licht" ist nicht auf das sichtbare elektromagnetische Spektrum beschränkt, sondern umfasst auch z.B. den UV- oder Infrarotbereich.
  • Bei dem Endoskop kann es sich um ein starres oder ein nicht-starres Endoskop handeln. Die Lichtleiteroptik kann einen, zwei oder mehr Lichtleiter umfassen. Unter dem Begriff „Lichtleiter" werden hier Lichtleitfasern bzw. faseroptische Lichtleiter, lichtleitende Kanäle, beispielsweise Stablinsen, oder sonstige zur Licht(weiter)leitung geeignete Einrichtungen verstanden. Bei einem Endoskop könnte beispielsweise ein erster Lichtleiter in Form einer Lichtleitfaser vorgesehen sein, um das Licht der ersten Lichtquelle aufzunehmen und das aufgenommene Licht dem Lichtaustritt an der Spitze des Endoskops zuzuleiten. Ein zweiter Lichtleiter könnte beispielsweise in Form einer Stablinse vorgesehen sein, um von dem Lichteintritt an der Spitze des Endoskops empfangenes Licht aufzunehmen und weiterzuleiten.
  • Die Modulationsinformationen können die Amplitudenform (Rechteck, Sinus, etc.) oder die Frequenz des ausgesendeten Lichtsignals betreffen. Die Modulierung (oder Kodierung) kann aber auch etwa durch einzelne Lichtimpulse (sog. „Bursts") erfolgen.
  • Die Modulationsinformationen können in einer Steuerungseinheit im Endoskop erzeugt und der Modulations- und Auswertungseinheit übermittelt werden. Jedoch ist eine Kopplung von Modulations- und Auswertungseinheit nicht unbedingt erforderlich. Die Auswertungseinheit muss lediglich zur Auswertung der Modulationen, die von der Modulationseinheit dem ausgesendeten Licht aufgeprägt werden, ausgebildet sein. Dies kann auch durch die Auswahl der für den Aufbau der Auswertungseinheit verwendeten Komponenten und/oder durch eine einmalige Konfiguration bei der Herstellung des Endoskops oder der Auswertungseinheit erreicht werden.
  • Die Auswertungseinheit kann zur Berechnung der Tiefendaten aus der Laufzeit des empfangenen Lichtsignals ausgebildet sein. Aus der Laufzeit kann der zurückgelegte Weg und damit die Entfernung eines bestrahlten Punktes berechnet werden. Die Laufzeit des Lichts kann direkt oder indirekt gemessen werden. Andere Auswertungsstrategien, die nicht laufzeitorientiert sind, können jedoch auch zum Einsatz gelangen.
  • Die Auswertungseinheit kann ferner zur Erstellung einer Matrix von Tiefendaten für eine Anzahl von Bildpunkten ausgebildet sein, indem für jeden Bildpunkt der (absolute oder relative) Abstand eines bestrahlten Objektes von der Endoskopspitze berechnet wird.
  • Bei weiteren Ausführungsmöglichkeiten des erfindungsgemäßen Endoskops ist dieses zur zusätzlichen Akquisition von Bilddaten für eine (zusätzliche) herkömmliche 2D-Darstellung vor der Endoskopspitze befindlicher Objekte ausgebildet.
  • Bei weiteren Ausführungsformen eines erfindungsgemäßen Endoskops wird das Prinzip des „time-of-flight", z.B. mittels eines Photonenmischdetektors (PMD), bei der Auswertung herangezogen. Hierbei handelt es sich um ein inkohärentes Laufzeitmessungsverfahren. Die einem PMD-Videosensor nachgeschaltete Auswertungseinheit liefert pixelweise Tiefen- und Intensitätsinformationen. Mit einer typischen Frequenz von 15–50 Hertz kann eine Matrix von Intensitätsinformationen bzw. -werten (entsprechend etwa einem Grauwertbild) und eine Matrix von Distanzwerten erzeugt werden. Die Intensitätsinformationen betreffen etwa die reflektierte Amplitude oder Gesamtenergie. Die Auswertungseinheit kann ausgebildet sein, Bilddaten aus den Intensitätsinformationen zu erzeugen. Weitere Einheiten oder Vorrichtungen zur Akquisition von Bilddaten sind in diesem Fall nicht unbedingt erforderlich.
  • Bei weiteren Ausführungsmöglichkeiten ist eine Strahlteileroptik zur Teilung des von der Lichtleiteroptik vom Lichteintritt weitergeleiteten Lichtes in zwei Teil-Lichtstrahlen vorgesehen. Ein erster der Teil-Lichtstrahlen kann zur Generierung der Tiefendaten, der zweite zur Generierung der Bilddaten verwendet werden. Der zweite Teil-Lichtstrahl kann auch unmittelbar über ein optisches Element, etwa eine Linse, dem Benutzer ausgegeben werden.
  • Bei einer weiteren Ausgestaltung weist das Endoskop eine zweite Lichtquelle auf, die zur Ausstrahlung von Licht ausgebildet ist, welches zur Akquisition der Bilddaten geeignet ist. Die erste Lichtquelle kann beispielsweise Infrarotlicht emittieren, während die zweite Lichtquelle das normale Tageslichtspektrum oder Teile hiervon emittiert. Wird allerdings zur Akquise der Tiefendaten Licht mit einer Frequenz oder einem Frequenzspektrum (auch) im sichtbaren Bereich verwendet, ist eine zweite Lichtquelle nicht unbedingt erforderlich. Wird also beispielsweise rotes Licht im Bereich von 500 nm bis ca. 700 nm zur Tiefendatenakquise verwendet, kann dieses prinzipiell auch zur Bilddatenerstellung oder für die direkte optische Ausgabe verwendet werden. Ebenfalls ist es denkbar, statt zweier Lichtquellen nur eine Lichtquelle (z.B. mit einem besonders breiten Emissionsspektrum) zu verwenden.
  • Liegt eine zweite Lichtquelle vor, kann die Lichtleiteroptik ausgebildet sein, um Licht der zweiten Lichtquelle aufzunehmen und das aufgenommene Licht dem Lichtaustritt zuzuleiten. Ein gemeinsamer Lichtleiter für beide Lichtquellen verringert die Abmessungen des Endoskops und vereinfacht dessen Aufbau. Getrennte Lichtleiter könnten jedoch ebenfalls zum Einsatz gelangen.
  • Bei weiteren Ausgestaltungen der vorgenannten Ausführungsformen ist mindestens ein Lichtfilter zur Filterung des von der Lichtleiteroptik vom Lichteintritt weitergeleiteten Lichts vorgesehen. Hierdurch kann beispielsweise der für die weitere Verarbeitung gewünschte Spektralanteil herausgefiltert werden. Bei kombiniertem Einsatz zweier Filter mit einem Strahlteiler liegt dann etwa in dem einen Strahlengang der für die normale Bildgebung zu verwendende Strahlungsanteil und in dem anderen Strahlengang der für die Tiefendatenakquisition zu verwendende Strahlungsanteil vor. Auch ohne Strahlteiler ermöglicht ein Filter die Verwendung eines Endoskops mit zwei Lichtquellen oder einer einzigen Lichtquelle, ggf. mit breitem Emissionsspektrum, alternativ zur normalen Bildgebung (ohne Filter) oder zur Tiefendatenakquisition (sichtbares Licht wird aus dem Strahlengang ausgefiltert; statt einer Anzeige- oder Betrachtungseinheit ist dann eine Sensor- und Auswertungseinheit dem Strahlengang nachgeschaltet).
  • Ein erfindungsgemäßes Endoskop kann weiterhin über einen zweiten Sensor verfügen, um von der Lichtleiteroptik vom Lichteintritt weitergeleitetes Licht zu empfangen und ein entsprechendes zweites Sensorsignal zu erzeugen. Dieses Sensorsignal kann beispielsweise der Umsetzung von empfangenem sichtbaren oder nicht-sichtbaren Licht in ein Sensorsignal dienen, um daraus herkömmliche Bilddaten zu erzeugen. Der zweite Sensor kann fest angeordnet sein, etwa hinter einem von zwei durch einen Strahlteiler erzeugten Strahlengängen, oder er kann schwenkbar angebracht sein, um alternativ zu dem ersten Sensor in einen einzigen Strahlengang eingebracht zu werden. Mit einem derartigen Endoskop wäre bei einem vereinfachten Aufbau die sequentielle Akquisition von Tiefen- und Bilddaten möglich.
  • Die Auswertungseinheit kann zur Auswertung der Tiefendaten und/oder einer Kombination von Tiefen- und Bilddaten ausgebildet sein. Die Auswertung umfasst etwa die Analyse, Dateninterpretation und/oder die direkte Darstellung der Daten auf einer Anzeigeeinrichtung. Die Auswertung kann z. B. auch eine Abstandsvermessung oder Durchmesserbestimmung umfassen.
  • Bei weiteren Ausführungsformen eines erfindungsgemäßen Endoskops kann die Auswertungseinheit zur Fusion der Tiefendaten und der Bilddaten ausgebildet sein. Die Kombination von Tiefeninformationen mit (z.B. tageslichtspektralen) Bilddaten, also eine 2D-3D-Datenfusion, ermöglicht die Verknüpfung der Vorteile von 2D-Sensoren, nämlich hohe Auflösung bzw. feine Texturen, mit den Vorteilen der 3D-Sensoren (Erzeugung einer Tiefenwahrnehmung). Die Datenfusion erfordert u.U. die Anwendung von Bildregistrierungsverfahren, wobei Korrespondenzen zwischen den Tiefendaten und den Bildpunkten gefunden werden Für die Registrierung kann eine initiale Kalibrierung der Hardwarekonfiguration mit einem Kalibriermuster nötig sein.
  • Bei weiteren Ausgestaltungen der Erfindung ist die Auswertungseinheit zum Aufbau eines dreidimensionalen Modells der Umgebung der Endoskopspitze aus sequentiell gewonnenen Tiefen- und Bilddatensätzen ausgebildet. Hierbei werden die über einen Zeitraum gewonnenen Daten integriert (zum Beispiel Bilddaten, die aus verschiedenen Blickwinkeln gewonnen wurden).
  • Bei erfindungsgemäßen Endoskopen kann die Auswertungseinheit und/oder eine Anzeigeinheit zur Anzeige der Auswertungsdaten integriert angeordnet sein. Derartige Endoskope sind kompakt und erfordern keine weiteren Komponenten. Die Auswertungseinheit kann etwa als DSP („Digital Signal Processor") oder FPGA („Field Programmable Gate Array") vorliegen.
  • Alternativ hierzu kann die Auswertungseinheit und/oder Anzeigeeinheit abgesetzt angeordnet sein. In diesem Fall kann die Auswertungseinheit etwa auf einem separaten Rechner implementiert sein und die Anzeigeeinheit wird durch die Anzeigeeinrichtung des Rechners realisiert.
  • Ein erfindungsgemäßes Verfahren zur Akquisition von Tiefendaten mit einem Endoskop umfasst die folgenden Schritte:
    • – Ansteuern einer Lichtquelle des Endoskops gemäß Modulationsinformationen derart, dass die Lichtquelle ein moduliertes Lichtsignal aussendet,
    • – Aufnehmen des von der Lichtquelle ausgesendeten Lichtes durch eine Lichtleiteroptik,
    • – Leiten des aufgenommenen Lichts zu einem Lichtaustritt an einer Spitze des Endoskops,
    • - Empfangen von Licht an einem Lichteintritt an der Spitze des Endoskops,
    • – Erzeugen eines das empfangene Licht repräsentierenden Sensorsignals und
    • – Auswerten des Sensorsignals unter Heranziehung der Modulationsinformationen, um Tiefendaten zu berechnen.
  • Dem Schritt des Ansteuerns der Lichtquelle des Endoskops kann ein Schritt des Erzeugens der Modulationsinformationen vorgelagert sein. Bei einer Weiterbildung des Verfahrens werden die Tiefendaten aus der Laufzeit des empfangenen Lichtsignals berechnet. Bei einer Ausgestaltung werden zusätzlich Bilddaten zur Abbildung vor der Endoskopspitze befindlicher Objekte akquiriert.
  • Gemäß einem weiteren Aspekt der Erfindung kann ein Photonenmischdetektor (PMD) für ein Endoskop zur Tiefendatenakquisition verwendet werden.
  • Kurze Beschreibung der Figuren
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen weiter erläutert, die in den beigefügten Zeichnungen dargestellt sind. Es zeigt:
  • 1 eine schematische Darstellung eines ersten Ausführungsbeispiels eines erfindungsgemäßen Endoskops;
  • 2 eine schematische Darstellung eines zweiten Ausführungsbeispiels eines erfindungsgemäßen Endoskops;
  • 3 eine schematische Darstellung eines dritten Ausführungsbeispiels eines erfindungsgemäßen Endoskops;
  • 4 eine schematische Darstellung eines vierten Ausführungsbeispiels eines erfindungsgemäßen Endoskops;
  • 5 eine schematische Darstellung eines fünften Ausführungsbeispiels eines erfindungsgemäßen Endoskops; und
  • 6 in Form eines Flussdiagramms eine verfahrensmäßige Ausgestaltung der Erfindung.
  • Beschreibung bevorzugter Ausführungsbeispiele
  • In der nachfolgenden Beschreibung werden konkrete Ausführungsbeispiele der Erfindung beschrieben, um die Aspekte, Vorteile und Zweckmäßigkeiten der Erfindung weiter zu veranschaulichen. Dem Fachmann ist offenkundig, dass weitere Anwendungen der Erfindung möglich sind, die in fachmännischen Details von den hier geschilderten abweichen.
  • Funktionale Aspekte der Erfindung können in Form von Hardware, Firmware, Software oder einer Kombination hiervon implementiert werden. Die Funktion von in Soft- oder Firmware ausgeführten Aspekten ergibt sich mit der Ausführung auf einem entsprechend programmierten Prozessor, beispielsweise einem allgemein verwendbaren Prozessor oder einem für bestimmte Anwendungen optimierten Prozessor, z.B. einem ASIC („Application Specific Integrated Circuit") oder einem programmierten DSP („Digital Signal Processor"). Ein erfindungsgemäßes Verfahren kann durch die Ausführung eines in einem Speicher gespeicherten Programms auf einem Prozessor realisiert werden. Statt eines Programms können auch mehrere Programme vorliegen.
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der Erfindung werden gleiche und gleichwirkende Teile mit denselben Bezugsziffern bezeichnet.
  • 1 zeigt in schematischer Form ein erstes Ausführungsbeispiel eines erfindungsgemäßen Endoskops 100 mit einer Lichtquelle 102 und einer zwei Lichtleiter 104 und 106 umfassenden Lichtleiteroptik. Die Lichtleiter 104 und 106 befinden sich in einer gemeinsamen Hülle 107, die biegsam oder starr sein kann. Der Lichtleiter 104 ist als Lichtleitfaser ausgeführt, der Lichtleiter 106 als Stablinse. Andere Ausgestaltungen wären jedoch auch möglich. Weiterhin weist das Endoskop 100 einen Sensor 108 sowie eine im Ausführungsbeispiel kombinierte Steuer- und Modulationseinheit 110 und eine Auswertungseinheit 112 auf. Die Steuer- und Modulationseinheit 110 kann mit der Auswertungseinheit 112 gekoppelt sein, um dieser die Modulationsinformation als Referenz für die Auswertung bereitzustellen. Die Auswertungseinheit 110 kann auf dem Prinzip des „time-of-flight" basieren und der Sensor 108 beispielsweise eine Kamera des Typs PMD [vision]® 19K der Firma PMD Technologies GmbH, D-57076 Siegen, beinhalten.
  • Das von der Lichtquelle 102 ausgestrahlte Licht wird vom Lichtleiter 104 aufgenommen und einer Spitze des Endoskops 100 zugeführt, genauer gesagt dem Lichtaustritt 114. Der Lichtaustritt 114 kann eine Linse aufweisen, um den Bereich vor der Endoskopspitze in einer für den Einsatzzweck des Endoskops geeigneten Weise auszuleuchten. Das abgestrahlte Licht fällt beispielsweise auf ein Objekt 116 und wird von diesem in Abhängigkeit etwa von seiner Oberflächenbeschaffenheit bzw. Textur und seinem Reflexionsvermögen zurück in Richtung Endoskopspitze reflektiert.
  • Teile des reflektierten Lichts fallen auf den Lichteintritt 118, der durch eine lichtdurchlässige Scheibe oder Linse gebildet wird. An der Endoskopspitze können weiterhin Austrittsöffnungen für Instrumente oder Absaugkanäle ausgebildet sein. Außerdem können Einrichtungen zum Schutz von Lichtaustritt 114 und Lichteintritt 118 gegen Verschmutzungen vorliegen, wie beispielsweise Spülkanäle bzw. -düsen oder Abschirmvorrichtungen. Diese sind aus Gründen der Klarheit der Darstellung in 1 nicht eingezeichnet.
  • Das vom Lichteintritt 118 aufgenommene Licht wird durch den Lichtleiter 106 dem Sensor 108 zugeführt. Hier wird das optische Signal in ein elektrisches Signal umgewandelt. Dieses wird der Auswertungseinheit 112 übergeben.
  • Im Betrieb erzeugt die Steuereinheit 110 Modulationsinformationen. Die Steuereinheit 110 ist gleichzeitig als Modulationseinheit zur Ansteuerung der Lichtquelle 102 gemäß den Modulationsinformationen ausgebildet. Die so angesteuerte Lichtquelle 102 erzeugt ein entsprechend moduliertes Lichtsignal. Die Modulationsinformationen können eine bestimmte Form (Rechteck, Sinus, etc.) des ausgesendeten Lichtsignals vorgeben. Die Modulierung (oder Kodierung) kann aber auch etwa durch einzelne Lichtimpulse (im ,Burst Modus') erfolgen. Die Modulationsfrequenz kann etwa bei 20 Megahertz (MHz) liegen, kann aber auch andere Werte annehmen.
  • Das von dem Objekt 116 reflektierte Licht tritt mit einer durch den Abstand des Objekts 116 von der Endoskopspitze gegebenen Laufzeitverzögerung wieder in das Endoskop 100 ein. Dieses Licht weist immer noch die aufgeprägte Modulation bzw. Kodierung auf. Die Auswertungseinheit 112 erhält zusätzlich die Modulationsinformationen von der Steuereinheit 110 und ermittelt die Laufzeitverzögerung des reflektierten Lichtsignals (z.B. aus der Phasenverschiebung der Modulation des reflektierten Lichtsignals gegen die Modulationsinformationen).
  • Aus der ermittelten Laufzeit kann der Abstand des Objekts 116 von der Endoskopspitze (bzw. vom Lichtaustritt 114 und Lichteintritt 118) berechnet werden.
  • Die Auswertungseinheit führt die Berechnung für eine Matrix von Bildpunkten durch, zum Beispiel 160×120 Pixel. Für jeden Bildpunkt wird die Laufzeit des auf diesen Punkt treffenden, reflektierten Lichts und somit der zurückgelegte Weg bestimmt. Aus dem Weg kann wiederum der Abstand eines bestrahlten Objektes von der Endoskopspitze berechnet werden. Die Abstandsinformation für jeden Bildpunkt kann bei Kenntnis der intrinsischen Kameraparameter, die z.B. in einem Kalibrierschritt bestimmt werden können, in ein kartesisches (Welt-)Koordinatensystem überführt werden. Bezogen auf 1 liegen dann metrische Tiefeninformationen für diejenigen Bildpunkte des Sensors 108 vor, auf die von dem Objekt 116 reflektiertes Licht fällt.
  • Zusätzlich zu der die Tiefendaten repräsentierenden Matrix erstellt die Auswertungseinheit 112 eine Intensitätsmatrix, welche die Intensität des erfassten Lichts pro Bildpunkt angibt. Die entsprechenden Bilddaten können beispielsweise als Graustufenbild dargestellt werden und ergeben so eine 2D-Darstellung der vor der Endo skopspitze befindlichen Szene im Lichte des von der Lichtquelle 102 ausgestrahlten Lichtes.
  • Die Lichtquelle 102 strahlt Infrarot(IR)-Licht bei einer Wellenlänge von 870 nm aus. Die genaue Wellenlänge ist für die Funktionsweise der Erfindung jedoch ohne Belang. Es können ohne weiteres auch andere Wellenlängen oder Wellenlängenbereiche verwendet werden, bspw. im Bereich von 500 nm–1000 nm.
  • Bei der oben beschriebenen Betriebsweise liefert das Endoskop Tiefendaten mit einer Frequenz von etwa 15 Hz. Höhere oder niedrigere Erfassungsfrequenzen sind ebenfalls möglich. Bei dem in der 1 gezeigten Ausführungsbeispiel ist die Auswertungseinheit mit den weiteren Komponenten des Endoskops integriert. Andere Konfigurationen sind möglich und werden weiter unten vorgestellt. Die Auswertungseinheit bzw. -elektronik kann etwa als DSP („Digital Signal Processor") oder FPGA („Field Programmable Gate Array") vorliegen. Gleiches gilt auch für die Steuerungs- und Modulationseinheit 110.
  • 2 zeigt ein weiteres Ausführungsbeispiel eines erfindungsgemäßen Endoskops 200. Dieses unterscheidet sich von dem in der 1 gezeigten dadurch, dass eine weitere Lichtquelle 202 vorgesehen ist. Der Lichtleiter 104 nimmt das Licht beider Lichtquellen auf und leitet es dem Lichtaustritt 114 zu. In Richtung auf einen optischen Ausgang des Lichtleiterkanals 106 ist ein Strahlteiler 204 angebracht. Einer der beiden Teilstrahlen fällt wie bei dem Endoskop der 1 auf einen Sensor 108, dessen Signal in der mit Bezug auf 1 beschriebenen Weise verarbeitet wird (eine Steuerungseinheit ist in der 2 aus Gründen der Übersichtlichkeit nicht eingezeichnet). Der zweite Teilstrahl dient der optischen Wahrnehmung durch einen Beobachter 206.
  • Die Lichtquellen 102, 202 unterscheiden sich in dem hier geschilderten Beispiel in ihrem Emissionsspektrum. Die Quelle 102 sendet IR-Licht bei einer Wellenlänge von 870 nm aus. Die Lichtquelle 202 ist eine Tageslichtquelle, strahlt also sichtbares Licht aus. Die Szenerie vor der Endoskopspitze, in der Figur das Objekt 116, wird also sowohl mit IR-Licht als auch mit ,Tageslicht' bestrahlt. In den Strahlteiler 204 kann ein entsprechender Lichtfilter (nicht gezeigt) integriert sein. Dieser kann für den Strahlengang zum Sensor 108 die Tageslichtkomponente herausfiltern.
  • Auf den Sensor 108 fällt dann also nur das ursprünglich von der Lichtquelle 102 emittierte IR-Licht mit dem aufgeprägten Modulationssignal. Je nach Art der Quelle 202 ist eventuell auch von dieser eine geringe IR-Komponente enthalten. Dieser Anteil sollte so gering sein, dass das Signal-Rausch-Verhältnis des von den Sensor-Pixeln empfangenen Signals für die nachfolgende Auswertung ausreichend ist.
  • Die Unterscheidung zwischen moduliertem, d.h. von der Lichtquelle 102 ausgesandtem Licht, und nicht-moduliertem Licht kann auch auf Basis einer speziellen Hardware-Schaltung erfolgen. Im Rahmen der PMD-Technologie sind derartige Schaltungen unter dem Stichwort SBI bekannt („Suppression of Background Illumination").
  • In den Strahlengang zum Beobachter 206 muss nicht notwendigerweise ein Filter vorgesehen werden, da ein menschlicher Beobachter IR-Strahlung der Wellenlänge 870 nm nicht wahrnehmen kann. Nur wenn die Intensität der IR-Strahlung sehr hoch ist, kann ein Filter zur Vermeidung von Schäden am Auge des Betrachters sinnvoll sein.
  • Auch das in der 2 dargestellte Endoskop 200 ermöglicht die parallele Akquisition von Tiefendaten und von Bild-„Daten", wobei letztere in diesem Fall vom Betrachter direkt wahrgenommen werden. Die errechneten Tiefendaten können dem Betrachter 206 beispielsweise über einen abgesetzt vom Endoskop 200 vorhandenen Anzeigeschirm (nicht gezeigt) ausgegeben werden.
  • Die Emissionsspektren der verwendeten Lichtquellen müssen nicht vollständig disjunkt sein. So haben etwa Glüh- oder Halogenlampen kein sehr scharf definiertes Spektrum. Es sollte jedoch darauf geachtet werden, dass die für die Akquise der Bilddaten verwendete Lichtquelle nicht die für die Akquise der Tiefendaten verwendete Quelle überstrahlt.
  • Wird die Tiefendatenakquisition in einem Wellenlängenbereich durchgeführt, der innerhalb des sichtbaren Spektralbereiches liegt, beispielsweise im Bereich von 600 nm, kann auf eine zusätzliche Lichtquelle sowie auf einen oder mehrere Filter im Strahlteiler verzichtet werden. Der Beobachter nimmt die Szene vor der Endoskopspitze dann in intensiv rotem Licht wahr.
  • Die Tiefendatenakquisition kann auch in einem breiterem Wellenlängenbereich (z.B. komplettes Tageslichtspektrum) durchgeführt werden. Wird das modulierte Licht, bei entspechend hoher Modulationsfrequenz und Intensität) mit einer derartigen Licht quelle erzeugt, kann der Beobachter die Szene mit normaler Farbempfindung wahrnehmen.
  • 3 zeigt ein drittes Ausführungsbeispiel eines erfindungsgemäßen Endoskops 300. Gegenüber dem in der 2 dargestellten Endoskop 200 ist hier ein zusätzliches Sensorsystem 302 vorgesehen. Ein zusätzlicher Lichtfilter (nicht gezeigt) im Strahlteiler 204 filtert den für die Tiefendatenakquise verwendeten Strahlenanteil der Lichtquelle 102 heraus, so dass auf den Sensor 302 nur sichtbares Licht fällt.
  • Das Signal des Sensors 302 wird ebenfalls der Auswertungseinheit 112 zugeführt. Die Einheit 112 erstellt (neben der Tiefendaten-Matrix) eine Matrix mit Bildinformationen aus dem Sensorsignal, d.h. eine 2D-Darstellung der mit sichtbarem Licht ausgeleuchteten Szene vor der Endoskopspitze. Das Format der Matrix (die Auflösung) kann hierbei identisch mit demjenigen der Tiefendaten sein, oder es kann eine höhere Auflösung gewählt werden (beispielsweise ein Sensor mit 1600×1200 Pixeln).
  • Zusätzlich oder alternativ hierzu kann die Auswertungseinheit 112 zur gemeinsamen Verarbeitung der Daten der beiden Lichtkanäle ausgebildet sein. Hierbei wird dann eine 2D-3D-Datenfusion durchgeführt, bei der letztlich die Tiefendaten und die Bilddaten kombiniert werden. Die kombinierte Information, die im Vergleich zu einer isolierten Betrachtung beider Datensätze eine deutlich verbesserte Informationsbasis darstellt, kann dann z.B. für die Auswertung und Weiterverarbeitung oder die gemeinsame Repräsentation der Szene verwendet werden.
  • Es können Verfahren der Datenfusion angewendet werden, wie sie für die Kombination von Daten unterschiedlicher Sensoren beispielsweise aus dem Automotive-Bereich bekannt sind. Die Datenfusion erfordert u.U. die Anwendung von Bildregistrierungsverfahren, wobei Korrespondenzen zwischen den Tiefendaten und den Bildpunkten gefunden werden. Für die Registrierung kann eine initiale Kalibrierung der Hardwarekonfiguration mit einem Kalibriermuster nötig sein.
  • Zusätzlich zur Darstellung gewonnener Einzelbilder (Nur Tiefendaten – nur Bilddaten – 3D-Darstellung mit Bild- und Tiefendaten) können auch Bildsequenzen erstellt werden, die einen zeitlichen Ablauf wiedergeben, beispielsweise die Szene vor der Endoskopspitze aus veränderlichem Blickwinkel zeigen. Eine weitere Möglichkeit der Datenauswertung besteht in der Erstellung eines 3D-Modells der Umgebung der Endoskopspitze aus Datensätzen, die aus unterschiedlichen Blickwinkeln gewonnen wurden.
  • 4 zeigt ein weiteres Ausführungsbeispiel eines erfindungsgemäßen Endoskops 400. Gegenüber dem in 3 dargestellten Endoskop 300 ist hier eine Anzeigeeinheit 402 in das Endoskop integriert. Auf diese werden die Auswertungsergebnisse der Auswertungseinheit 112 ausgegeben. Das Display 402 kann fest mit dem Endoskop 400 verbunden sein, oder kann lösbar angebracht sein. Der Benutzer kann die mit dem Endoskop untersuchte Szene unmittelbar beobachten.
  • 5 zeigt ein fünftes Ausführungsbeispiel eines erfindungsgemäßen Endoskops. Hier ist ein Teil der Auswertungseinheit 112 abgesetzt angeordnet, etwa in Form von Software auf einem handelsüblichen PC 502. Gleiches kann auch für die Steuerungseinheit und ggf. die Modulationseinheit 110 gelten (nicht dargestellt, vgl. 1). Die Auswertungs-, Steuerungs- und Modulationseinheiten könnten auch nur auf einem PC oder einer programmierbaren Einrichtung vorhanden sein.
  • Als Anzeigeeinrichtung wird ein Monitor 402 des PCs 502 verwendet. Selbstverständlich kann eine weitere Anzeigeeinheit auch integriert mit den anderen Komponenten des Endoskops vorgesehen sein (nicht dargestellt). Zur Darstellung können 2D-, aber auch 3D-Displaytechnologien verwendet werden.
  • Die Auswertungseinheit bzw. -elektronik 112 kann eine Komponente zur Ausgabe von Daten auf ein Speichermedium 504 umfassen.
  • Je nach Bauart können vorhandene Endoskope in erfindungsgemäßer Weise aufgerüstet werden. Für die Einspeisung des Lichtsignals kann die in einem Endoskop bereits vorhandene Lichtleiteroptik verwendet werden. Für Endoskope, die über keine eigene Lichteinspeisung verfügen, muss allerdings ein zusätzlicher Kanal für die Übertragung des Lichtsignals hinzugefügt werden.
  • Für die Auswertung des Lichtsignals kann die Sensorvorrichtung an den optischen Ausgang eines herkömmlichen Endoskops angeschlossen werden, wobei die schon im Endoskop vorhandene Optik zur Signalübertragung von der Endoskopspitze zum optischen Ausgang benutzt wird. Die nachgeschaltete Auswertungselektronik sowie die Steuerungs- und ggf. Modulationseinheit kann dann extern in einem eigenen Gehäuse vorgesehen werden. Hierbei kann es sich etwa um einen PC handeln.
  • In 6 sind für ein weiteres Ausführungsbeispiel die Schritte einer verfahrensmäßigen Ausgestaltung 600 der Erfindung wiedergegeben. Ein Verfahren zur Akquisition von Tiefendaten mit einem Endoskop beginnt im Schritt 602 mit dem Erzeugen von Modulationsinformationen. In einem Schritt 604 wird eine Lichtquelle des Endoskops gemäß den Modulationsinformationen derart angesteuert, dass die Lichtquelle ein moduliertes Lichtsignal aussendet. In einem weiteren Schritt 606 wird das von der Lichtquelle ausgesendete Licht durch eine Lichtleiteroptik aufgenommen. Im nächsten Schritt 608 wird das aufgenommene Licht zu einem Lichtaustritt an einer Spitze des Endoskops geleitet. In Schritt 610 wird Licht an einem Lichteintritt an der Spitze des Endoskops empfangen. Es wird ein das empfangene Licht repräsentierende Sensorsignal erzeugt (Schritt 612). Schließlich wird in Schritt 614 das Sensorsignal unter Heranziehung der Modulationsinformationen ausgewertet, um Tiefendaten zu berechnen.
  • Die Erfindung ermöglicht die Akquisition von Tiefendaten in Echtzeit. In jedem Datenerfassungschritt liegen 3D-Daten vor, ohne dass eine nachgelagerte Bearbeitung („Post-Processing°) erforderlich ist. Typische Schrittfrequenzen liegen etwa bei 15–50 Hz. Das erfindungsgemäße Endoskop ermöglicht die Akquise von Tiefeninformation mit großer Geschwindigkeit und hoher Auflösung und daher auch die Vermittlung einer entsprechenden Tiefenwahrnehmung. Die Erfindung ist für alle Anwendungsgebiete herkömmlicher Endoskope vorteilhaft anwendbar, vom Bereich medizinischer Applikationen bis hin zur Industriesensorik.
  • Die Qualität und Quantität der mit einem erfindungsgemäßen Endoskop gewonnenen Tiefeninformation hängt nicht von der Segmentierbarkeit von Features der beobachteten Szenerie ab. Die Szene muss lediglich hinreichend gute Reflektionseigenschaften im Spektralbereich des kodierten Lichtsignals haben. Auch ermöglicht die Erfindung die parallele Akquisition von Bild- und Tiefendaten. Hieraus ergibt sich die Möglichkeit der Kombination von Bild- und Tiefendaten für die Auswertung und Darstellung.
  • Die hier dargestellten Ausführungsbeispiele stellen zweckmäßige Ausführungsformen der Erfindung dar. Im Rahmen des erfindungsgemäßen Grundgedankens sind durch fachmännisches Handeln weitere Ausführungsformen denkbar, ohne dass der Geltungsbereich der Erfindung verlassen wird, der allein durch die beigefügten Ansprüche beschrieben werden soll.

Claims (22)

  1. Endoskop (100, 200, 300, 400, 500) zur Tiefendatenakquisition mit – einer ersten Lichtquelle (102), – einer Lichtleiteroptik (104, 106), um Licht der ersten Lichtquelle aufzunehmen und das aufgenommene Licht einem Lichtaustritt (114) an einer Spitze des Endoskops zuzuleiten, und um von einem Lichteintritt (118) an der Spitze des Endoskops empfangenes Licht aufzunehmen und weiterzuleiten, – einem Sensor (108), um von der Lichtleiteroptik vom Lichteintritt weitergeleitetes Licht zu empfangen und ein das empfangene Licht repräsentierendes Sensorsignal zu erzeugen, gekennzeichnet durch – eine Modulationseinheit (110) zur Ansteuerung der ersten Lichtquelle gemäß Modulationsinformationen derart, dass die erste Lichtquelle ein moduliertes Lichtsignal aussendet, und – eine mit dem Sensor verbundene Auswertungseinheit (112) zur Auswertung des Sensorsignals unter Heranziehung der Modulationsinformationen, um Tiefendaten zu berechnen.
  2. Endoskop nach Anspruch 1, gekennzeichnet durch eine Steuerungseinheit (110) zur Erzeugung der Modulationsinformationen.
  3. Endoskop nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Auswertungseinheit (112) zur Berechnung der Tiefendaten aus der Laufzeit des empfangenen Lichtsignals ausgebildet ist.
  4. Endoskop nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswertungseinheit (112) zur Erstellung einer Matrix von Tiefendaten für eine Anzahl von Bildpunkten ausgebildet ist, indem für jeden Bildpunkt der Abstand eines bestrahlten Objektes (116) von der Endoskopspitze berechnet wird.
  5. Endoskop nach Anspruch 4, dadurch gekennzeichnet, dass das Endoskop (200, 300, 400, 500) zur zusätzlichen Akquisition von Bilddaten für vor der Endoskopspitze befindliche Objekte ausgebildet ist.
  6. Endoskop nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswertungseinheit (112) ausgebildet ist, um die Modulationsinformationen gemäß der Technologie der Photonenmischdetektoren bei der Auswertung heranzuziehen.
  7. Endoskop nach Anspruch 6, dadurch gekennzeichnet, dass die Auswertungseinheit ausgebildet ist, Bilddaten aus Intensitätsinformationen zu erzeugen, die gemäß der Technologie der Photonenmischdetektoren erzeugt werden.
  8. Endoskop nach einem der Ansprüche 5 bis 7, gekennzeichnet durch eine Strahlteileroptik (204) zur Teilung des von der Lichtleiteroptik vom Lichteintritt weitergeleiteten Lichtes in zwei Teil-Lichtstrahlen.
  9. Endoskop nach einem der Ansprüche 5 bis 8, gekennzeichnet durch eine zweite Lichtquelle (202), die zur Ausstrahlung von Licht ausgebildet ist, welches zur Akquisition der Bilddaten geeignet ist.
  10. Endoskop nach Anspruch 9, dadurch gekennzeichnet, dass die Lichtleiteroptik (104) ausgebildet ist, um Licht der zweiten Lichtquelle aufzunehmen und das aufgenommene Licht dem Lichtaustritt zuzuleiten.
  11. Endoskop nach Anspruch 9 oder 10, gekennzeichnet durch mindestens einen Lichtfilter zur Filterung des von der Lichtleiteroptik vom Lichteintritt weitergeleiteten Lichts.
  12. Endoskop nach einem der Ansprüche 5 bis 11, gekennzeichnet durch einen zweiten Sensor (302), um von der Lichtleiteroptik vom Lichteintritt weitergeleitetes Licht zu empfangen und ein entsprechendes zweites Sensorsignal zu erzeugen.
  13. Endoskop nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswertungseinheit (112) zur Auswertung der Tiefendaten und/oder der kombinierten Tiefen- und Bilddaten ausgebildet ist.
  14. Endoskop nach Anspruch 13, dadurch gekennzeichnet, dass die Auswertungseinheit (112) zur Fusion der Tiefendaten und der Bilddaten ausgebildet ist.
  15. Endoskop nach einem der Ansprüche 13 oder 14, dadurch gekennzeichnet, dass die Auswertungseinheit (112) zum Aufbau eines dreidimensionalen Modells der Umgebung der Endoskopspitze aus sequentiell gewonnenen Tiefen- und Bilddatensätzen ausgebildet ist.
  16. Endoskop nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswertungseinheit und/oder eine Anzeigeinheit (402) zur Anzeige der Auswertungsdaten integriert angeordnet sind.
  17. Endoskop nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass Auswertungseinheit und/oder Anzeigeeinheit abgesetzt angeordnet sind.
  18. Verfahren zur Akquisition von Tiefendaten mit einem Endoskop (100, 200, 300, 400, 500), mit den folgenden Schritten: – Ansteuern einer Lichtquelle (102) des Endoskops gemäß Modulationsinformationen derart, dass die Lichtquelle ein moduliertes Lichtsignal aussendet, – Aufnehmen des von der Lichtquelle ausgesendeten Lichtes durch eine Lichtleiteroptik (104, 106), – Leiten des aufgenommenen Lichts zu einem Lichtaustritt (114) an einer Spitze des Endoskops, – Empfangen von Licht an einem Lichteintritt (118) an der Spitze des Endoskops, – Erzeugen eines das empfangene Licht repräsentierenden Sensorsignals und – Auswerten des Sensorsignals unter Heranziehung der Modulationsinformationen, um Tiefendaten zu berechnen.
  19. Verfahren nach Anspruch 18, gekennzeichnet durch den Schritt des Erzeugens der Modulationsinformationen, der dem Ansteuern der Lichtquelle des Endoskops vorgelagert ist.
  20. Verfahren nach Anspruch 18 oder 19, dadurch gekennzeichnet, dass die Tiefendaten aus der Laufzeit des empfangenen Lichtsignals berechnet werden.
  21. Verfahren nach einem der Ansprüche 18 bis 20, gekennzeichnet durch den weiteren Schritt, dass zusätzlich Bilddaten zur Abbildung vor der Endoskopspitze befindlicher Objekte (116) akquiriert werden.
  22. Verwendung eines Photonenmischdetektors für ein Endoskop zur Tiefendatenakquisition.
DE102006017003A 2006-04-11 2006-04-11 Endoskop zur Tiefendatenakquisition Ceased DE102006017003A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006017003A DE102006017003A1 (de) 2006-04-11 2006-04-11 Endoskop zur Tiefendatenakquisition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006017003A DE102006017003A1 (de) 2006-04-11 2006-04-11 Endoskop zur Tiefendatenakquisition

Publications (1)

Publication Number Publication Date
DE102006017003A1 true DE102006017003A1 (de) 2007-10-18

Family

ID=38514504

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006017003A Ceased DE102006017003A1 (de) 2006-04-11 2006-04-11 Endoskop zur Tiefendatenakquisition

Country Status (1)

Country Link
DE (1) DE102006017003A1 (de)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2108306A1 (de) 2008-04-11 2009-10-14 Storz Endoskop Produktions GmbH Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE102008018637A1 (de) * 2008-04-11 2009-10-15 Storz Endoskop Produktions Gmbh Vorrichtung und Verfahren zur Fluoreszenz-Bildgebung
WO2009144653A2 (en) * 2008-05-30 2009-12-03 Koninklijke Philips Electronics N.V. Needle with integrated photon detector
WO2011055245A1 (en) * 2009-11-04 2011-05-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors
DE102011119608A1 (de) 2011-11-29 2013-05-29 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
EP2787736A2 (de) 2013-04-03 2014-10-08 Karl Storz GmbH & Co. KG Kamera zur Erfassung von optischen Eigenschaften und von Raumstruktureigenschaften
WO2014170194A1 (de) 2013-04-17 2014-10-23 Siemens Aktiengesellschaft Verfahren und vorrichtung zur stereoskopischen darstellung von bilddaten
EP1952752B1 (de) 2007-01-31 2016-07-27 Richard Wolf GmbH Endoskopsystem
DE102017105354A1 (de) 2017-03-14 2018-09-20 Karl Storz Se & Co. Kg Bildübermittlungseinrichtung und Bilddetektionseinrichtung
DE102014107342B4 (de) 2014-05-24 2023-05-04 Frank Braun Vorrichtung und Verfahren zur Erkennung von Krebstumoren und anderen Gewebeveränderungen
EP4201298A1 (de) 2021-12-21 2023-06-28 Karl Storz Imaging, Inc. Endoscope system with adaptive lighting control
CN117281451A (zh) * 2023-11-14 2023-12-26 杭州显微智能科技有限公司 一种3d内窥镜荧光摄像系统及其成像方法
DE102016117263B4 (de) 2016-09-14 2024-05-29 Carl Zeiss Meditec Ag Optisches Beobachtungsgerätsystem

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6563105B2 (en) * 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement
US6825455B1 (en) * 1996-09-05 2004-11-30 Rudolf Schwarte Method and apparatus for photomixing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6825455B1 (en) * 1996-09-05 2004-11-30 Rudolf Schwarte Method and apparatus for photomixing
US6563105B2 (en) * 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1952752B1 (de) 2007-01-31 2016-07-27 Richard Wolf GmbH Endoskopsystem
EP1952752B2 (de) 2007-01-31 2019-10-16 Richard Wolf GmbH Endoskopsystem
EP2108306A1 (de) 2008-04-11 2009-10-14 Storz Endoskop Produktions GmbH Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE102008018637A1 (de) * 2008-04-11 2009-10-15 Storz Endoskop Produktions Gmbh Vorrichtung und Verfahren zur Fluoreszenz-Bildgebung
DE102008018636A1 (de) 2008-04-11 2009-10-15 Storz Endoskop Produktions Gmbh Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE102008018636B4 (de) * 2008-04-11 2011-01-05 Storz Endoskop Produktions Gmbh Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
US8262559B2 (en) 2008-04-11 2012-09-11 Storz Endoskop Produktions Gmbh Apparatus and method for endoscopic 3D data collection
WO2009144653A2 (en) * 2008-05-30 2009-12-03 Koninklijke Philips Electronics N.V. Needle with integrated photon detector
WO2009144653A3 (en) * 2008-05-30 2010-03-11 Koninklijke Philips Electronics N.V. Needle with integrated photon detector
WO2011055245A1 (en) * 2009-11-04 2011-05-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors
CN102595998A (zh) * 2009-11-04 2012-07-18 皇家飞利浦电子股份有限公司 利用距离传感器的碰撞避免和检测
EP2599433A1 (de) 2011-11-29 2013-06-05 Karl Storz GmbH & Co. KG Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE102011119608B4 (de) 2011-11-29 2021-07-29 Karl Storz Se & Co. Kg Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE102011119608A1 (de) 2011-11-29 2013-05-29 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
US9119552B2 (en) 2011-11-29 2015-09-01 Karl Storz Gmbh & Co. Kg Apparatus and method for endoscopic 3D data collection
DE102013103333A1 (de) 2013-04-03 2014-10-09 Karl Storz Gmbh & Co. Kg Kamera zur Erfassung von optischen Eigenschaften und von Raumstruktureigenschaften
US9998678B2 (en) 2013-04-03 2018-06-12 Karl Storz Se & Co. Kg Camera for acquiring optical properties and spatial structure properties
EP2787736A3 (de) * 2013-04-03 2014-10-22 Karl Storz GmbH & Co. KG Kamera zur Erfassung von optischen Eigenschaften und von Raumstruktureigenschaften
EP2787736A2 (de) 2013-04-03 2014-10-08 Karl Storz GmbH & Co. KG Kamera zur Erfassung von optischen Eigenschaften und von Raumstruktureigenschaften
DE102013206911A1 (de) 2013-04-17 2014-10-23 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur stereoskopischen Darstellung von Bilddaten
WO2014170194A1 (de) 2013-04-17 2014-10-23 Siemens Aktiengesellschaft Verfahren und vorrichtung zur stereoskopischen darstellung von bilddaten
DE102014107342B4 (de) 2014-05-24 2023-05-04 Frank Braun Vorrichtung und Verfahren zur Erkennung von Krebstumoren und anderen Gewebeveränderungen
DE102016117263B4 (de) 2016-09-14 2024-05-29 Carl Zeiss Meditec Ag Optisches Beobachtungsgerätsystem
DE102017105354A1 (de) 2017-03-14 2018-09-20 Karl Storz Se & Co. Kg Bildübermittlungseinrichtung und Bilddetektionseinrichtung
US11102454B2 (en) 2017-03-14 2021-08-24 Karl Storz Se & Co Kg Image relaying device and image detecting device
EP4201298A1 (de) 2021-12-21 2023-06-28 Karl Storz Imaging, Inc. Endoscope system with adaptive lighting control
CN117281451A (zh) * 2023-11-14 2023-12-26 杭州显微智能科技有限公司 一种3d内窥镜荧光摄像系统及其成像方法

Similar Documents

Publication Publication Date Title
DE102006017003A1 (de) Endoskop zur Tiefendatenakquisition
EP2108306B1 (de) Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE102011119608B4 (de) Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
EP0871913B1 (de) Mikroskop
EP2903493B1 (de) Stereoskopisches abbildungssystem
DE102009015598B4 (de) Verfahren und Vorrichtung zum Auffinden von funktionstragenden Gewebearealen in einem Gewebebereich
EP3108282A2 (de) Erzeugen eines beobachtungsbildes eines objektbereichs
DE102009034994B3 (de) Verfahren zum Erzeugen einer Darstellung eines OCT-Datensatzes und ein OCT-System zur Durchführung desselben
EP1333306A2 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
EP0630487A1 (de) Verfahren und vorrichtung zur darstellung eines arbeitsbereiches in einer dreidimensionalen struktur.
DE102013206911A1 (de) Verfahren und Vorrichtung zur stereoskopischen Darstellung von Bilddaten
CH693619A5 (de) Bilddarstellende Einrichtung und Verfahren zum Bilddarstellen.
DE69519623T2 (de) Operations-mikroskope
DE102011087357A1 (de) Aktualisierung von präoperativ aufgenommenen 3D-Bilddaten eines Körpers
EP2551698B1 (de) Endoskopisches Instrument
DE69708334T2 (de) In situ optisches informationssystem
DE112019002013T5 (de) Bildverarbeitungsverfahren, Programm und Bildverarbeitungsvorrichtung
DE102016125524A1 (de) Elektronisches Mikroskop
DE102019132045A1 (de) Anzeigen medizinischer Bilder
DE102018110642B4 (de) Mikroskopieverfahren zur Abbildung eines Objekts sowie Mikroskop
DE102014108044A1 (de) Lichtmikroskop mit einer rotierbaren Scheibe und Verfahren zum Mikroskopieren mit diesem
DE102018110640B4 (de) Verfahren und Mikroskop zum Abbilden eines Objekts
DE102023203957B3 (de) Verfahren zur Stereobildverarbeitung und -darstellung und Gesamtsystem
WO2024100052A2 (de) Verfahren zum einblenden eines einblendbildes, computerimplementiertes verfahren zum optimieren des einblendens eines einblendbildes sowie computerprogramm, datenverarbeitungseinheit und optisches beobachtungssystem
DE102021121025A1 (de) Medizinische Bildgebungsvorrichtung, insbesondere Endoskop oder Exoskop

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: ELEKTROBIT AUTOMOTIVE GMBH, 91058 ERLANGEN, DE

8131 Rejection