AT526735A1 - Messsystem zur Erzeugung von 3D-Bildern - Google Patents

Messsystem zur Erzeugung von 3D-Bildern Download PDF

Info

Publication number
AT526735A1
AT526735A1 ATA50926/2022A AT509262022A AT526735A1 AT 526735 A1 AT526735 A1 AT 526735A1 AT 509262022 A AT509262022 A AT 509262022A AT 526735 A1 AT526735 A1 AT 526735A1
Authority
AT
Austria
Prior art keywords
image sensor
light
beam splitter
wavelength
recording
Prior art date
Application number
ATA50926/2022A
Other languages
English (en)
Inventor
Thierjung Stephan
Nowak Dipl -Ing Christoph
Original Assignee
Ait Austrian Institute Of Tech Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ait Austrian Institute Of Tech Gmbh filed Critical Ait Austrian Institute Of Tech Gmbh
Priority to ATA50926/2022A priority Critical patent/AT526735A1/de
Priority to PCT/AT2023/060417 priority patent/WO2024119206A1/de
Publication of AT526735A1 publication Critical patent/AT526735A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/102Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/149Beam splitting or combining systems operating by reflection only using crossed beamsplitting surfaces, e.g. cross-dichroic cubes or X-cubes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Messsystem (100) zur Erzeugung von 3D-Bildern umfassend - zumindest eine Beleuchtungseinheit (4) zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler (1), auf den die Beleuchtungseinheit (4) gerichtet ist und der dazu ausgebildet ist, das von der Beleuchtungseinheit (4) abgegebene Licht in zumindest zwei Lichtstrahlen unterschiedlicher Spektralkomponenten aufzuteilen und die Lichtstrahlen wellenlängenabhängig in zumindest zwei verschiedene Richtungen umzulenken, und - zumindest einen wellenlängensensitiven Bildsensor (2), insbesondere einen Videosensor, der für verschiedene Spektralkomponenten aufnahmefähig ist, - wobei der Bildsensor (2) und die Beleuchtungseinheit (4) auf den Strahlteiler (1) gerichtet sind und die Aufnahmerichtung des Bildsensors (2) der Richtung der Lichtabgabe der Beleuchtungseinheit (4) entspricht, - wobei das von der Beleuchtungseinheit (4) abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor (2) aufnahmefähig ist und für die der Strahlteiler (1) ausgelegt ist und - wobei der Bildsensor (2), der Strahlteiler (1) und die Beleuchtungseinheit (4) zueinander bewegungs- und drehungsstarr angeordnet sind.

Description

Aus dem Stand der Technik WO 2021016644 A1 sind ein Verfahren und eine Vorrichtung zur simultanen 3D-Oberflächenrekonstruktion von Hohlräumen bzw. Körperöffnungen oder dergleichen aus bis zu drei unterschiedlichen Blickrichtungen mit bis zu drei getrennt betriebenen Abbildungssystemen bekannt. Dabei ist jedes der Abbildungssysteme für sich in eine jeweilig gewünschte Messrichtung ausgerichtet oder mit Spiegeln zur Strahlumlenkung ausgestattet. Die von den einzelnen Abbildungssystemen aufgezeichneten Bildinformationen werden dabei in ein gemeinsames Koordinatensystem überführt und mittels einer Registrierung in Bezug auf ein Referenz-Abbild zu einem 3D-Abbild der aufgenommenen Oberfläche eines Hohlraums zusammengeführt.
Nachteilig bei einer derartigen Vorgehensweise ist der komplexe Hardware-Aufbau mit mehreren einzelnen Abbildungssystemen, der einerseits kostspielig und andererseits aufgrund seiner großen Anzahl an Einzelteilen schwer miniaturisierbar sowie anfällig für Beschädigungen ist. Weiters ist die Vorgehensweise zur Erstellung von dreidimensionalen Abbildern mit drei einzelnen Abbildungssystemen, deren Bildaufnahmen zeitlich synchronisiert werden müssen, aufwändig zu realisieren, da einerseits zunächst eine Kalibration jedes der einzelnen Abbildungssysteme für sich und anschließend eine Kalibration der einzelnen Abbildungssysteme zueinander durchgeführt werden muss, um die von den Abbildungssystemen aufgenommenen Messpunkte in einem gemeinsamen Messraum zu verorten. Die Erstellung eines dichten 3D-Abbilds wird auch dadurch verkompliziert, dass die Aufnahmen der einzelnen Abbildungssysteme räumlich zueinander versetzt angeordnet sind und sich so z.B. bei der Vermessung von Bohrungen Bereiche im gemeinsamen 3D-Abbild gegeben sind, die nicht mit 3D-Messwerten aufgefüllt werden können.
Aufgabe der Erfindung ist es daher, die zuvor genannten Nachteile zu beheben und ein Messsystem bzw. ein stereoskopisches Aufnahmesystem sowie ein Verfahren zur Verfügung zu stellen, mit denen die Erstellung dreidimensionaler Abbilder von Hohlräumen bei kompaktem, robustem Hardwareaufbau und gleichzeitig geringem Zeit- und Rechenaufwand realisierbar ist.
Der Einfachheit und Übersichtlichkeit halber ist im Folgenden unter einem Bildsensor bzw. einem Strahlteiler jeweils ein wellenlängensensitiver Bildsensor bzw. ein wellenlängenselektiver Strahlteiler zu verstehen bzw. gemeint. Die Begriffe „wellenlängenselektiv“ bzw. „wellenlängensensitiv“ beziehen sich im Folgend auf die Lichtwellenlänge, d.h. die Wellenlänge der elektromagnetischen Strahlung, die für das menschliche Auge sichtbar ist.
Der Bildsensor und die Beleuchtungseinheit eines erfindungsgemäßen Messsystems sind auf den Strahlteiler gerichtet, und die Aufnahmerichtung des Bildsensors entspricht der Richtung der Lichtabgabe der Beleuchtungseinheit.
Dies bedeutet, dass von der Beleuchtungseinheit eine Lichtmischung abgegeben wird, die auf den Strahlteiler einfällt und von diesem in getrennte Spektralkomponenten zerlegt und wellenlängenabhängig getrennt in unterschiedliche Richtungen umgelenkt wird und somit in verschiedenen Richtungen aus dem Strahlteiler austritt. Die Richtung in der diese Lichtmischung von der Beleuchtungseinheit abgegeben wird, entspricht der Aufnahmerichtung des Bildsensors.
Ein erfindungsgemäßes Messsystem zeichnet sich durch einen kompakten Aufbau aus Beleuchtungseinheit, wellenlängenselektivem Strahlteiler und wellenlängensensitivem Bildsensor aus. Je nach Ausgestaltung des wellenselektiven Strahlteilers sind bis zu drei unterschiedlichen Messperspektiven mit nur einem Messsystem realisierbar.
Die unterschiedlichen Messperspektiven werden vorteilhafterweise durch Strahlumlenkung mit Strahlteilung und eine spektrale Trennung des emittierten Lichts der Beleuchtungseinheit nach der Strahlumlenkung/Strahlteilung sowie durch eine entsprechend wellenlängenselektive Bildaufnahme des jeweils aus den bis zu drei unterschiedlichen Strahlengängen von der Oberfläche des Messobjekts reflektierten Lichts erzielt und stellen somit virtuelle Kamerapositionen dar. Es ist somit im Vergleich zum bekannten Stand der Technik vorteilhafterweise nicht erforderlich, einzelne Messsysteme für die unterschiedlichen gewünschten Messperspektiven vorzusehen.
Da die Beleuchtungseinheit, der Bildsensor und der Strahlteiler in den Spektralkomponenten aufeinander abgestimmt sind, ist es möglich, einerseits die Umlenkung bzw. Auftrennung durch den Strahlteiler voll zu nutzen und eine Umlenkung in möglichst viele verschiedene Richtungen, d.h. möglichst viele virtuelle Kamerapositionen zu erzielen. Andererseits ist es auf diese Weise auch möglich, alle Spektralkomponenten der Lichtmischung, die auf den Bildsensor einfällt, für die weitere Verarbeitung zu nutzen und durch die Wellenlängensensitivität des Bildsensors als einzelne Aufnahmen aus verschiedenen
virtuellen Kamerapositionen zu nutzen.
Das Problem der Zeitsynchronisierung entfällt bei einem derartigen Messsystem vorteilhafterweise, da die Aufnahmen des Bildsensors stets alle einzelnen Spektralkomponenten des auf den Bildsensor einfallenden Lichts, für die der Bildsensor aufnahmefähig ist und die die einzelnen Messperspektiven bzw. virtuellen Kamerapositionen darstellen, enthalten.
Ein derartiges projiziertes Lichtmuster kann vorteilhafterweise gezielt für den jeweils gewählten Stereokorrespondenzfindungs- und Kalibrieralgorithmus sowie für die jeweilige Messobjektoberfläche und Messobjekttopografie optimiert werden.
Um das Licht innerhalb der Beleuchtungseinheit oder zwischen der Beleuchtungseinheit und dem wellenlängenselektiven Strahlteiler über längere Distanzen mit gleichzeitig hoher Intensität übertragen zu können und gleichzeitig eine effiziente thermische Entkopplung zwischen dem Bildsensor und einem Beleuchtungsmittel der Beleuchtungseinheit zu erzielen,
kann vorgesehen sein, dass die Beleuchtungseinheit einen Lichtwellenleiter umfasst.
Um auf besonders einfache Weise sicherstellen zu können, dass das von der Beleuchtungseinheit abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor aufnahmefähig ist und für die der Strahlteiler ausgelegt ist, kann vorgesehen sein, dass die Beleuchtungseinheit zumindest zwei Beleuchtungsmittel, insbesondere Leuchtdioden oder Laserdioden, zur Abgabe von Licht mit zumindest zwei verschiedenen Spektralkomponenten und einen weiteren wellenlängenselektiven Strahlteiler umfasst, wobei die Beleuchtungsmittel derart auf den weiteren Strahlteiler gerichtet sind, dass durch den weiteren Strahlteiler eine Lichtmischung aus dem von den Beleuchtungsmitteln abgegebenen Licht erstellbar ist.
Durch den Einsatz eines weiteren wellenlängenselektiven Strahlteilers werden vorteilhafterweise diejenigen Spektralanteile, die zusätzlich von den Beleuchtungsmitteln abgegeben werden, für die jedoch der Bildsensor nicht aufnahmefähig ist, abgetrennt und nicht von der Beleuchtungseinheit an den Strahlteiler abgegeben.
Um Stereoskopie bei einem erfindungsgemäßen Messsystem nutzen zu können, kann
vorgesehen sein, dass das Messsystem einen weiteren wellenlängensensitiven Bildsensor,
Bildsensors im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors ist.
Mit zwei Bildsensoren und einem Lichtmusterprojektor in kalibrierter Anordnung können drei dreidimensionale Messanordnungen realisiert werden, die jeweils unter anderen Blickrichtungen auf die Messobjektoberfläche gerichtet sind. Werden nur die beiden Bildsensoren zueinander kalibriert und ist die Messobjektoberfläche ausreichend texturiert, So kann auf eine Lichtmusterprojektion verzichtet werden und eine multispektrale Beleuchtung reicht aus, um drei Blickrichtungen auf die Messobjektoberfläche zu erzielen.
Drei unterschiedliche Messperspektiven bzw. virtuelle Kamerapositionen können bei einem erfindungsgemäßen Messsystem vorteilhafterweise erzielt werden, wenn der Strahlteiler und/oder der weitere Strahlteiler ein kreuz-dichroitisches Prisma oder ein dichroitisches Prisma, insbesondere ein Philips-Prisma, ist.
Um bei einem Bildsensor mit Photozellen, der nur Helligkeitswerte wie Schwarz, Graustufen und Weiß erfassen kann, Farbinformationen erhalten zu können, kann vorgesehen sein, dass der Bildsensor und/oder der weitere Bildsensor Folgendes aufweist:
- eine Vielzahl von Sensorpixeln, die in Form eines Pixelrasters in Zeilen und Spalten angeordnet sind, und
- einen dem Pixelraster entsprechend und repetitiv angeordneten optischen Filterraster, insbesondere einen optischen Filterraster nach dem Bayer Pattern, der für zumindest zwei, insbesondere drei, verschiedene Wellenlängen aufnahmefähig ist.
Die einzelnen spektralen Empfindlichkeitsbereiche können vorteilhafterweise gezielt an die Eigenschaften der jeweiligen Messobjektoberfläche und/oder an die spektrale Charakteristik des eingesetzten Bildsensors angepasst werden.
Um bei einem erfindungsgemäßen Messsystem Bildsensoren nutzen zu können, die für die Spektralkomponenten rot, grün und blau aufnahmefähig sind, kann vorgesehen sein, dass der wellenlängenselektive Strahlteiler dazu ausgebildet ist, das von der Beleuchtungseinheit abgegebene Licht in drei Lichtstrahlen der Spektralkomponenten rot, grün und blau aufzuteilen und die Lichtstrahlen in drei verschiedene Richtungen umzulenken, wobei vorzugsweise die
Richtungen in einem Winkel von 90 Grad zueinander stehen.
Aufgabe der Erfindung ist es weiters, ein Aufnahmesystem zur Erstellung dreidimensionaler Abbilder von Hohlräumen bereitzustellen, das gleichzeitig kompakt und robust ist.
- wobei die Steuer- und Verarbeitungseinheit mit der Beleuchtungseinheit verbunden ist und mit dem zumindest einen Bildsensor und/oder dem weiteren Bildsensor in Datenkommunikation steht und dazu ausgebildet ist,
- die Beleuchtungseinheit zur Abgabe von Licht anzusteuern,
- den einzelnen mit dem Bildsensor erstellten Aufnahmen, die jeweils eine einzelne der Spektralkomponenten des auf den Bildsensor einfallenden Lichts, für die der Bildsensor aufnahmefähig ist, enthalten, jeweils eine separate virtuelle Kameraposition zuzuordnen,
- vorab im Rahmen einer extrinsischen Kamerakalibrierung die Position und Orientierung des Bildsensors und der Beleuchtungseinheit zueinander zu ermitteln, und im Rahmen einer intrinsischen Kamerakalibrierung intrinsische Kameraparameter des Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, zu ermitteln,
- vorab eine geometrische Kalibrierung der zumindest zwei virtuellen Kamerapositionen zueinander durchzuführen, indem für jede der zumindest zwei virtuellen Kamerapositionen jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, wobei diese Transformationen jeweils
- einer in einer der virtuellen Kamerapositionen ermittelten Position eines Messraumpunkts genau eine Position im Koordinatensystem zuordnet, und
- gegebenenfalls den jeweils in zumindest einer anderen virtuellen Kameraposition ermittelten Position desselben Messraumpunkts dieselbe Position im Koordinatensystem zuordnet, und - die in den einzelnen virtuellen Kamerapositionen erstellten Aufnahmen, unter Anwendung der ermittelten Transformationen in ein gemeinsames Koordinatensystem zu überführen und
derart zu einem dreidimensionalen Abbild zusammenzuführen.
Mit einem erfindungsgemäßen stereoskopischen Aufnahmesystem ist eine Erstellung von dreidimensionalen Abbildern von Hohlräumen bzw. eine 3D-Oberflächenrekonstuktion der Hohlraumwand aus zumindest zwei unterschiedlichen Messperspektiven mit nur einem einzelnen Messsystem möglich, wobei zusätzlich die bereits zuvor erwähnten Vorteile des
Messsystems genutzt werden können.
Die Hardware des stereoskopischen Aufnahmesystems kann daher vorteilhaft kompakt gehalten werden, sodass der Aufbau des stereoskopischen Aufnahmesystems insgesamt miniaturisiert werden kann. Mit einem solchen kompakten, miniaturisierten Aufbau ist es vorteilhaft möglich, handgeführte oder stationäre 3D-Rekonstruktionen und 3DModellierungen bzw. Vermessungen z.B. für allgemeine 3D-Messaufgaben in Hohlräumen
7732
Zahnkronen etc, vorzunehmen.
Aufgabe der Erfindung ist es weiters, ein Verfahren zur Verfügung zu stellen, mit dem mit einem erfindungsgemäßen stereoskopischen Aufnahmesystem dreidimensionale Abbilder von Hohlräumen erstellt werden können und das gleichzeitig rechnerisch einfach und rasch abläuft.
Die Erfindung löst diese Aufgabe mit einem Verfahren zur Erstellung dreidimensionaler Abbilder von Hohlräumen gemäß Patentanspruch 10. Erfindungsgemäß ist dabei vorgesehen, dass das stereoskopische Aufnahmesystem - eine Beleuchtungseinheit zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler, auf den die Beleuchtungseinheit gerichtet ist, und - zumindest einen wellenlängensensitiven Bildsensor, insbesondere einen Videosensor, der für verschiedene Spektralkomponenten aufnahmefähig ist, umfasst, - wobei der Bildsensor und die Beleuchtungseinheit auf den Strahlteiler gerichtet sind und die Aufnahmerichtung des Bildsensors der Richtung der Lichtabgabe der Beleuchtungseinheit entspricht, - wobei das von der Beleuchtungseinheit abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor aufnahmefähig ist und für die der Strahlteiler ausgelegt ist und - wobei der Bildsensor, der Strahlteiler und die Beleuchtungseinheit zueinander bewegungs- und drehungsstarr angeordnet sind, - wobei vorab im Rahmen einer extrinsischen Kamerakalibrierung die Position und Orientierung des Bildsensors und der Beleuchtungseinheit zueinander ermittelt werden, und im Rahmen einer intrinsischen Kamerakalibrierung intrinsische Kameraparameter des Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt werden, - wobei von der Beleuchtungseinheit multispektrales Licht auf den Strahlteiler abgegeben wird und vom Strahlteiler in zumindest zwei Lichtstrahlen unterschiedlicher Spektralkomponenten aufgeteilt wird, wobei die Lichtstrahlen wellenlängenabhängig in zumindest zwei verschiedene Richtungen umgelenkt werden,
- wobei den jeweiligen Aufnahmen der zumindest zwei einzelnen Spektralkomponenten des einfallenden Lichts jeweils eine separate virtuelle Kameraposition zugeordnet wird,
- wobei vorab eine geometrische Kalibrierung der zumindest zwei virtuellen Kamerapositionen zueinander durchgeführt wird, indem für jede der zumindest zwei virtuellen Kamerapositionen jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, wobei diese Transformationen jeweils
- einer in einer der virtuellen Kamerapositionen ermittelten Position eines Messraumpunkts genau eine Position im Koordinatensystem zuordnet, und
- einer jeweils in zumindest einer anderen virtuellen Kameraposition ermittelten Position desselben Messraumpunkts dieselbe Position im Koordinatensystem zuordnet, und
- die in den einzelnen virtuellen Kamerapositionen erstellten Aufnahmen unter Anwendung der ermittelten Transformationen in ein gemeinsames Koordinatensystem überführt und derart zu
einem dreidimensionalen Abbild zusammengeführt werden.
Zusätzlich zu den bereits zuvor erwähnten Vorteilen des stereoskopischen Aufnahmesystems bzw. des Messsystems, die bei einem erfindungsgemäßen Verfahren auch genutzt werden können, ist eine Registrierung bei einem derartigen Verfahren vorteilhafterweise nicht erforderlich, da die Zusammenführung der einzelnen 3D-Punktewolken bzw. die Messpunkte der in den einzelnen virtuellen Kamerapositionen erstellten Aufnahmen in ein gemeinsames dreidimensionales Koordinatensystem automatisch durch die Kalibrierung der zumindest zwei
virtuellen Kamerapositionen zueinander gegeben ist.
Um bei einem erfindungsgemäßen Verfahren möglichst viele Messperspektiven bzw. virtuelle Kamerapositionen nutzen zu können, kann vorgesehen sein,
- dass das Messsystem einen weiteren wellenlängensensitiven Bildsensor, insbesondere einen weiteren Videosensor, umfasst, wobei die Aufnahmerichtung des weiteren Bildsensors im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors ist,
- dass im Rahmen der extrinsischen Kamerakalibrierung die Position und Orientierung des weiteren Bildsensors und der Beleuchtungseinheit zueinander, sowie die Position und Orientierung des Bildsensors und des weiteren Bildsensors zueinander ermittelt werden, und - dass im Rahmen der intrinsischen Kamerakalibrierung intrinsische Kameraparameter des weiteren Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt
werden.
unabhängige 3D-Datenquellen bereitstehen.
Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und den beiliegenden Zeichnungen.
Die Erfindung ist im Folgenden anhand von besonders vorteilhaften, aber nicht einschränkend zu verstehenden Ausführungsbeispielen in den Zeichnungen schematisch dargestellt und wird unter Bezugnahme auf die Zeichnungen beispielhaft beschrieben.
Im Folgenden zeigen schematisch:
Fig. 1 ein Ausführungsbeispiel eines erfindungsgemäßen Messsystems,
Fig. 2 und Fig. 3 Ausführungsbeispiele von wellenlängenselektiven Strahlteilern,
Fig. 4 ein Ausführungsbeispiel eines optischen Filterrasters eines wellenlängensensitiven Bildsensors.
Fig. 1 zeigt schematisch den Aufbau eines erfindungsgemäßen Messsystems 100 wie es in einem erfindungsgemäßen stereoskopischen Aufnahmesystem zur Erstellung
dreidimensionaler Abbilder von Hohlräumen genutzt werden kann.
Ein erfindungsgemäßes Messsystem 100 kann für eine zeitsynchrone, aus bis zu drei unabhängigen Messperspektiven bzw. virtuellen Kamerapositionen erfolgende 3DSzenenrekonstruktion genutzt werden. Die bis zu drei unterschiedlichen Messperspektiven bzw. virtuellen Kamerapositionen werden multispektralbasiert mit nur einem einzigen Messsystem 100 mit entsprechend multispektraler Beleuchtung, lichtwellenlängenselektiver bzw. lichtwellenlängenabhängiger Strahlumlenkung und lichtwellenlängensensitive Bildaufnahme realisiert.
Das Messsystem 100 in Fig. 1 umfasst für die wellenlängenselektive Strahlumlenkung einen wellenlängenselektiven Strahlteiler 1. Im Ausführungsbeispiel in Fig. 1 wird die lichtwellenlängenselektive Strahlumlenkung mit einem kreuz-dichroitischen (engl. cross dichroic) Prisma (siehe Fig. 2a) realisiert, das für die Wellenlängenbereiche rot R, grün G und
blau B selektiv wirkt und weißes Licht W in diese Spektralkomponenten aufspaltet bzw. diese Spektralkomponenten zu weißem Licht W vereint.
Ein derartiges kreuz-dichroitisches Prisma ist beispielsweise beschrieben in US 6407868 B1. Das kreuz-dichroitische Prisma teilt Licht, das auf das Prisma abgegeben wird, in drei Lichtstrahlen der Spektralkomponenten rot R, grün G und blau B auf und lenkt diese drei Lichtstrahlen in drei verschiedene Richtungen um, die in einem Winkel von 90 Grad zueinander stehen. Auf diese Weise ergeben sich drei zueinander orthogonal ausgerichtete, RGBlichtwellenlängenabhängige Blickrichtungen.
Alternativ zu einem kreuz-dichroitischen Prisma kann ein dichroitisches Prisma (siehe Fig. 2b), wie es beispielsweise von der Firma Philips entwickelt wurde und daher als Philips-Prisma
bekannt ist und nun z.B. von w &t, zuletzt aufgerufen am 30.11.2022, hergestellt
wird, eingesetzt werden. Ein derartiges Prisma ist beispielsweise beschrieben in US 3202039
A und unter hits ÄAvwwW.Toctek come (oc, zuletzt aufgerufen am 29.11.2022, erhältlich. Das dichroitische Prisma teilt Licht, das auf das Prisma abgegeben wird, ebenfalls in drei Lichtstrahlen der Spektralkomponenten rot R, grün G und blau B auf und lenkt diese drei Lichtstrahlen in drei verschiedene Richtungen um. Die Richtungen stehen zueinander jedoch nicht in einem Winkel von 90 Grad, sondern in einem Winkel von größer
bzw. kleiner als 90 Grad.
Ein Lichtstrahl in Fig. 2b tritt in ein erstes Prisma P+ ein und die blaue Spektralkomponente B wird vom dichroitischen Filter F+ reflektiert. Längere Wellenlängen passieren und treten in ein zweites Prisma P;2 ein und werden durch einen zweiten Filter F2 geteilt. Der Filter F2 reflektiert die rote Spektralkomponente R. Die grüne Spektralkomponente G passiert die beiden Prismen P+ı1 und P; und tritt gegenüber der Eintrittsstelle des Lichts W wieder aus. Zwischen den Prismen P+; und P>; ist ein Luftspalt angeordnet und die Winkel der Prismen P+ und P; sind so gewählt, dass die blaue Spektralkomponente B und die rote Spektralkomponente R mittels
Totalreflexion im Prisma umgelenkt werden.
Kreuz-dichroitische und dichroitische Prismen können auch genutzt werden, um Licht unterschiedlicher Wellenlängen zu kombinieren.
Bei der wellenlängensensitiven Bildaufnahme bestehen bei einem erfindungsgemäßen
Messsystem 100 verschiedene Möglichkeiten, Stereoskopie zu nutzen. Dabei können folgende Komponenten genutzt werden:
- ein wellenlängensensitiver Bildsensor 2 und ein Lichtmusterprojektor 3, wobei der Bildsensor 2 z.B. in einer Videokamera 20 integriert sein kann und somit ein Videokamera/Projektor-3DMesssystem bildet, wie sie vorteilhafterweise für schwach texturierte oder nicht texturierte Messobjektoberflächen besonders gut geeignet sind,
- zwei wellenlängensensitive Bildsensoren 2 und eine unstrukturierte Szenenbeleuchtung, wobei die Bildsensoren 2 z.B. jeweils oder gemeinsam in einer Videokamera 20 integriert sein können. Ein derartiges Messsystem 100 ist beispielsweise für stark texturierte Messobjektoberflächen besonders günstig, oder
- zwei wellenlängensensitive Bildsensoren 2 und ein Lichtmusterprojektor 3, wobei die Bildsensoren 2 z.B. jeweils oder gemeinsam in einer Videokamera 20 integriert sein können und somit ein Stereokamera/Projektor-3D-Messsystem bilden, was für beispielsweise schwach texturierte oder nicht texturierte Messobjektoberflächen besonders vorteilhaft ist.
So ist es bei einem erfindungsgemäßen Messsystem 100 möglich, zwei Bildsensoren 2 zu nutzen, sodass mit Hilfe von Stereoskopie bzw. aus verschiedenen Blickwinkeln aufgenommenen Abbildern ein räumlicher Eindruck der aufgenommenen Bereiche erzielt werden kann. Alternativ können, wie zuvor erwähnt, ein Bildsensor 2 und ein
Lichtmusterprojektor 3 genutzt werden, was im Ausführungsbeispiel in Fig. 1 realisiert ist.
Das vom Lichtmusterprojektor 3 oder der Szenenbeleuchtung emittierte Licht enthält dabei jeweils jene Spektralkomponenten, für die der jeweilig eingesetzte wellenlängenselektive Strahlteiler 1 ausgelegt ist und für die der jeweilige wellenlängensensitive Bildsensor 2 sensitiv ist.
Im Ausführungsbeispiel in Fig. 1 werden die drei Messperspektiven in drei getrennten Spektralbereichen bzw. die drei virtuellen Kamerapositionen 61, 62, 63 mit nur einem einzigen Messsystem 100 umfassend einen Lichtmusterprojektor 3, einen Bildsensor 2 und einen wellenlängenselektiven Strahlteiler 1 als optischen Bauteil zur lichtwellenlängenabhängigen Strahlumlenkung realisiert. Die Spektralkomponenten, für die der Strahlteiler 1 und der Bildsensor 2 selektiv bzw. sensitiv sind, sind die Wellenlängenbereiche rot R, grün G und blau B.
Im Ausführungsbeispiel in Fig. 1 ist auf den wellenlängenselektiven Strahlteiler 1 das Kameraobjektiv 21 einer Videokamera 20 gerichtet, in die der Bildsensor 2 integriert ist. Der Bildsensor 2 besitzt eine Vielzahl von Sensorpixeln, die in Zeilen und Spalten angeordnet sind und somit ein Pixelraster bilden. Bei dem Bildsensor 2 handelt es sich in Fig. 1 um einen für
die Wellenlängenbereiche rot, grün und blau aufnahmefähigen Bildsensor bzw. einen RGBBildsensor handelt. Die Videokamera 20 stellt somit eine RGB-Videokamera dar.
Um den Bildsensor 2 der Videokamera 20 der für die Wellenlängenbereiche rot, grün und blau sensitiv zu machen, ist der Bildsensor 2 im Ausführungsbeispiel mit einem dem Pixelraster entsprechenden, repetitiv angeordneten optischen Filterraster versehen. Ein geeigneter derartiger Filterraster ist je für bis zu vier unterschiedliche Lichtwellenlängen lichtdurchlässig.
Der RGB-Bildsensor bzw. RGB-Videosensor in Fig. 1 ist mit einem optischen Filterraster nach dem Bayer Patern (siehe Fig. 3), d.h. einer RGB-Bayerfiltermaske ausgestattet, um ihn für die Wellenlängenbereiche rot, grün und blau sensitiv zu machen. Ein derartiger Filterraster nach dem Bayer Pattern ist beispielsweise beschrieben in DE 2608998 B2. Die Bayer Pattern Filteranordnung, die Standard für RGB-Farbvideosensoren ist, sei an dieser Stelle jedoch nur
exemplarisch für einen geeigneten Filterraster genannt.
Alternativ zum Filterraster nach dem Bayer Pattern können auch andere Filterraster wie beispielsweise “Complementary Color Mosaic Filter“ oder “Primary Color Vertical Stripe Filter”
A SUQDG
zuletzt
aufgerufen am 29.11.2022, beschrieben sind.
Das Messsystem 100 umfasst im ersten Ausführungsbeispiel weiters einen Lichtmusterprojektor 3 in Form eines RGB-Lichtmusterprojektors mit einem Projektionsobjektiv 31, einem Kollimationsobjektiv 33 und einem Dia 32 mit einem Zufallsbild.
Das Kollimationsobjektiv 33 — in der einfachsten Variante eine Kollimationslinse — sammelt divergierend abgestrahltes Licht einer Lichtquelle, richtet das Licht „parallel“ und leitet es bei Projektionsobjektiven mit Austrittspupillenpositionen, die in Projektionsrichtung hinter der Lichtmusterdiaebene liegen, direkt über das Lichtmusterdia und das Projektionsobjektiv auf die Messobjektoberfläche.
Zusätzlich kann nach dem Kollimationsobjektiv eine Fokussierlinse in den Strahlengang eingebracht werden, die das Licht in die Austrittspupille von Projektionsobjektiven fokussieren, welche in Projektionsrichtung vor der Lichtmusterdiaebene liegt. Eine Kombination von Kollimationsobjektiv und Fokussierlinse wird als „Kondensor“ bezeichnet.
Das Muster des projizierten Lichtmusters des Lichtmusterprojektors 3 ist so gestaltet, dass die Abbildungseigenschaften aller eingesetzten optischen Komponenten optimal genutzt werden, und dass die Szenenoberfläche für den 3D-Messvorgang mit einer bekannten Textur beaufschlagt wird. Das Zufallsbild besitzt dabei Pixel, die zwei oder mehr voneinander abweichende Farbwerte oder Intensitäten aufweisen und innerhalb des Zufallsbilds ist die Umgebung jedes Pixels jeweils einem oder mehreren Pixeln des Bildsensors 2 eindeutig
zuordenbar.
Der Hintergrund der Anwendung eines derartigen Zufallsbilds ist, dass die Umgebung jedes Pixels beispielsweise eine 3x3 oder 5x5 Umgebung innerhalb des gesamten Zufallsbilds den jeweiligen korrespondierenden Pixel im dreidimensionalen Abbild eindeutig zuordenbar sein soll. Aufgrund der Eindeutigkeit der Umgebung kann ein Raumpunkt an unterschiedlichen Stellen gegebenenfalls in zwei oder drei in jeweils einer der virtuellen Kamerapositionen
erstellten Aufnahmen enthalten sein.
Die Lichtquelle des Lichtmusterprojektors 3 ist, wie bereits zuvor erwähnt, in den abgegebenen Wellenlängenbereichen auf das kreuz-dichroitischen Prisma sowie den Bildsensor 2 der RGBVideokamera abgestimmt.
In Fig. 1 ist eine Beleuchtungseinheit 4 als RGB-Lichtquelle auf den Lichtmusterprojektor 3 gerichtet. Die Beleuchtungseinheit 4 umfasst im Ausführungsbeispiel einen weiteren Strahlteiler 11 in Form eines weiteren kreuz-dichroitischen Prismas, sowie drei Beleuchtungsmittel — nämlich eine rote Leuchtdiode 41, eine grüne Leuchtdiode 42 und eine blaue Leuchtdiode 43 — die jeweils an den entsprechenden Seiten des weiteren kreuzdichroitischen Prismas angebracht sind, und als Lichtquellen für die Spektralkomponenten rot, grün und blau dienen. Durch diese Ausrichtung der Beleuchtungsmittel auf den weiteren Strahlteiler 11, wird durch den weiteren Strahlteiler 11 eine Lichtmischung aus dem von den Beleuchtungsmitteln abgegebenen Licht erstellbar.
Alternativ kann ohne den Einsatz eines weiteren Strahlteilers 11 bzw. eines kreuzdichroitischen Prismas auch eine weiße Lichtquelle wie z.B. eine LED, Glüh- oder Gasentladungslampe mit einer entsprechenden Spektralverteilung als Lichtquelle für den Lichtmusterprojektor 3 oder die Szenebeleuchtung eingesetzt werden.
Die Auskopplung der erstellten Lichtmischung in Form von RGB-Licht erfolgt im
Ausführungsbeispiel an der entsprechenden Seite des kreuz-dichroitischen Prismas über einen Lichtwellenleiter 5, der auf das Kollimationsobjektiv 33 des Lichtmusterprojektor 3
gerichtet ist bzw. darin mündet. Das RGB-Licht der RGB-Lichtquelle wird somit über den Lichtwellenleiter 5 und über das Kollimationsobjektiv 33 in den Lichtmusterprojektor 3 eingekoppelt. Das RGB-Licht kann mittels eines Lichtwellenleiters 5 über längere Distanzen mit gleichzeitig hoher Intensität übertragen werden, während eine effiziente thermische Entkopplung zwischen der RGB-Videokamera und der RGB-Lichtquelle gegeben ist.
Der Lichtmusterprojektor 3 und die Videokamera 20 bzw. deren Bildsensor 2, sind mechanisch starr, d.h. bewegungs- und drehungsstarr, zueinander angeordnet, sowie mechanisch starr, d.h. bewegungs- und drehungsstarr, zur entsprechenden Seite des Strahlteilers 1 bzw. kreuzdichroitischen Prismas und des weiteren Strahlteilers 11 bzw. weiteren kreuz-dichroitischen Prismas platziert.
Ein Messsystem 100 wie es in Fig. 1 dargestellt ist und zuvor beschrieben wurde, kann mit zusammen mit einer Steuer- und Verarbeitungseinheit ein stereoskopisches Aufnahmesystem bilden, mit dem dreidimensionale Abbilder von Hohlräumen erstellt werden können. Die Steuer- und Verarbeitungseinheit übernimmt darin die Ansteuerung der Beleuchtungseinheit 4 zur Lichtabgabe, sowie gegebenenfalls auch die Ansteuerung des Bildsensors 2 zur Erstellung von Aufnahmen. Die Steuer- und Verarbeitungseinheit übernimmt weiters die weiter unten im Detail beschriebenen Datenverarbeitungsschritte eines erfindungsgemäßen Verfahrens im Rahmen der extrinsischen und intrinsischen Kamerakalibrierung, der geometrischen Kalibrierung, sowie die Zusammenführung der in den virtuellen Kamerapositionen 61, 62, 63 erstellten Aufnahmen zu einem dreidimensionalen Abbild der Umgebung des Messsystems 100.
Die Steuer- und Verarbeitungseinheit steht mit dem Bildsensor in Datenkommunikation und ordnet den vom Bildsensor 2 erstellten Aufnahmen, die jeweils die rote Spektralkomponente R, die grüne Spektralkomponente G oder die blaue Spektralkomponente B des Lichts enthalten, das aus dem Strahlteiler 1 austritt und auf den Bildsensor einfällt, jeweils eine separate virtuelle Kameraposition 61, 62, 63 zu. Dies bedeutet, die erste virtuelle Kameraposition 61 entspricht der roten Spektralkomponente R, die zweite virtuelle Kameraposition 62 entspricht der grünen Spektralkomponente G und die dritte virtuelle Kameraposition 63 entspricht der blauen Spektralkomponente B, die jeweils getrennt aus dem Strahlteiler 1 austreten und die Umgebung des Messsystems 100 beleuchten bzw. von der Umgebung des Messsystems 100 reflektiert werden, in den Strahlteiler 1 eintreten und durch den Strahlteiler 1 gebündelt auf den Bildsensor 2 einfallen.
In der zuvor beschriebenen geometrischen Anordnung werden bei einem erfindungsgemäßen Verfahren zur Erstellung dreidimensionaler Abbilder von Hohlräumen die drei orthogonal zueinander liegenden 3D-Messpfade „rot“, „grün“ und „blau“, d.h. die drei virtuellen Kamerapositionen 61, 62, 63, unabhängig voneinander intrinsisch sowie extrinsisch mit aus dem Stand der Technik bekannten Kalibrierverfahren kalibriert. Derartige Kalibrierverfahren sind beispielsweise beschrieben in Fabio Remondino, Clive Fraser: Digital camera calibration methods: Considerations and comparisons. In: ISPRS Commission V Symposium "Image Engineering and Vision Metrology'. ISPRS, 25. September 2006.
Bei der intrinsischen Kalibrierung werden Parameter zur Korrektur der optischen Verzerrungen, die resultierenden optischen Brennweiten und die Positionen der Durchstoßpunkte der optischen Achsen durch die Bildebene/die Diaebene des Bildsensors 2/des Lichtmusterprojektors 3 ermittelt. Mit diesen Parametern wird ein korrigiertes (ideales) Bild berechnet, welches mit einer Lochkamera/einem "Lochprojektor" entstehen würde.
Bei der extrinsischen Kalibrierung werden die Positionen und Orientierungen des Bildsensors 2 und des Lichtmusterprojektors 3 — als Lochkameramodell bzw. "Lochprojektormodell" — zueinander, d.h. mit 6 Freiheitsgraden, mit den durch die intrinsische Kalibrierung ermittelten Lochkamera-/"Lochprojektor"-Parametern ermittelt.
Auf diese Weise werden die Position und Orientierung des Bildsensors 2 und der Beleuchtungseinheit 4 zueinander festgestellt, sowie die intrinsischen Kameraparameter des
Bildsensors 2, wie z.B. die Brennweite, die Linsenverzerrung etc. ermittelt.
Als weiterer Verfahrensschritt wird eine geometrische Kalibrierung der virtuellen Kamerapositionen 61, 62, 63 zueinander durchgeführt. Ein derartiges Kalibrierverfahren ist beispielsweise beschrieben in Jacek Komorowski und Przemyslaw Rokita, Extrinsic Camera Calibration Method and Its Performance Evaluation, Proceedings of the 2012 international conference on Computer Vision and Graphics, September 2012 DO!:10.1007/978-3-64233564-8_16, beschrieben.
Hierbei wird für jede der virtuellen Kamerapositionen 61, 62, 63 jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt. Diese Transformationen zeichnen sich dadurch aus, dass sie einer in einer der virtuellen Kamerapositionen 61, 62, 63 ermittelten Position eines Messraumpunkts genau eine Position im Koordinatensystem zuordnen.
Positionen desselben Messraumpunkts, die in einer oder mehreren anderen virtuellen
Kamerapositionen ermittelt wurden, wird dabei dieselbe Position im Koordinatensystem zugeordnet.
Bei der "geometrischen" Kalibrierung werden also nachgelagert zur extrinsischen und intrinsischen Kalibrierung die einzelnen Positionen und Orientierungen der mit dem Strahlteiler 1 bzw. dem kreuz-dichroitischen Prisma erzeugten, bis zu drei unterschiedlichen Messrichtungen zueinander ermittelt. So ist es möglich, die 3D-Punktewolken aus den einzelnen Messrichtungen unmittelbar in ein gemeinsames 3D-Modell bzw. ein gemeinsames
dreidimensionales Koordinatensystem zu transformieren.
Über die einzelnen RGB-Teilbilder, d.h. die in den einzelnen virtuellen Kamerapositionen 61, 62, 63 erstellten Aufnahmen, und anhand des bekannten Projektionsmusters kann zum Beispiel über korrelationsbasierte Korrespondenzsuche eine 3D-Punktewolke für die jeweiligen drei Blickrichtungen berechnet und die 3D-Punktewolken in ein gemeinsames Koordinatensystem überführt und derart ein dreidimensionales Abbild des aufgenommenen Bereichs erstellt werden. Ein Verfahren zur korrelationsbasierten Korrespondenzsuche ist beispielsweise beschrieben in Lazaros, Nalpantidis; Sirakoulis, Georgios Christou; Gasteratos, Antonios (2008), Review of Stereo Vision Algorithms: From Software to Hardware”. International Journal of Optomechatronics. 2 (4): 435-462.
Sind, wie zuvor beschrieben, optional zwei wellenlängensensitive Bildsensoren 2 und eine Beleuchtungseinheit 4, beispielsweise mit einem Lichtmusterprojektor 3, vorgesehen, so wird im Rahmen der extrinsische Kamerakalibrierung nicht nur die Position und Orientierung des Bildsensors 2 und der Beleuchtungseinheit 4 zueinander, sondern auch die Position und Orientierung des weiteren Bildsensors und der Beleuchtungseinheit 4, sowie die Position und Orientierung des Bildsensors 2 und des weiteren Bildsensors zueinander ermittelt. Im Rahmen der intrinsischen Kamerakalibrierung werden weiters auch die intrinsischen Kameraparameter des weiteren Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung,
ermittelt.
Auf diese Weise ist es möglich, noch unabhängig von der nachgelagerten Strahlumlenkung drei verschiedene Messperspektiven und drei 3D-Datenquellen zu erhalten, sodass zusammen mit der lichtwellenlängenselektiven Strahlenumlenkung dann bis zu neun
unabhängige 3D-Datenquellen zur Verfügung stehen.
Ein erfindungsgemäßes Messsystem 100 bzw. ein erfindungsgemäßes Stereoskopisches Aufnahmesystem können auf einem Träger angeordnet sein, der eine Vorzugsvorschubrichtung aufweist und in einen Hohlraum manuell oder automatisiert
geschoben bzw. eingebracht werden kann.
Ein erfindungsgemäßes Messsystem 100 bzw. ein erfindungsgemäßes stereoskopisches Aufnahmesystem und ein erfindungsgemäßes Verfahren können beispielsweise in allen Anwendungsbereichen eingesetzt werden, die durch schwer zugängliche Aufnahmebereiche charakterisiert sind und daher miniaturisierte Mess- bzw. Aufnahmesysteme erfordern und gegebenenfalls eine Oberfläche mit wenig Struktur aufweisen.
Dies trifft beispielsweise auf Anwendungsbereiche in der Industrie oder Robotik zu oder auch beispielsweise im kosmetischen oder chirurgischen Bereich, beispielsweise bei der Aufnahme von dreidimensionalen Abbildern von Körperöffnungen wie z.B. dem Gehörgang von Menschen oder Tieren. Im Bereich der Chirurgie ist beispielsweise auch eine Anwendung z.B.
zur Aufnahme dreidimensionaler Abbilder von inneren Organen möglich.

Claims (11)

Patentansprüche
1. Messsystem (100) zur Erzeugung von 3D-Bildern umfassend - zumindest eine Beleuchtungseinheit (4) zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler (1), auf den die Beleuchtungseinheit (4) gerichtet ist und der dazu ausgebildet ist, das von der Beleuchtungseinheit (4) abgegebene Licht in zumindest zwei Lichtstrahlen unterschiedlicher Spektralkomponenten aufzuteilen und die Lichtstrahlen wellenlängenabhängig in zumindest zwei verschiedene Richtungen umzulenken, und - zumindest einen wellenlängensensitiven Bildsensor (2), insbesondere einen Videosensor, der für verschiedene Spektralkomponenten aufnahmefähig ist, - wobei der Bildsensor (2) und die Beleuchtungseinheit (4) auf den Strahlteiler (1) gerichtet sind und die Aufnahmerichtung des Bildsensors (2) der Richtung der Lichtabgabe der Beleuchtungseinheit (4) entspricht, - wobei das von der Beleuchtungseinheit (4) abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor (2) aufnahmefähig ist und für die der Strahlteiler (1) ausgelegt ist und - wobei der Bildsensor (2), der Strahlteiler (1) und die Beleuchtungseinheit (4) zueinander bewegungs- und drehungsstarr angeordnet sind.
2. Messsystem (100) nach Anspruch 1, dadurch gekennzeichnet, dass die Beleuchtungseinheit einen Lichtmusterprojektor (3) zur Projektion eines gerichteten Zufallsbilds umfasst, wobei insbesondere vorgesehen ist,
- dass die einzelnen Pixel des Zufallsbilds einen von zumindest zwei voneinander abweichenden Farbwerten und/oder Intensitätswerten aufweisen und
- die Umgebung eines jeden Pixels innerhalb des Zufallsbilds jeweils einem oder mehreren Pixeln des Bildsensors eindeutig zuordenbar ist.
3. Messsystem (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Beleuchtungseinheit (4) einen Lichtwellenleiter (5) umfasst.
4. Messsystem (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Beleuchtungseinheit (4) zumindest zwei Beleuchtungsmittel, insbesondere Leuchtdioden oder Laserdioden, zur Abgabe von Licht mit zumindest zwei verschiedenen Spektralkomponenten und einen weiteren wellenlängenselektiven Strahlteiler (11) umfasst, wobei die Beleuchtungsmittel derart auf den weiteren Strahlteiler (11) gerichtet sind, dass
durch den weiteren Strahlteiler (11) eine Lichtmischung aus dem von den Beleuchtungsmitteln abgegebenen Licht erstellbar ist.
5. Messsystem (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Messsystem (100) einen weiteren wellenlängensensitiven Bildsensor, insbesondere einen weiteren Videosensor, umfasst, wobei die Aufnahmerichtung des weiteren Bildsensors
im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors (2) ist.
6. Messsystem (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Strahlteiler (1) und/oder der weitere Strahlteiler (11) ein kreuz-dichroitisches Prisma oder ein dichroitisches Prisma ist.
7. Messsystem (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Bildsensor (2) und/oder der weitere Bildsensor Folgendes aufweist:
- eine Vielzahl von Sensorpixeln, die in Form eines Pixelrasters in Zeilen und Spalten angeordnet sind, und
- einen dem Pixelraster entsprechend und repetitiv angeordneten optischen Filterraster, insbesondere einen optischen Filterraster nach dem Bayer Pattern, der für zumindest zwei, insbesondere drei, verschiedene Wellenlängen aufnahmefähig ist.
8. Messsystem (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der wellenlängenselektive Strahlteiler (1) dazu ausgebildet ist, das von der Beleuchtungseinheit (4) abgegebene Licht in drei Lichtstrahlen der Spektralkomponenten rot (R), grün (G) und blau (B) aufzuteilen und die Lichtstrahlen in drei verschiedene Richtungen umzulenken, wobei vorzugsweise die Richtungen in einem Winkel von 90 Grad zueinander
stehen.
9. Stereoskopisches Aufnahmesystem zur Erstellung dreidimensionaler Abbilder von Hohlräumen umfassend ein Messsystem (100) nach einem der Ansprüche 1 bis 8, und eine Steuer- und Verarbeitungseinheit, - wobei die Steuer- und Verarbeitungseinheit mit der Beleuchtungseinheit (4) verbunden ist und mit dem zumindest einen Bildsensor (2) und/oder dem weiteren Bildsensor in Datenkommunikation steht und dazu ausgebildet ist,
- die Beleuchtungseinheit (4) zur Abgabe von Licht anzusteuern,
- den einzelnen mit dem Bildsensor (2) erstellten Aufnahmen, die jeweils eine einzelne
der Spektralkomponenten des auf den Bildsensor (2) einfallenden Lichts, für die der
Bildsensor (2) aufnahmefähig ist, enthalten, jeweils eine separate virtuelle Kameraposition (61, 62, 63) zuzuordnen, - vorab im Rahmen einer extrinsischen Kamerakalibrierung die Position und Orientierung des Bildsensors (2) und der Beleuchtungseinheit (4) zueinander zu ermitteln, und im Rahmen einer intrinsischen Kamerakalibrierung intrinsische Kameraparameter des Bildsensors (2), insbesondere die Brennweite und/oder die Linsenverzerrung, zu ermitteln, - vorab eine geometrische Kalibrierung der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) zueinander durchzuführen, indem für jede der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, wobei diese Transformationen jeweils - einer in einer der virtuellen Kamerapositionen (61, 62, 63) ermittelten Position eines Messraumpunkts genau eine Position im Koordinatensystem zuordnet, und - gegebenenfalls den jeweils in zumindest einer anderen virtuellen Kameraposition (61, 62, 63) ermittelten Position desselben Messraumpunkts dieselbe Position im Koordinatensystem zuordnet, und - die in den einzelnen virtuellen Kamerapositionen (61, 62, 63) erstellten Aufnahmen, unter Anwendung der ermittelten Transformationen in ein gemeinsames Koordinatensystem zu überführen und derart zu einem dreidimensionalen Abbild
zusammenzuführen.
10. Verfahren zur Erstellung dreidimensionaler Abbilder von Hohlräumen mit einem Messsystem nach einem der Ansprüche 1 bis 8, insbesondere einem stereoskopischen Aufnahmesystem nach Anspruch 9, umfassend - eine Beleuchtungseinheit (4) zur Abgabe von multispektralem Licht, - einen wellenlängenselektiven Strahlteiler (1), auf den die Beleuchtungseinheit (4) gerichtet ist, und - zumindest einen wellenlängensensitiven Bildsensor (2), insbesondere einen Videosensor, der für verschiedene Spektralkomponenten aufnahmefähig ist, - wobei der Bildsensor (2) und die Beleuchtungseinheit (4) auf den Strahlteiler (1) gerichtet sind und die Aufnahmerichtung des Bildsensors (2) der Richtung der Lichtabgabe der Beleuchtungseinheit (4) entspricht, - wobei das von der Beleuchtungseinheit (4) abgegebene Licht diejenigen Spektralkomponenten umfasst, für die der Bildsensor (2) aufnahmefähig ist und für die der Strahlteiler (1) ausgelegt ist und
- wobei der Bildsensor (2), der Strahlteiler (1) und die Beleuchtungseinheit (4) zueinander bewegungs- und drehungsstarr angeordnet sind,
- wobei vorab im Rahmen einer extrinsischen Kamerakalibrierung die Position und Orientierung des Bildsensors (2) und der Beleuchtungseinheit (4) zueinander ermittelt werden, und im Rahmen einer intrinsischen Kamerakalibrierung intrinsische Kameraparameter des Bildsensors (2), insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt werden, - wobei von der Beleuchtungseinheit (4) multispektrales Licht auf den Strahlteiler (1) abgegeben wird und vom Strahlteiler (1) in zumindest zwei Lichtstrahlen unterschiedlicher Spektralkomponenten aufgeteilt wird, wobei die Lichtstrahlen wellenlängenabhängig in zumindest zwei verschiedene Richtungen umgelenkt werden, - wobei mit dem Bildsensor (2) Aufnahmen des aus dem Strahlteiler (1) auf den Bildsensor (2) einfallenden Lichts erstellt werden, wobei die Aufnahmen jeweils eine einzelne der Spektralkomponenten des auf den Bildsensor (2) einfallenden Lichts, für die der Bildsensor (2) aufnahmefähig ist, enthalten, - wobei den jeweiligen Aufnahmen der zumindest zwei einzelnen Spektralkomponenten des einfallenden Lichts jeweils eine separate virtuelle Kameraposition (61, 62, 63) zugeordnet wird, - wobei vorab eine geometrische Kalibrierung der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) zueinander durchgeführt wird, indem für jede der zumindest zwei virtuellen Kamerapositionen (61, 62, 63) jeweils eine Transformation in ein gemeinsames Koordinatensystem ermittelt wird, wobei diese Transformationen jeweils
- einer in einer der virtuellen Kamerapositionen (61, 62, 63) ermittelten Position eines
Messraumpunkts genau eine Position im Koordinatensystem zuordnet, und
- einer jeweils in zumindest einer anderen virtuellen Kameraposition (61, 62, 63)
ermittelten Position desselben Messraumpunkts dieselbe Position im
Koordinatensystem zuordnet, und - die in den einzelnen virtuellen Kamerapositionen (61, 62, 63) erstellten Aufnahmen unter Anwendung der ermittelten Transformationen in ein gemeinsames dreidimensionales Koordinatensystem überführt und derart zu einem dreidimensionalen Abbild zusammengeführt
werden.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet,
- dass das Messsystem (100) einen weiteren wellenlängensensitiven Bildsensor, insbesondere einen weiteren Videosensor, umfasst, wobei die Aufnahmerichtung des weiteren Bildsensors im Wesentlichen parallel zur Aufnahmerichtung des Bildsensors (2) ist und
- dass im Rahmen der extrinsischen Kamerakalibrierung die Position und Orientierung des weiteren Bildsensors und der Beleuchtungseinheit (4) zueinander, sowie die Position und
Orientierung des Bildsensors (2) und des weiteren Bildsensors zueinander ermittelt werden, und
- dass im Rahmen der intrinsischen Kamerakalibrierung intrinsische Kameraparameter des weiteren Bildsensors, insbesondere die Brennweite und/oder die Linsenverzerrung, ermittelt
werden.
ATA50926/2022A 2022-12-06 2022-12-06 Messsystem zur Erzeugung von 3D-Bildern AT526735A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ATA50926/2022A AT526735A1 (de) 2022-12-06 2022-12-06 Messsystem zur Erzeugung von 3D-Bildern
PCT/AT2023/060417 WO2024119206A1 (de) 2022-12-06 2023-11-30 Messsystem zur erzeugung von 3d-bildern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50926/2022A AT526735A1 (de) 2022-12-06 2022-12-06 Messsystem zur Erzeugung von 3D-Bildern

Publications (1)

Publication Number Publication Date
AT526735A1 true AT526735A1 (de) 2024-06-15

Family

ID=89119313

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50926/2022A AT526735A1 (de) 2022-12-06 2022-12-06 Messsystem zur Erzeugung von 3D-Bildern

Country Status (2)

Country Link
AT (1) AT526735A1 (de)
WO (1) WO2024119206A1 (de)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040207823A1 (en) * 2003-04-16 2004-10-21 Alasaarela Mikko Petteri 2D/3D data projector
DE102007050607A1 (de) * 2006-10-23 2008-04-24 Pentax Corp. Kamerakalibrierung für ein Endoskopnavigationssystem
US20090292168A1 (en) * 2004-09-24 2009-11-26 Vivid Medical Wavelength multiplexing endoscope
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
EP2549226A1 (de) * 2011-07-20 2013-01-23 Samsung Electronics Co., Ltd. Endoskop und Endoskopsystem
DE102013226654A1 (de) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Optisches Stereo-System
WO2019155401A1 (en) * 2018-02-12 2019-08-15 3M Innovative Properties Company Projected texture pattern for intra-oral 3d imaging
US20200088513A1 (en) * 2018-09-19 2020-03-19 Qisda Corporation Three dimensional scan system with increased range of resolution
WO2021016644A1 (de) * 2019-07-30 2021-02-04 Eyes.Tec Gmbh Verfahren zur erstellung dreidimensionaler abbilder von kavitäten
US20220094901A1 (en) * 2020-09-23 2022-03-24 Proprio, Inc. Endoscopic imaging systems for generating three dimensional images, and associated systems and methods

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL254460A (de) 1960-08-02
US3971065A (en) 1975-03-05 1976-07-20 Eastman Kodak Company Color imaging array
US6407868B1 (en) 1997-05-13 2002-06-18 Nikon Corporation Cross dichroic prism, method of making the same, and full-color projector using the same
US9769455B2 (en) * 2010-12-21 2017-09-19 3Shape A/S 3D focus scanner with two cameras
EP2847543B1 (de) * 2012-08-07 2016-07-06 Carl Zeiss Industrielle Messtechnik GmbH Messeinrichtung und verfahren zum vermessen eines messobjekts

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040207823A1 (en) * 2003-04-16 2004-10-21 Alasaarela Mikko Petteri 2D/3D data projector
US20090292168A1 (en) * 2004-09-24 2009-11-26 Vivid Medical Wavelength multiplexing endoscope
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
DE102007050607A1 (de) * 2006-10-23 2008-04-24 Pentax Corp. Kamerakalibrierung für ein Endoskopnavigationssystem
EP2549226A1 (de) * 2011-07-20 2013-01-23 Samsung Electronics Co., Ltd. Endoskop und Endoskopsystem
DE102013226654A1 (de) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Optisches Stereo-System
WO2019155401A1 (en) * 2018-02-12 2019-08-15 3M Innovative Properties Company Projected texture pattern for intra-oral 3d imaging
US20200088513A1 (en) * 2018-09-19 2020-03-19 Qisda Corporation Three dimensional scan system with increased range of resolution
WO2021016644A1 (de) * 2019-07-30 2021-02-04 Eyes.Tec Gmbh Verfahren zur erstellung dreidimensionaler abbilder von kavitäten
US20220094901A1 (en) * 2020-09-23 2022-03-24 Proprio, Inc. Endoscopic imaging systems for generating three dimensional images, and associated systems and methods

Also Published As

Publication number Publication date
WO2024119206A1 (de) 2024-06-13

Similar Documents

Publication Publication Date Title
DE102008017481B4 (de) Vorrichtung und Verfahren zur optischen 3D-Vermessung und zur Farbmessung
EP3298345B1 (de) Kamera und verfahren zur dreidimensionalen vermessung und farbvermessung eines dentalen objekts
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
DE102015122842A1 (de) Kalibrierplatte zum Kalibrieren einer 3D-Messvorrichtung und Verfahren hierfür
DE10204430A1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
DE102010045364A1 (de) Verfahren und Vorrichtung zur Erzeugung hochwertiger Fundusaufnahmen
DE102006042311B4 (de) Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich
EP0918302A2 (de) Kohärenzdetektor
WO2007134567A1 (de) Verfahren zum erzeugen von bildinformationen
DE102017210274A1 (de) Mikroskopiesystem und Mikroskopieverfahren zur Aufnahme von Fluoreszenzlichtbildern und Weißlichtbildern
EP4020973A1 (de) Hintergrund-wiedergabeeinrichtung, hintergrundwiedergabesystem, aufnahmesystem, kamerasystem, digitale kamera und verfahren zum steuern einer hintergrund-wiedergabeeinrichtung
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE102018123781B4 (de) Verfahren zum Durchführen einer Shading-Korrektur und optisches Beobachtungsgerätesystem
AT526735A1 (de) Messsystem zur Erzeugung von 3D-Bildern
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
DE19749974C2 (de) Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
DE102012001307A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten, insbesondere unter hinderlichen Lichtverhältnissen
DE102015106838A1 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen
DE19753246C2 (de) Vorrichtung zur Bestimmung von dreidimensionalen Daten von Objekten
DE102014019672B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit Wellenlängenüberprüfung
DE102016109131B4 (de) Verfahren zur dreidimensionalen Erfassung eines Objekts
DE10301094B4 (de) Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera
LU102086B1 (de) Verfahren zur Erstellung einer Bildaufzeichnung