DE102016000415A1 - Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur - Google Patents

Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur Download PDF

Info

Publication number
DE102016000415A1
DE102016000415A1 DE102016000415.0A DE102016000415A DE102016000415A1 DE 102016000415 A1 DE102016000415 A1 DE 102016000415A1 DE 102016000415 A DE102016000415 A DE 102016000415A DE 102016000415 A1 DE102016000415 A1 DE 102016000415A1
Authority
DE
Germany
Prior art keywords
light sources
light
image
grid
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016000415.0A
Other languages
English (en)
Inventor
Walter Bauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Duerr Dental SE
Original Assignee
Duerr Dental SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Duerr Dental SE filed Critical Duerr Dental SE
Priority to DE102016000415.0A priority Critical patent/DE102016000415A1/de
Priority to EP17700423.1A priority patent/EP3405097B1/de
Priority to PCT/EP2017/050732 priority patent/WO2017125328A1/de
Publication of DE102016000415A1 publication Critical patent/DE102016000415A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/50Using chromatic effects to achieve wavelength-dependent depth resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung (10) zum dreidimensionalen Erfassen einer Oberflächenstruktur (11; 11'; 11'), insbesondere zum Erfassen von Zähnen (13), mit einer chromatisch-konfokalen Optik (40, 42, 44), die eine optische Achse (41) umfasst, und mit einer Lichtquelle (16), die ein Raster von lateral zur optischen Achse beabstandeten Einzellichtquellen (34) aufweist. Dabei bildet die Optik die Einzellichtquellen (34) derart auf die Oberflächenstruktur (11; 11'; 11'') ab, dass dort ein Raster von Messpunkten (49) erzeugt wird, die voneinander lateral beabstandet sind. Eine Bildaufnahmeeinheit (50) ist optisch äquivalent zu den Einzellichtquellen (34) angeordnet, um das Raster von Messpunkten (49) zu erfassen. Ferner ist eine Steuer- und Auswerteeinrichtung (70) dazu eingerichtet, die Lichtquelle (16) derart anzusteuern, dass die Einzellichtquellen (34) in zeitlicher Abfolge Licht mit unterschiedlicher spektraler Zusammensetzung abgeben, und mit Hilfe der Bildaufnahmeeinheit (50) das Raster von Messpunkten (49) korreliert mit der zeitlichen Abfolge des von den Einzellichtquellen (34) abgegebenen Lichts zu erfassen.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die Erfindung betrifft eine Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur, insbesondere zum Erfassen von Zähnen,
    • a) mit einer chromatisch-konfokalen Optik, die eine optische Achse umfasst, und
    • b) mit einer Lichtquelle, die ein Raster von lateral zur optischen Achse beabstandeten Einzellichtquellen aufweist,
    • c) wobei die Optik die Einzellichtquellen derart auf die Oberflächenstruktur abbildet, dass dort ein Raster von Messpunkten erzeugt wird, die voneinander lateral beabstandet sind,
    • d) wobei eine Bildaufnahmeeinheit optisch äquivalent zu den Einzellichtquellen angeordnet ist, um das Raster von Messpunkten zu erfassen.
  • 2. Beschreibung des Standes der Technik
  • Aus der DE 10 2006 007 172 B4 ist eine Vorrichtungen bekannt, bei der eine chromatisch konfokale Messanordnung verwendet wird, um eine Oberflächenstruktur dreidimensional zu erfassen.
  • Der chromatisch-konfokalen Messanordnung liegt die Erkenntnis zugrunde, dass die Brechkraft einer Linse im Allgemeinen von der Wellenlänge des hindurchtretenden Lichts abhängig ist. Dadurch weist eine Linse je nach Wellenlänge räumlich unterschiedlich verlaufende Fokusflächen und damit auch Bildflächen auf. Dieser Effekt ist bei optischen Systemen als chromatische Aberration bekannt und wird als unerwünschter Bildfehler angesehen, der beispielsweise durch die Verwendung von Achromaten oder Apochromaten möglichst korrigiert werden soll.
  • Bei der chromatischen-konfokalen Messanordnung macht man sich jedoch die sogenannte chromatische Längsaberration (CLA) zu Nutze, indem Weißlicht über eine Optik mit einer möglichst großen CLA auf eine Oberfläche abgebildet wird. Auf diese Weise wird der kurzwellige, blaue Anteil des Lichts näher bei der Optik gebündelt als der langwellige, rote Anteil.
  • Das von der Oberfläche rückgestreute Licht wird über die chromatische Optik und einen Strahlteiler konfokal auf ein Spektrometer abgebildet.
  • Befindet sich die Oberfläche nun beispielsweise an jenem Ort, an welchem das blaue Licht gebündelt wird, gelangt das rückgestreute blaue Licht nahezu vollständig wieder in die Optik. Für das blaue Licht ist somit die chromatisch-konfokale Bedingung erfüllt. Das rote Licht hingegen wird aufgrund der unscharfen Fokussierung auf der Oberfläche größtenteils in Richtungen gestreut, die nicht in den konfokalen Strahlengang der Optik fallen. Insgesamt wird dadurch erheblich weniger rotes Licht auf das Spektrometer fallen.
  • Durch Bestimmen der spektralen Anteile des rückgestreuten Lichts mit Hilfe des Spektrometers kann daher die Entfernung der Oberfläche zur Messanordnung erfassen werden.
  • Um ein dreidimensionales Bild der Oberfläche zu erhalten, werden die bekannten chromatisch-konfokalen Messanordnungen über die zu erfassende Oberfläche gescannt.
  • Zur Vermeidung der Scanbewegung wird bei der Vorrichtung nach der DE 10 2006 007 172 B4 mit Hilfe einer Rasteranordnung von Einzellichtquellen auf der Oberfläche ein Raster von lateral beabstandeten Messpunkten erzeugt, deren Farbspektrum mit Hilfe eines hochauflösenden Bildwandlers mit Abbildungsoptik und eines vorgeschalteten Prismas oder Gitters bestimmt wird. Auf diese Weise erhält man die Topografie der Oberfläche, ohne dass die Messanordnung bezüglich des Objekts verschoben werden müsste.
  • Nachteilig an den bisher verwendeten Vorrichtungen ist der relativ hohe aparative Aufwand und die Baugröße für die Kombination aus Prisma bzw. Gitter und Bildwandler mit Abbildungsoptik als Spektrometer.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Aufgabe der Erfindung ist es daher, eine Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur, insbesondere zum Erfassen von Zähnen, anzugeben, bei der die Bildaufnahmeeinheit besser, insbesondere kleiner und kostengünstiger, realisiert werden kann.
  • Erfindungsgemäß wird die oben genannte Aufgabe mit einer Vorrichtung eingangs genannter Art gelöst, bei der
    • e) eine Steuer- und Auswerteeinrichtung vorgesehen ist, die dazu eingerichtet ist,
    • – die Lichtquelle derart anzusteuern, dass die Einzellichtquellen in zeitlicher Abfolge Licht mit unterschiedlicher spektraler Zusammensetzung abgeben, und
    • – mit Hilfe der Bildaufnahmeeinheit das Raster von Messpunkten korreliert mit der zeitlichen Abfolge des von den Einzellichtquellen abgegebenen Lichts zu erfassen.
  • Der Erfinder hat erkannt, dass keine aufwendige Kombination aus Prisma bzw. Gitter und Bildwandler mit Abbildungsoptik als Spektrometer notwendig ist, wenn die unterschiedlich farbigen spektralen Anteile anstatt zeitgleich in zeitlicher Abfolge an der Bildaufnahmeeinheit auftreffen. Dadurch ersetzt die Zeitachse eine für das Erfassen der spektralen Anteile üblicherweise notwendige Dispersionsrichtung.
  • Beim Erfassen der von den Messpunkten stammenden Intensitäten in der Bildaufnahmeeinheit wird dann die zeitliche Abfolge der Beleuchtung berücksichtigt, um zu bestimmen, für welche Farbe die konfokale Bedingung am besten erfüllt ist. Daraus lässt sich dann für jeden Messpunkt der Abstand zur Oberflächenstruktur ermitteln. Entscheidend ist dabei jeweils die Abfolge innerhalb eines Paares von Einzellichtquelle und zugehörigem Messpunkt. Untereinander kann die zeitliche Abfolge der spektralen Zusammensetzung an den Einzellichtquellen unterschiedlich sein.
  • Unter unterschiedlicher spektraler Zusammensetzung des von den Einzellichtquellen in zeitlicher Abfolge abgegebenen Lichts ist hier vor allem eine unterschiedliche Farbe des Lichts insbesondere mit einem jeweils möglichst engen Wellenlängenband zu verstehen. Vorzugsweise ist die zeitliche Abfolge der spektralen Zusammensetzungen so gewählt, dass das Zentrum des Wellenlängenbandes sich kontinuierlich verändert. Obwohl je nach gewünschter Auflösung auch voneinander beabstandete Wellenlängenbänder denkbar sind, folgen die Wellenlängenbänder vorteilhaft jedoch spektral dicht aufeinander.
  • Als Lichtquelle, die eine solche zeitliche Abfolge der Beleuchtung erzeugen kann, kommen beispielsweise unterschiedlich farbige LEDs oder dergleichen in Frage, die auf denselben Messpunkt abgebildet werden. Vorzugsweise weist die Lichtquelle jedoch vor einem Rasterelement zum Erzeugen der Einzellichtquellen ein dispersives Element mit einer Dispersionsrichtung, insbesondere ein optisches Gitter mit einer Beugungsrichtung, und mindestens eine zumindest teilweise in Dispersionsrichtung ausgerichtete Zeile von einzeln ansteuerbaren breitbandigen Lichtquellen, vorzugsweise Weißlichtquellen, insbesondere LEDs, auf. Unter breitbandigen Lichtquellen wird hier vor allem verstanden, dass der Wechsel der Lichtquellen ohne die Verwendung des dispersiven Elements nicht zu einer ausreichenden Auflösung der chromatisch-konfokalen Bedingung führen würde. Durch die Verwendung des dispersiven Elements fällt beim Schalten der breitbandigen Lichtquellen dennoch nacheinander Licht mit unterschiedlicher Wellenlänge auf das Rasterelement, wodurch die Einzellichtquellen wiederum in entsprechender zeitlicher Abfolge ausreichend unterschiedlich farbiges Licht abgeben.
  • Als Rasterelement kann die Lichtquelle beispielsweise eine Lochrasterblende mit einem Raster von Blendenöffnungen umfassen. Dabei kann der Lochrasterblende ein Mikrolinsenarray vorgeschaltet sein. In diesem Zuge kann auch eine Kondensorlinse zur Anwendung kommen, um möglichst viel Lichtintensität in die Blendenöffnungen zu fokussieren. Alternativ können die Einzellichtquellen auch durch ein aufgespaltetes Lichtfaserbündel dargestellt werden.
  • Vorzugsweise ist die Steuer- und Auswerteeinrichtung derart eingerichtet ist, dass die breitbandigen Lichtquellen in beliebiger aber fest vorgegebener Reihenfolge aktiviert und deaktiviert werden.
  • Dabei können die breitbandigen Lichtquellen mit derselben Frequenz getaktet aktiviert und deaktiviert werden, wobei die Taktungen der einzelnen Weißlichtquellen zueinander phasenverschoben sind. Die Abfolge von farbigem Licht in den Messpunkten ist damit zeitlich zumindest versetzt.
  • Vorzugsweise wendet man eine zur Dispersionsrichtung korrelierende, beispielsweise eine proportionale, zumindest eine monoton steigende oder monoton fallende Phasenverschiebung an, wobei der Betrag der Phasenverschiebung dem gewünschten Dispersionsbereich angepasst ist. Unter der Voraussetzung, dass das über die Mikrolinsen-Optik in die Blendenöffnungen gelangende Licht von mindestens 2 benachbarten LEDs ausgeht, was unter Verwendung von sehr kleinen LEDs und einer entsprechenden Dimensionierung der Mikrolinsenoptik erreicht werden kann, ergibt sich ein praktisch kontinuierliches verändern der zentralen Wellenlänge des Lichtes welches durch die Blendenöffnung gelangt. Die Frequenz, mit welcher so die Lichtfarbe periodisch, kontinuierlich, und rampenförmig durchlaufen wird, entspricht der Taktfrequenz der breitbandigen Lichtquellen. Die Bildaufnahmeeinheit umfasst vorzugsweise ebenfalls ein Rasterelement, dessen Raster optisch äquivalent zum Raster der Einzellichtquellen angeordnet ist. Im einfachsten Fall wird dies durch ein exklusives Auslesen, bzw. Berücksichtigen der entsprechenden Bildpunkte des Bildaufnahmesensors realisiert, und in einem weniger einfachen aber ggf. notwendigen Fall ist dies eine Lochrasterblende, die ein Raster von Blendenöffnungen aufweist.
  • Vorzugsweise umfasst die Bildaufnahmeeinheit einen flächigen Bildaufnahmesensor, der zumindest an den Positionen, an welchen die Messpunkte abgebildet sind, eine zeitliche Diskriminierung der von den Messpunkten rückgestreuten Intensität erlaubt.
  • Vorzugsweise wird dies durch einen Lock-in-Kamera-Sensor möglich. Solche Lock-in-Kamera-Sensoren liefern am Ausgang prinzipiell neben dem Amplitudensignal für jeden Pixel zumindest auch noch ein Phasensignal für einen gegebenenfalls dem Photonenstrom aufgeprägten Wechselanteil.
  • Eine aufwändige Version eines solchen Lock-in-Kamera-Sensors mit erhöhter Empfindlichkeit und Aufnahmegeschwindigkeit und besserer Dynamik steht als pOCT-Sensor (parallel Optical low-Coherence Tomography Sensor) oder Fast-Lock-in-Sensor am Markt zur Verfügung. Eine einfachere Version eines solchen Lock-in-Kamera-Sensors ist mittlerweile als Time-of-Flight-Image-Sensor (TOF-Sensor), auch Distance-Aerea-Image-Sensor (DAI-Sensor) genannt, auf dem Markt kostengünstig erhältlich. Bei einem solchen ToF- oder DAI-Sensor werden für jedes Pixel jeweils mindestens zwei Speicherelemente zum Speichern einer erfassten Photonenintensität verwendet, wobei über eine Synchronisierungseinrichtung und/oder einen Triggeranschluss bestimmt wird in welches der Speicherelemente die momentan auftreffende Photonenintensität aufintegriert wird.
  • Ein solches Verhalten, dass die auftreffende Photonenintensität eines Messpunktes im Wechsel in verschiedenen Speicherelementen aufintegriert werden, lässt sich auch durch einen Full-Frame CCD-Sensor (FF-CCD), oder durch einen Frame-Transfer-CCD-Sensor (FT-CCD), oder durch einen Time-Delayed-Integration-Sensor (TDI) realisieren. Diese Sensoren arbeiten alle nach dem Prinzip, dass die durch die auftreffenden Photonen abgetrennten Ladungen zum Auslesen durch andere Aufnahmezellen (Charged-Coupled-Devices (CCD)) hindurch geleitet werden. Zur Realisierung der hier notwendigen Funktionalität müssen zwischen den auf dem Sensor abgebildeten Messpunkten in Richtung der Ladungskopplung des Sensors noch ausreichend unbelichtete CCD-Zellen zur Verfügung stehen die selbst kein Licht aufnehmen dürfen, also z. B. durch eine zu den Messpunkten passende Rasterblende abgedeckt sind. Dabei könnte auch ein weiteres feststehendes Mikrolinsenarray hilfreich sein um die für gewöhnlich mehr als 10 μm großen Blendenöffnungen der Lochrasterblende auf die Pixeldimension, welche für gewöhnlich kleiner als 10 μm ist, zu verkleinern. Wenn es gelingt die Rasterblendenmatrix und das Mikrolinsenarray so anzuordnen, dass jeder Messpunkt eine eigene Ladungskette, ohne Beeinflussung durch andere Messpunkte hat, so kann in vorteilhafter Weise die Ladungskette eines FF-CCD-Sensors oder TDI-Sensors kontinuierlich ausgelesen werden und sogar noch innerhalb der Auslesung die Integrationszeit durch Ändern der Taktfrequenz kontinuierlich geändert werden. Die ausgelesenen Bilder würden dann in den Spalten jeweils ein Hell-Dunkel-Signal tragen in dessen Phasenverschiebung relativ zum Auslesetakt die Zeitinformation beinhaltet ist.
  • Mit CCD- und TDI-Sensoren ist aber auch durch eine gezielte synchronisierte vor- und/oder rückwärtige Ladungsverschiebung während einer Bildintegration der gleiche Effekt wie im DAI/ToF-Sensor, allerdings mit verminderter Geschwindigkeit, darstellbar.
  • Bei all den genannten Lock-in-Kamera-Sensoren lassen sich aus den ausgelesenen Bilddaten ein Amplituden- und ein Phasensignal gewinnen. Dies ermöglicht eine zeitliche Diskriminierung der von den Messpunkten rückgestreuten Intensität. Die zeitliche Diskriminierung erfolgt dabei mit einer für das dreidimensionale Erfassen der Oberflächenstruktur ausreichend hohen Geschwindigkeit.
  • Alternativ kann die Bildaufnahmeeinheit einen CMOS-Bildwandler mit schneller Auslesemöglichkeit umfassen. CMOS-Bildwandler sind aufgrund ihrer Auslesestrategie prinzipiell geeignet, dass nur kleine Teilbereiche in entsprechend höherer Geschwindigkeit ausgelesen werden. Da bei der hier notwendigen Bildaufnahmeeinheit die Gesamtfläche aller Messpunkte auf dem Sensor nur weniger als 3%, im Extremfall sogar nur 0,1% der gesamten Bildfläche beträgt, kann der CMOS-Sensor bei geeigneter Ansteuerung und geeigneter Auslegung des Messpunkterasters, welches gegebenenfalls auch durch optische Abbildung oder durch Umleitung über optische Fasern erreicht werden kann, mit bis zu 1000facher Bildrate ausgelesen werden. Auch hiermit ist dann prinzipiell eine ausreichende zeitliche Diskriminierung bzw. eine Bestimmung der Phasenlage des Wechselanteils des ankommenden Photonenstroms möglich. Bei einer Umleitung des Ausleselichtes durch optische Fasern kann zudem besonders vorteilhaft auf beliebige kostengünstige oder schnelle Sensorformate, oder auch auf einen einfachen Zeilensensor, oder, da TDI-Sensoren meistens sehr schmal und länglich gebaut sind, auch auf solche kostengünstigere Standard-TDI-Sensoren zurückgegriffen werden.
  • Eine weitere Möglichkeit die zeitliche Diskriminierung mit einem gewöhnlichen Kamera-Sensor mit gewöhnlicher Bildrate zu erzielen, ist durch Anwendung einer schnellen Relativbewegung des aus den Blenden austretenden Lichtes über die Kamera-Sensoroberfläche. Vorzugsweise wird hierzu eine kreisförmige Bewegung des Lichtes der Blendenpunkte, mit einem maximalen Durchmesser etwas kleiner als dem minimalen Abstand der Messblenden entsprechend, durchgeführt. Hierzu kann z. B. der Kamera-Sensor, vorteilhafter Weise jedoch auch nur ein ca. 1:1 bis 1:2 abbildendes Mikrolinsenarray, kreisförmig mit einem Radius von beispielsweise 30–60 μm unter der Aufnahmelochrasteblende mit einem ganzzahlig vielfachen der Bildwiederholrate, und einem ganzzahligen Bruchteil der Licht-Modulationsfrequenz um die Lichtachse schwingen. Der gleiche Effekt könnte durch eine zwischen der Aufnahmelochrasteblende und dem der Kamera-Sensor rotierenden Faserplatte mit schräg gestellten Fasern, oder über eine rotierende oder vibrierende Spiegelplatte oder über eine rotierende oder vibrierende durchsichtige Keilplatte, oder über ein mikromechanisches Spiegel-Array erreicht werden.
  • Eine geeignete zeitliche Diskriminierung des Photonenstroms in den Messpunkten ist nicht nur bei einem periodisch wellenförmig modulierten Photonenstrom in Sinus-, Dreieck- oder Rechteckform, sondern auch bei pulsförmig modulierten Photonenströmen möglich. Eine Diskriminierung eines pulsförmigen Signals ist vorzugsweise mit allen genannten CCD, TDI und CMOS-Sensoren möglich. Zur zeitlichen Diskriminierung von pulsförmigen Photonenströmen sind auch flächige Detektoren aus dem Gebiet der Röntgentechnik (Timepix-Detektoren) geeignet, die den direkten Eintrittszeitpunkt einzelner Photonenquanten mit sehr hoher zeitlicher Auflösung bestimmen.
  • Falls die ankommende Lichtmenge zu gering ist können alle genannten Sensoren gegebenenfalls zur Erhöhung der Empfindlichkeit durch vorgesetzte Lichtverstärkungssysteme wie Mikrokanal-Bildverstärker ergänzt werden. Bei den CCD-Sensoren sind hierfür EMCCD-Sensoren geeignet, welche bereits intern innerhalb der Ladungskette eine Ladungsmultiplikation durchführen.
  • Vorzugsweise ist der Triggeranschluss der oben genannten Bildaufnahmeeinheiten mit der Steuer- und Auswerteeinheit verbunden und diese dazu eingerichtet, den Triggeranschluss mit derselben Frequenz wie die breitbandigen Lichtquellen anzusteuern. Es ist aber auch möglich, dass die Bildaufnahmeeinheit ein Triggersignal zur Ansteuerung der Lichtquellen und des Mikrolinsenarrays sendet. Dadurch kann eine Korrelation der zeitlichen Abfolge innerhalb der Messeinrichtung hergestellt werden. Die Frequenz der Beleuchtungseinrichtung kann dabei zwischen dem 1-fachen und bis zum mehreren Millionenfachen der gewünschten Messpunkt-Bildrate betragen und wird im Wesentlichen durch den Bildwandler bestimmt.
  • Vorzugsweise ist die Steuer- und Auswerteeinheit ferner dazu eingerichtet, aus den von der Bildaufnahmeeinheit gelieferten Messpunktdaten den Abstand der Oberflächenstruktur zur Optik zu bestimmen. Beispielsweise kann bei einem DAI-Sensor die Steuer- und Auswerteeinheit dazu eingerichtet sein, den Abstand aus dem Verhältnis der in den beiden Speicherelementen eines Pixels erfassten Intensitäten zu bestimmen.
  • Unter chromatischer Optik wird in der vorliegenden Anmeldung eine Optik (auch nur eine Linse) verstanden, die eine chromatische Längsaberration CLA aufweist, die ausreicht, um mit den Wellenlängen des verwendeten Lichts den gewünschten Messbereich/Auflösung der Tiefeninformation über die Oberflächenstruktur abzudecken. Vorzugsweise ist daher die Optik eine hyperchromatische Optik, wodurch ein größerer Tiefenmessbereich erreicht wird. Eine hyperchromatische Optik hat eine äquivalente Abbesche Zahl, die kleiner ist als die Abbesche Zahl aller Einzelelemente, d. h. sie hat eine besonders hohe CLA. Vorzugsweise könnte die chromatische Optik durch eine elektrisch verstellbare Linse, vorzugsweise eine Flüssiglinse, ergänzt werden um einen ausreichenden durchgängigen Tiefenmessbereich zu gewährleisten.
  • Sämtliche obige Überlegungen zur Bildaufnahmeeinheit, gelten unabhängig von der Ausgestaltung der Lichtquelle auch für den Fall, dass anstatt der breitbandigen Lichtquellen mit dispersivem Element anderweitig Einzellichtquellen erzeugt werden, deren spektrale Zusammensetzung zeitlich variiert werden kann. Eine solche Lichtquelle kann beispielsweise aus mehreren farbigen LEDs oder aus mehreren farbigen Laserlichtquellen, oder aus Weißlichtquellen mit nachgeschalteten Bandpass-Farbfiltern bestehen, welche mit geeigneten optischen Mitteln z. B. Prismen oder dichroitischen Spiegeln auf das Messpunktraster abgebildet werden und zeitlich individuell ansteuerbar sind. Vorteilhaft wäre hierbei die Überlappung der Wellenlängenbänder dieser Lichtquellen, wobei schmale Lücken zwischen den Wellenlängenbändern dieser Lichtquellen auch noch durch eine entsprechende konfokale Unschärfe, oder durch die elektrisch verstellbare Linse, ausgeglichen werden können.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nachstehend wird die Erfindung anhand mehrerer Ausführungsbeispiele unter Bezugnahme auf die Zeichnung erläutert. Darin zeigt:
  • 1 einen schematischen Längsschnitt durch eine Intraoralkamera zum dreidimensionalen Erfassen einer Oberflächenstruktur;
  • 2 eine perspektivische Darstellung einer Beleuchtungs- und Bildaufnahmeeinheit der Intraoralkamera;
  • 3 eine schematische Darstellung der Intraoralkamera, bei welcher die Bildaufnahmeeinheit einen Lock-In-Sensor und die Lichtquelle eine Weißlicht-LED-Zeile aufweist;
  • 4 eine perspektivische Darstellung einer weiteren Beleuchtungs- und Bildaufnahmeeinheit der Intraoralkamera;
  • 5 eine perspektivische Darstellung einer weiteren Beleuchtungs- und Bildaufnahmeeinheit der Intraoralkamera;
  • 6 eine schematische Darstellung der Intraoralkamera, bei welcher die Bildaufnahmeeinheit einen gewöhnlichen Kamera-Sensor aufweist und die Lichtquelle aus wenigen speziellen farbigen LEDs besteht;
  • 7 eine schematische Darstellung des Detektorpixels und der Ansteuersignale der Intraoralkamera, bei welcher die Bildaufnahmeeinheit einen Timepix-Detektor aufweist und die Lichtquelle kurze Lichtblitze aussendet;
  • 8 eine schematische Darstellung der gewonnen Bilder einer Intraoralkamera, bei welcher die Bildaufnahmeeinheit einen CCD- oder einen TDI-Kamera-Sensor aufweist.
  • DETAILLIERTE BESCHREIBUNG BEVORZUGTER ASUSFÜHRUNGSBEISPIELE
  • 1 zeigt beispielhaft für eine Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur eine Intraoralkamera 10 zur Anwendung in der Dentalmedizin, insbesondere zum Erfassen von Zähnen 13 und deren Oberflächenstruktur 11.
  • Die Intraoralkamera 10 weist ein längliches Gehäuse 12 auf, welches die wesentlichen Komponenten der Intraoralkamera 10 aufnimmt.
  • Im Inneren des Gehäuses 12 ist an dessen proximalen Ende 14 eine Lichtquelle 16 angeordnet, deren detaillierter Aufbau besser aus 2 ersichtlich ist.
  • Die Lichtquelle 16 weist zur Erzeugung des Beleuchtungslichts zunächst eine Zeile 18 von mehreren (hier zehn) nebeneinander angeordneten Weißlicht-LEDs 20.n (20.1 bis 20.10) als einzeln ansteuerbare Weißlichtquellen auf.
  • Ferner weist die Lichtquelle 16 als dispersives Element ein Gitter 22 mit einer Gitterebene 24 und einer Dispersionsrichtung 26 auf.
  • Die Zeile 18 und das Gitter 22 sind dabei derart versetzt zueinander angeordnet, dass für jede Weißlicht-LED 20.n die nullte Beugungsordnung des Gitters 22 nicht unter 0° senkrecht aus dem Gitter 22 austritt, sondern bereits einen Auslenkungswinkel aufweist. Insbesondere ist die Zeile 18 dabei so angeordnet, dass eine senkrechte Projektion der Zeile 18 auf die Gitterebene 24 zumindest eine Richtungskomponente in Dispersionsrichtung 26 aufweist. Vorzugsweise ist die Projektionsrichtung parallel zur Dispersionsrichtung 26. In den Ausführungsbeispielen ist die Zeile 18 aus Kostengründen jeweils geradlinig ausgeführt. Die theoretisch bevorzugte Gestalt der Zeile 18 wäre jedoch ein Kreisbogen, dessen Mittelpunkt im Zentrum des Gitters 22 liegt.
  • Aufgrund der Beugungswirkung des Gitters 22 werden die spektralen Anteile des von den Weißlicht-LEDs 20.n kommenden Beleuchtungslichts in Dispersionsrichtung 26 voneinander getrennt, wobei je nachdem welche Weißlicht-LED 20.n aktiviert ist, im Strahlengang nach dem Gitter 22 jeweils unterschiedlich farbiges Beleuchtungslicht erzeugt wird.
  • Im Strahlengang nach dem Gitter 22 sind ferner ein Mikrolinsenarray 30 und eine Beleuchtungslochrasterblende 32 so angeordnet, dass das vom Gitter 22 kommende, in 1. Ordnung gebeugte, farbige Beleuchtungslicht auf Blendenöffnungen 34 der Beleuchtungslochrasterblende 32 fokussiert wird.
  • Alle Weißlicht-LEDs 20.n der Zeile 18 sind dabei unterhalb der Strahlrichtung 17 der 0. Beugungsordnung der untersten Gitterlinien des Gitters 22 angeordnet, damit kein ungebeugtes weißes Licht durch die Blendenöffnungen 34 tritt. Zur besseren Ausnutzung des von den Weißlicht-LEDs 20.n ausgesendeten Lichtes befindet sich in diesem Strahlengang zudem eine Kondensorlinse 28, welche je nach Position als eine normale konvexe Linse oder als konvexe Zylinderlinse ausgeführt ist.
  • Im weiteren Verlauf des Strahlengangs folgt eine chromatisch-konfokale Optik 40 mit einer optischen Achse 41, entlang welcher ein Polarisationsfilter 43, ein Strahlteilerwürfel 42, eine Verzögerungsplatte 47 und eine hyperchromatische Linsengruppe 44 angeordnet sind. Durch ein weiteres, im zurücklaufenden Strahlengang vor der Bildaufnahmeeinheit 50 eingebautes Polarisationsfilter 53, kann Störlicht, welches nicht den vorgesehenen optischen Strahlengang durchlaufen hat, gemindert werden. Zu diesem Zweck wird als Strahlteilerwürfel 42 vorzugsweise auch ein polarisierender Strahlteilerwürfel 42 verwendet. ein Strahlteilerwürfel 42 und eine hypochromatische Linsengruppe 44 angeordnet ist. Ferner umfasst die Optik 40 am distalen Ende 15 der Intraoralkamera 10 einen Umlenkspiegel 46, mit welchem der Strahlengang auf ein seitlich am Gehäuse 12 angeordnetes Sichtfenster 48 umgelenkt wird.
  • Die Optik 40 ist derart ausgestaltet, dass die Blendenöffnungen 34 der Beleuchtungslochrasterblende 32 auf die zu erfassende Oberfläche 11 abgebildet werden. Die Blendenöffnungen 34 stellen so Einzellichtquellen dar, die auf der Oberflächenstruktur 11 ein Raster von beleuchteten Messpunkten 49 erzeugen. Die Beleuchtungslochrasterblende 32 und die Optik 40 sind dabei so aufeinander abgestimmt, dass die Messpunkte 49 lateral etwa zwischen 100 μm und 500 μm voneinander beabstandet sind, um ein Übersprechen zwischen den Messpunkten 49 zu verhindern.
  • Die Intraoralkamera 10 weist ferner eine Bildaufnahmeeinheit 50 auf, die optisch äquivalent zur Lichtquelle 16 neben dem Strahlteilerwürfel 42 angeordnet ist.
  • Im Ausführungsbeispiel der 1 bis 3 umfasst die Bildaufnahmeeinheit 50 einen Bildwandler 52 sowie eine Aufnahmelochrasterblende 54, die ebenfalls ein Raster von Blendenöffnungen 56 umfasst. In diesem Fall bedeutet eine optisch äquivalente Anordnung der Lichtquelle 16 und der Bildaufnahmeeinheit 50, dass die Optik 40 die Blendenöffnungen 34 der Beleuchtungslochrasterblende 32 und die Blendenöffnungen 56 der Aufnahmelochrasterblende 54 auf dieselben Messpunkte 49 auf der Oberflächenstruktur 11 abbildet.
  • Auf die Aufnahmelochrasterblende 54 wird vorzugsweise verzichtet, wenn der Bildwandler kein CCD-Sensor und die Pixel des Bildwandlers zumindest etwas kleiner sind, als die vorgesehenen Blendenöffnungen 56 sind. Die Funktion der Aufnahmelochrasterblende kann dann einfach durch unterlassene Berücksichtigung der normalerweise durch die Aufnahmelochrasterblende 54 abgedeckten Aufnahmepixel 58 des Bildwandlers 52 erfolgen.
  • Als Bildwandler 52 ist ein Lock-in-Kamera-Sensor vorgesehen, wobei es lediglich von der geforderten Messgeschwindigkeit und Auflösung und dem vorhandenen Störlicht abhängig ist ob hier ein Fast-lock-in-Sensor (pOCT) oder ein Time-of-Flight-Sensor (DAI-Sensor) oder ein entsprechend betriebener CCD-Sensor oder sogar ein entsprechend ausgewerteter schneller CMOS-Sensor verwendet wird. Die hier wesentliche Eigenschaft der Bildaufnahmeeinheit 50 bzw. des Bildwandlers ist, dass jeder Pixel, der Licht an der Position der Blendenöffnungen 56 empfängt, einen Lock-in-Bearbeitungsmechanismus beinhaltet, und somit neben dem Amplitudensignal A auch noch die Phasenlage φ des Wechselanteils des Photonenstroms angibt (vgl. 3). Je nach Typ des verwendeten Lock-in-Kamera-Sensors erfolgt die Ermittlung der Phasenlage φ jedoch auch erst in der Steuer- und Auswerteeinheit 70.
  • Schließlich umfasst die Intraoralkamera 10 noch eine Steuerund Auswerteeinheit 70, die in 1 zu Zwecken der besseren Darstellbarkeit außerhalb des Gehäuses 12 angeordnet ist. Selbstverständlich kann die Steuer- und Auswerteeinheit 70 jedoch auch vollständig oder teilweise innerhalb des Gehäuses 12 angeordnet sein.
  • Die Steuer- und Auswerteeinheit 70 ist zur Steuerung der Weißlicht-LEDs 20.n mit der Zeile 18 der Lichtquelle 16 verbunden. Obwohl eine solche Verbindung am realen System wohl über eine Digitalverbindung, eine Multiplexverbindung oder dergleichen realisiert ist, sind in 3 zum besseren Verständnis jeweils einzelne Leitungen 72.n zu den entsprechenden Weißlicht-LEDs 20.n gezeigt. Dies gilt generell für hier gezeigte Verbindungen.
  • Eingangsseitig ist die Steuer- und Auswerteeinheit 70 über eine Ausleseleitung 73 mit dem Bildwandler 52 verbunden, wobei in dieser Ausleseleitung 73 das Phasensignal φ und das Amplitudensignal A, oder zumindest Rohsignale die zur Berechnung des Phasen- und Amplitudensignals geeignet sind, übertragen wird.
  • Ferner ist die Steuer- und Auswerteeinheit 70 über eine Triggerleitung 74 mit der Bildaufnahmeeinheit 50a verbunden, welche den Nullpunkt der Phasenlage überträgt.
  • Nicht gezeigt ist eine Verbindung der Steuer- und Auswerteeinheit 70 zu einem üblicherweise vorhandenen Anzeigegerät, meist ein Computer mit einem Monitor, der zugleich eine Berechnung der vollständigen Oberflächenstruktur aus den einzelne Aufnahmen, eine Speicherung und eine messtechnische Auswertung der Aufnahmen.
  • Die Intraoralkamera 10 arbeitet wie folgt:
    Mit Hilfe der Steuer- und Auswerteeinheit 70 werden die Weißlicht-LEDs 20.n über die Leitungen 72.n mit Ansteuersignale S.n beaufschlagt.
  • Vorzugsweise werden hier Ansteuersignale verwendet, die zu einer sinus-, dreieck- oder rechteckförmigen Lichtemission führen. In 3 sind beispielsweise Rechtecksignale dargestellt, welche, wie ersichtlich, zueinander jeweils derart Phasenverschoben sind, dass jede Weißlicht-LED 20.n ungefähr eine Phasenverschiebung von maximal φ/m zur nächsten LED verschoben ist. φ ist hierbei der prinzipbedingte Phasenmessbereich des verwendeten Bildaufnahmesensors welcher meistens zumindest π (180° bzw. +/–90°) und maximal 2π (360° bzw. +/–180°) beträgt, und m ist hierbei die Anzahl (vgl. 20.m in 2) der LEDs die notwendig ist um den für den Tiefenmessbereich notwendigen Wellenlängenbereich in der Dispersionseinrichtung darzustellen. Die Gesamtanzahl n der LEDs ist also größer als m, da die Beleuchtungslochrasterblende 32 auch in Dispersionrichtung 26 ausgedehnt ist, und auch die am Rand liegenden Blendenöffnungen 34 den gesamten Wellenlängenbereich übertragen sollen. Die LED 20.x könnte also das gleiche Ansteuersignal wie die LED 20.(x + m) und ggf. 20.(x + 2m) erhalten. Die Frequenz der Ansteuersignale Sn ist hingegen für alle LEDs 20.n gleich und wird erheblich durch den verwendeten Bildaufnahmesensor bestimmt. Bei ToF, bzw. DAI-Sensoren liegt sie im Bereich von 500 kHz bis 40 MHz. Bei pOCT-Sensoren ist der gewöhnliche Arbeitsbereich zwischen 1 kHz und 100 kHz. Wird die Lock-in-Funktion durch einen der genannten geeigneten CCD-Sensoren dargestellt können prinzipiell Frequenzen im Bereich von 1 kHz bis 50 MHz verwendet werden. Falls das Phasensignal unter Verwendung eines CMOS-Sensors gewonnen wird beträgt die Frequenz vorzugsweise maximal einen Bruchteil der maximalen Bildausleserate des Sensors, also weniger als 1 kHz. Die Frequenz sollte jedoch mindestens ein Vielfaches der gewünschten Messpunktabtastrate betragen, also mindestens 100 Hz.
  • Aufgrund dessen, dass jede Weißlicht-LED 20.n unter einem anderen Winkel zum Gitter 22 bezüglich der Dispersionsrichtung 26 steht und die unterschiedlichen spektralen Anteile des einfallenden Lichts am Gitter 22 unterschiedlich stark gebeugt werden, wird jede Blendenöffnungen 34 der Beleuchtungslochrasterblende 32 in zeitlicher Abfolge von unterschiedlich farbigem Beleuchtungslicht beleuchtet. Dadurch erscheinen die Blendenöffnungen 34 als Einzellichtquellen, die in zeitlicher Abfolge ihre Farbe ändern.
  • Da an den Blendenöffnungen 34 das austretende Licht für jede Lichtfarbe eine definierte Phasenlage besitzt und durch die konfokale Diskriminierung in der Aufnahmelochrasterblende 54 nur Photonen eines schmalen Wellenlängenbandes in den jeweiligen Pixel 58 gelangt, korreliert die Phasenlage des Pixelsignals der Bildaufnahmeeinheit 50a direkt mit dem Abstand des Messpunktes von der Objektivlinse.
  • Für die zeitliche Abfolge sind grundsätzliche beliebige Muster denkbar. Die Reihenfolge innerhalb der Abfolge muss jedoch festgelegt sein, damit eine Korrelation mit den Daten der Bildaufnahmeeinheit möglich ist.
  • Über den Strahlteiler 42 und die hyperchromatische Linsengruppe 44 werden die Einzellichtquellen auf die Oberflächenstruktur 11 des Zahnes 13 abgebildet.
  • Aufgrund der erhöhten chromatischen Längsabberation der hyperchromatischen Linsengruppe 44 werden die Einzellichtquellen jedoch je nach momentaner Farbe in unterschiedlicher Entfernung von der Linsengruppe 44 fokussiert. Daher wird jeweils nur dann eine Einzellichtquelle scharf in einen Messpunkt 49 auf der Oberflächenstruktur 11 abgebildet, wenn die Entfernung der Oberflächenstruktur 11 mit der Fokussierungsentfernung der jeweiligen Farbe übereinstimmt. Die anderen Farben werden über einen größeren lateralen Bereich ausgeschmiert, wodurch sie nur noch zu einem kleinen Teil durch die Optik 40 zurück, durch die gegebenenfalls zugehörige Messblende 56, in den zugehörigen Aufnahmepixel 58 des Bildwandlers gelangen.
  • Beispielsweise wird bei typischen hypochromatischen Linsengruppen 44, wie in 3 gezeigt, blaues Licht B näher zur Linsengruppe hin fokussiert als rotes Licht R. Verläuft die Oberflächenstruktur 11 also wie in 3 als gestrichelte Linie 11' gezeigt, so erscheint der beleuchtete Lichtpunkt zu jenem Zeitpunkt scharf, zu welchem von der Einzellichtquelle her blaues Licht B einfällt. Umgekehrt wäre bei der gestrichelt dargestellten Linie 11'' der Zeitpunkt des roten Lichts R maßgeblich.
  • Das von der Oberflächenstruktur 11 zurückgestreute Licht eines scharfen Messpunktes 49 fällt dann wieder weitestgehend derart in die Optik 40 der Intraoralkamera 10, dass der Messpunkt 49 aufgrund des Strahlteilerwürfels 42 in die zugehörige Blendenöffnung 56 bzw. den zugehörigen Aufnahmepixel 58 der Bildaufnahmeeinheit 50a abgebildet wird.
  • Um die erforderliche Tiefenauflösung senkrecht zur Oberflächenstruktur 11 zu erhalten, kommt nun der Lock-In-Kamera-Sensor als Bildwandler 52 zum Einsatz.
  • Wie anhand der durchgezogenen Linie 11 in 3 erkennbar ist, hat die Oberflächenstruktur 11, in dem Messpunkt 49, der zu dem betrachteten Pixel 58 des Lock-in-Kamera-Sensors gehört, einen Abstand zur Optik 40, bei welchem die chromatisch konfokale Bedingung am ehesten für die Lichtfarbe Rot erfüllt ist, welche für diese laterale Messpunktposition durch die Beugung 1. Ordnung am Gitter 22 nur im Lichtstrahl L2 aus der LED 20.2 stammen kann. Das detektierte Lichtsignal im Pixel 58 hat somit die Phasenlage der Leuchtdiode 20.2. Für den Messpunkt 49' stammt diese Lichtfarbe hingegen aus dem Lichtstrahl L1 aus der Leuchtdiode 20.1. und trägt somit deren Phasensignal. Wäre die Oberfläche 11 hingegen durch die Linie 11' dargestellt, so würde das Phasensignal des Pixels 58 durch den Lichtstrahl L2 + m aus der LED 20.m + 2 bestimmt, da nur deren blauer Lichtanteil durch das Gitter in 1. Ordnung in diese Richtung gebeugt wird, und die chromatisch konfokale Bedingung im Punkt B erfüllt ist. Zunächst scheint durch diese Funktionsweise theoretisch nur die Messung von m Tiefenstufen möglich zu sein, da die Lichtstrahlen L, welche den Tiefenmessbereich abdecken, ja nur aus LEDs stammen die im Winkelbereich der 1. Beugungsordnung zwischen den Lichtwellenlängen des konfokalen Tiefenbereichs der hyperchromatischen Linsengruppe liegen. Aufgrund der endlichen Kleinheit der Blenden 34 und 56 gibt es jedoch einen fließenden Übergang zwischen diesen theoretischen Tiefenstufen. So wird im Falle des Messpunktes 49 auch eine kleine Lichtmenge aus der LED 20.3 über den Lichtstrahl L3 zur Beleuchtung des Pixels 58 beitragen, da auch dieses Licht sogar über den gleichen Beugungswinkel am Rand der Blende 34 noch eine identische Wellenlänge zum Messpunkt 49 sendet. Zusätzlich gelangt wegen der Kegelform der farbigen Lichtstrahlen und der endlichen Kleinheit der Messblende 56 auch noch ein nennenswerter Anteil des Lichtes mit benachbarten Wellenlängen in den Aufnahmepixel 58. Dieses Licht stammt dann ebenfalls zu einem kleinen Anteil aus den benachbarten LEDs. Die hinter der Messblende 56, bzw. im Aufnahmepixel 58 gemessene Phase entspricht somit einer Überlagerung des Phasensignals aus mindestens 2 benachbarten LEDs der LED-Zeile 18 und ändert sich kontinuierlich mit dem Abstand des Messpunktes 49.
  • Analog hierzu ist in 7 dargestellt wie die Lichtquellen (16, 16a, 16b, 16c) für einen Betrieb mit überlagerten pulsförmigen Lichtblitzen durch die Signale Sn, Sm beispielsweise angesteuert werden können, um einen Timepix-Detektor als Bildaufnahmesensor 52 in der Bildaufnahmeeinheit 50a zu verwenden. In 7 ist ein einzelner Aufnahmepixel 58 des Timepix-Detektors (T-Pixel) dargestellt. Der ankommende überlagerte Lichtblitz trägt die Tiefeninformation in seiner relativen Ankunftszeit T. Die Photodiode PD und der Verstärker V des T-Pixels erzeugen einen Spannungspuls UP welcher im Komperator K mit der Schwellenspannung US verglichen wird. Der durch das Triggersignal ST gestartete Zähler zählt die Impulse des Zeitsignals SZ bis er durch das Komperatorsignal UK gestoppt wird und liefert so als Ergebnis die relative Ankunftszeit T des überlagerten Lichtblitzes. Da der T-Pixel gegebenenfalls nicht gleichzeitig die Amplitude oder den Zeitpunkt der Unterschreitung der Schwellenspannung UP detektiert ist es gegebenenfalls Notwendig einen 2. Messvorgang mit umgekehrte Impusfolge der Signale Sn, Sm durchzuführen, um die Tiefenmessung nicht zu sehr durch Amplitudenunterschiede der in den Messpunkten 49 gestreuten Lichtblitze zu verfälschen. Vorzugsweise sind die Steuerimpulse Sn, Sm sinusförmig und zum nächsten Nachbar jeweils um 2/3π in ihrer Phase verschoben. Bei geeigneter Dimensionierung der Blenden 34 und 54 und bei geeigneter Positionierung und Dimensionierung der LEDs sind dann, ebenso wie bei der Verwendung symmetrischer Ansteuerung, auch Abständeermittelbar, die nicht einer exakten Fokuslage entsprechen.
  • 4 zeigt eine weitere chromatisch modulierte Lichtquelle die an der in 1 dargestellten Intraoral-3D-Kamera 10 verwendet werden kann. Bei dieser Lichtquelle 16b wird ein Konzentrator 27 verwendet der lediglich notwendig ist um die bereits in den Lichtquellen 21.1 bis 21.3 auf ein begrenztes, verschiedenfarbiges, breites, Wellenlängenband eingegrenztes Farbspektrum zusammenzuführen und zentral durch die Blendenöffnungen 34 des Blendenrasters 32 zu führen. Der Konzentrator 27 ist dann vorzugsweise ein dispersives Element und hier als Prisma ausgeführt. Zur Umlenkung und Verlängerung des Strahlengangs wird vorzugsweise noch ein Umlenkspiegel 19 und eine Blende 23 zur Unterdrückung des direkt in Richtung strahlenden Lichtes eingebaut. Der Konzentrator 27, sowie der Umlenkspiegel 19 und die Blende 23 können dabei auch ganz entfallen wenn die Lichtquellen 21.1 bis 21.m extrem klein ausgeführt sind, sodass die Abbildung jeder Lichtquelle praktisch vollständig durch die Blendenöffnungen 34 in jeden zugehörigen Messpunkt, und zurück durch die Blendenöffnungen 56 in die Bildaufnahmeeinheit gelangt. Eine solche Lichtquelle 16c ist in 5 dargestellt. Vorzugsweise werden in den Lichtquellen 16b und 16c nur wenige, vorzugsweise zwischen 3 und 7, Einzellichtquellen 21.1 bis 21.3 bzw. 21.4 verwendet, deren Wellenlängenspektrum zumindest eine sinus- oder dreiecksähnliche Form besitzen. Zusätzlich müssen sich diese Wellenlängenspektren jeweils bis ca. zu ihrer mittleren Wellenlänge gegenseitig überlappen. In 6 sind Beispielsweise solche bevorzugt verwendeten Wellenlängenspektren I21.1(λ) bis I21.4(λ) für eine Lichtquelle 16b oder 16c mit 4 Einzellichtquellen und die zugehörigen Ansteuersignale S1 bis S4 dargestellt. Angesteuert werden diese Einzellichtquellen ebenfalls mit einem periodischen Signal gleicher Frequenz, welches zu einer sinus- oder dreiecksähnlichen Photonen-Intensitätsmodulation führt. Die Modulation erfolgt ebenfalls phasenversetzt, wie im Ausführungsbeispiel 1 beschrieben. Entsprechend der kleineren Anzahl von z. B. m = 4 Lichtquellen 21.1 bis 21.4 ist der Verschiebungswinkel der Signale S1 bis S4 deutlich größer. Er hat vorzugsweise den Wert 2π/(m + 1). Das durch die Blendenöffnungen 34 der Beleuchtungslochrasterblende 32 gelangende Licht ist dann prinzipiell nahezu weißes Licht, da über eine Ansteuerperiode hinweg alle Wellenlängen ausgesendet werden. Genau betrachtet hat aber jede Wellenlänge Durch Überlagerung der beteiligten Lichtquellen eine eigene Phasenlage die sich kontinuierlich zur Wellenlänge verhält.
  • Das in der Bildaufnahmeeinheit 50 detektierte Signal hat jetzt eine alleinig durch Überlagerung der durch die konfokale Bedingung gefilterten schmalen Farbanteile aus zumindest 2 der überlappenden Spektren I21.m(λ) bestimmte Phasenlage, welche ebenso mit der Tiefe des Messpunktes korreliert wie in Ausführungsbeispiel 1 beschrieben.
  • Eine einzelne Lichtquelle des Ausführungsbeispiels 2 mit einem vorzugsweise verwendeten Wellenlängenspektrum I21.m(λ) kann beispielsweise aus einer farbigen LED, welche bereits ein ausreichendes Wellenlängenband emittiert, oder beispielsweise aus einer blau emittierenden LED oder Laserdiode mit einem nachgeschalteten fluoreszierenden Farbstoff welcher ein entsprechendes Wellenlängenband emittiert, oder aus einer breitbandig emittierenden weißen LED mit einem nachgeschalteten Farbfilter, welcher ein entsprechendes Wellenlängenband durchlässt, hergestellt werden.
  • Da mit den verfügbaren Wellenlängenspektren von Leuchtdioden und den verfügbaren Floureszenzfarbstoffen, und auch mit Farbfiltern in der Praxis jedoch nicht jedes Wellenlängenspektrum darstellbar ist, und auch die Objekte nicht jede Wellenlänge gleich gut zurück streuen könnten, insbesondere mit solchen Lichtquellen 21.m, schlecht messbare Zonen oder Lücken im Tiefenmessbereich entstehen. Zur Behebung dieses Mangels ist in der chromatischen Linsengruppe 44 eine elektrisch verstellbare Linse 45 eingefügt, welche durch eine entsprechende Ansteuerung durch die Steuereinheit 70 eine passende Verschiebung des Tiefenmessbereichs bewirkt. Vorzugsweise wird hierbei eine stufige Ansteuerung, welche mit dem Bildaufnahmezyklus des Kamera-Sensors 52 synchronisiert ist verwendet. Es ist jedoch auch möglich die Linse 45 periodisch anzusteuern, dann muss jedoch die Steuerfrequenz der Lichtquellen 20.n, 21.m ein ganzzahlig vielfaches diese periodischen Signals betragen.
  • Zur Detektion können hier ebenfalls die Lock-in-Kamera Sensorprinzipien verwendet werden. Eine pulsförmige Modulation der Photonenintensität ist hier auch prinzipiell möglich jedoch nicht sinnvoll, da dann zumindest auch noch die Intensitätsverhältnisse des ankommenden Photonenstromes ausgewertet werden müssten.
  • In 5 und 6 ist jedoch für das Ausführungsbeispiel 2 eine Bildaufnahmeeinheit 50b dargestellt, bei welcher ein gewöhnlicher Kamera-Sensor 52 verwendet werden kann. Zur zeitlichen Diskriminierung der in den Messblenden 56 ankommenden Photonenströme werden die Messblenden über ein korrespondierendes Mikrolinsenarray 80, welches durch einen Antrieb 82, vorzugsweise ein Piezoschwinger oder ein magnetisches Schwingsystem, in eine kreisende Schwingbewegung 88 versetzt wird, auf den gewöhnlichen Kamera-Sensor 52 abgebildet. Bei einem vorzugsweise verwendeten leicht vergrößernden Abbildungsmaßstab von ca. 1:1 bis 1:2 entsteht auf dem Kamera-Sensor 52 an jeder Messpunktposition eine kleine ringförmige Belichtung 89, deren Radius ca. doppelt bis 3fach so groß ist wie die Schwingbewegung 88 des Mikrolinsenarrays 80. Die Frequenz für die Lichtquellensignale S1 bis Sm muss dabei ein ganzzahlig vielfaches der Schwingfrequenz des Mikrolinsenarrays SML betragen. Der ringförmigen Belichtung 89 ist dann eine Modulation entsprechend der Phasenlage der ankommenden konfokal diskriminierten Lichtfarbe aufgeprägt. Aus dem Winkel φ dieses Ringmusters lässt sich somit die Tiefe des zugehörigen Messpunktes bestimmen. Im in 5 abgebildeten Beispiel wurde als Steuerfrequenz für die Lichtquellensignale S die doppelte Frequenz der Schwingfrequenz des Mikrolinsenarrays SML gewählt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102006007172 B4 [0002, 0009]

Claims (18)

  1. Vorrichtung (10) zum dreidimensionalen Erfassen einer Oberflächenstruktur (11; 11'; 11''; 11'''), insbesondere zum Erfassen von Zähnen (13), a) mit einer chromatisch-konfokalen Optik (40, 42, 44), die eine optische Achse (41) umfasst, und b) mit einer Lichtquelle (16; 16a; 16b; 16c), die ein Raster von lateral zur optischen Achse (41) beabstandeten Einzellichtquellen (34) aufweist, c) wobei die Optik (40, 42, 44) die Einzellichtquellen (34) derart auf die Oberflächenstruktur (11; 11'; 11''; 11''') abbildet, dass dort ein Raster von Messpunkten (49) erzeugt wird, die voneinander lateral beabstandet sind, d) wobei eine Bildaufnahmeeinheit (50; 50a; 50b) optisch äquivalent zu den Einzellichtquellen (34) angeordnet ist, um das Raster von Messpunkten (49) zu erfassen, dadurch gekennzeichnet, dass e) eine Steuer- und Auswerteeinrichtung (70) vorgesehen ist, die dazu eingerichtet ist, – die Lichtquelle (16; 16a; 16b; 16c) derart anzusteuern, dass die Einzellichtquellen (34) in zeitlicher Abfolge Licht mit unterschiedlicher spektraler Zusammensetzung abgeben, und – mit Hilfe der Bildaufnahmeeinheit (50; 50a; 50b) das Raster von Messpunkten (49) korreliert mit der zeitlichen Abfolge des von den Einzellichtquellen (34) abgegebenen Lichts zu erfassen.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (16a) vor einem Rasterelement (30, 32) zum Erzeugen der Einzellichtquelle (34) ein dispersives Element (22) mit einer Dispersionsrichtung (26) und mindestens eine zumindest teilweise in Dispersionsrichtung (26) ausgerichtete Zeile (18) von einzeln ansteuerbaren breitbandigen Lichtquellen (20.n) aufweist, sodass beim Ansteuern der breitbandigen Lichtquellen (20.n) auf das Rasterelement (30, 32) nacheinander Licht mit unterschiedlicher Wellenlänge fällt.
  3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (16b, 16c) vor einem Rasterelement (30, 32) und einem Konzentrator (19, 27, 28) zum Erzeugen der Einzellichtquellen (34) zumindest zwei breitbandige, einzeln ansteuerbare Lichtquellen (21.m) aufweist, deren Wellenlängenspektrum jeweils eine dreiecksähnliche Intensitätsverteilung aufweist, welche sich zumindest Teilweise überlappen, sodass durch eine periodische phasenversetzte sinusähnliche Ansteuerung der ansteuerbaren Lichtquellen eine periodische Spektrumsverschiebung des Lichtes der Einzellichtquellen (34) durch Überlagerung des Lichtes der breitbandige, einzeln ansteuerbaren Lichtquellen (21.m) erfolgt.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die chromatische Optik (40) polarisierende Komponenten (42, 43, 47, 53) enthält, derart eingebaut, dass im Wesentlichen nur das von der Oberfläche 11 gestreute, und aus der Lichtquelle (16, 16a, 16b) stammende Licht in die Bildaufnahmeeinheit (50, 50a, 50b) gelangt.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die chromatische Linsengruppe (44) eine hyperchromatische Linsengruppe ist.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die chromatische Linsengruppe (44) eine elektromechanisch verstellbare Linse (45) enthält, derart gestaltet, dass Lücken im Tiefenmessbereich, welche durch unzureichende Wellenlängenbänder der Lichtquellen (20.n, 21.m) entstehen überbrückt werden.
  7. Vorrichtung nach Anspruch 2 und 3, dadurch gekennzeichnet, dass die einzeln ansteuerbaren Lichtquellen (20.n, 21.m) in beliebiger aber fest vorgegebener Reihenfolge angesteuert werden.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die einzeln ansteuerbaren breitbandigen Lichtquellen (20.n, 21.m) mit derselben Frequenz eines nahezu zeitlich symmetrischen Hell-Dunkel-Steuersignals angesteuert werden, wobei die Steuersignale der Lichtquellen (20.n, 21.m) zueinander phasenverschoben sind.
  9. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die elektromechanisch verstellbare Linse (45) eine Flüssiglinse ist, welche durch die Steuereinheit mit den Lichtquellen (20.n, 21.m) korreliert wird.
  10. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass über eine Synchronisationsleitung (74) die Steuereinrichtung (70) und die Bildaufnahmeeinheit (50, 50a) in Verbindung stehen um die einzeln ansteuerbaren breitbandigen Lichtquellen (20.n, 21.m) mit der Abtastfrequenz der Bildaufnahmeeinheit zu synchronisieren.
  11. Vorrichtung nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit eine Aufnahmelochrasterblende (54) mit optisch äquivalent zu den Lichtquellen (34) angeordneten Lochblenden (56) enthält, welche durch ein Array aus optischen Fasern auf eine beliebige Anordnung der Detektorpixel (58) umleitet.
  12. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit eine Aufnahmelochrasterblende (54) mit optisch äquivalent zu den Lichtquellen (34) angeordneten Lochblenden (56) enthält, welche durch ein lateral bewegliches Mikrolinsenarray (80) auf einen beliebigen Bildaufnahmesensor (52) abgebildet wird, wobei das lateral bewegliches Mikrolinsenarray (80) zumindest in einer Richtung durch einen Antrieb (82) in eine periodische Bewegung (88) versetzt wird, wobei die Ansteuerfrequenz (Sn, Sm) der Lichtquellen (20.n, 21.m) ein ganzzahlig vielfaches der zur Ansteuerfrequenz (SML) des Mikrolinsenarrays beträgt, und die Ansteuersignale der Lichtquellen (Sn, Sm) mit dem Ansteuersignal (SML) des Mikrolinsenarrays durch die Steuereinheit (70) korreliert wird,.
  13. Vorrichtung nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (50, 50a) einen Fast-Lock-In-Kamera-Sensor (pOCT-Sensor) umfasst, bei welchem jedes Pixel (58) ein Amplitudensignal (A) und ein Phasensignal (φ) des ankommenden Photonenstroms ausgibt, welches direkt mit einer Lock-In-Auswerteschaltung im Pixel 58 gewonnen wird.
  14. Vorrichtung nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (50, 50a) einen Time-Of-Flight-Kamera-Sensor (TOF- oder DAI-Sensor) umfasst, bei welchem jedes Pixel (58) mehrere Amplitudensignale ausgibt woraus sich das Phasensignal des ankommenden Photonenstroms durch die Steuereinheit (70) berechnen lässt.
  15. Vorrichtung nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (50, 50a, 50b) einen Ladungsgkoppelten-Kamerasensor (FF-CCD-, FT-CCD-, TDI-Sensor) umfasst, bei welchem das Phasensignal der Messpunkte durch Auswertung des Amplitudenbildes welches durch eine besondere Ansteuerung (74) der Ladungskopplung gewonnen wurde, durch die Steuereinheit berechnet wird.
  16. Vorrichtung nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (50, 50a, 50b) einen CMOS-Kamera-Sensor umfasst, bei welchem das Phasensignal der Messpunkte durch Auswertung des Amplitudenbildes welches durch schnelles, ausschließliches Auslesen der durch die Messpunkte 56 belichteten Pixel gewonnen wurde, durch die Steuereinheit berechnet wird.
  17. Vorrichtung nach einem der Ansprüche 1 bis 10 und 12, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (50b) einen CMOS-Kamera-Sensor umfasst, bei welchem das Phasensignal der Messpunkte durch Auswertung des Amplitudenbildes (89) welches durch eine laterale Bewegung (88) des Mikrolinsenarrays (80) gewonnen wurde, durch die Steuereinheit berechnet wird.
  18. Vorrichtung nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (50, 50a, 50b) einen Impulse detektierenden Strahlungsbildsensor (Timepix Detektor) umfasst, bei welchem in jedem Pixel die Ankunftszeit eines Pulses gemessen wird, wobei hierfür kurze, intensive Steuersignale (Sm, Sm) welche vorzugsweise sinusförmigem Verlauf der Lichtblitze erzeugen, und welche weiterhin vorzugsweise zum nächsten Nachbar jeweils um 2/3π in ihrer Phase verschoben sind, verwendet werden, und die Tiefeninformation aus den Ankunftszeiten der Lichtblitze durch die Steuereinheit berechnet wird.
DE102016000415.0A 2016-01-19 2016-01-19 Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur Ceased DE102016000415A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102016000415.0A DE102016000415A1 (de) 2016-01-19 2016-01-19 Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur
EP17700423.1A EP3405097B1 (de) 2016-01-19 2017-01-13 Vorrichtung zum dreidimensionalen erfassen einer oberflächenstruktur
PCT/EP2017/050732 WO2017125328A1 (de) 2016-01-19 2017-01-13 Vorrichtung zum dreidimensionalen erfassen einer oberflächenstruktur

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016000415.0A DE102016000415A1 (de) 2016-01-19 2016-01-19 Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur

Publications (1)

Publication Number Publication Date
DE102016000415A1 true DE102016000415A1 (de) 2017-07-20

Family

ID=59256374

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016000415.0A Ceased DE102016000415A1 (de) 2016-01-19 2016-01-19 Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur

Country Status (1)

Country Link
DE (1) DE102016000415A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018107710A1 (de) 2018-03-29 2019-10-02 Dürr Dental SE Intraoraler parallelkonfokaler Oberflächenscanner mit Störlichtsubtraktion
WO2019236948A1 (en) * 2018-06-08 2019-12-12 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
WO2019236934A1 (en) * 2018-06-08 2019-12-12 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a camera
CN110567960A (zh) * 2019-10-10 2019-12-13 湖北淡雅香生物科技股份有限公司 打孔情况在线检装置
WO2020023427A1 (en) 2018-07-24 2020-01-30 Kla-Tencor Corporation Chromatic confocal area sensor
EP3805716A1 (de) * 2019-10-11 2021-04-14 Leica Instruments (Singapore) Pte. Ltd. Lichtdetektionsschaltung, mikroskop und verfahren zur hyperspektralen bildgebung
WO2021175607A1 (de) * 2020-03-05 2021-09-10 Osram Opto Semiconductors Gmbh Optoelektronische vorrichtung und verfahren
EP3985141A1 (de) * 2020-10-13 2022-04-20 ThyssenKrupp Steel Europe AG Verfahren zur ermittlung von kenngrössen an einer oberfläche eines bewegten metallbands
DE102022109014A1 (de) 2022-04-13 2023-10-19 Jenoptik Optical Systems Gmbh Vorrichtung zum Herstellen und/oder Bearbeiten eines Werkstücks, insbesondere zum additiven Herstellen eines Werkstücks und Verfahren zum Betreiben einer Vorrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007019267A1 (de) * 2007-04-24 2008-10-30 Degudent Gmbh Messanordnung sowie Verfahren zum dreidimensionalen Messen eines Objekts
DE102006007172B4 (de) 2006-02-08 2013-01-17 Universität Stuttgart Verfahren und Anordnung zur schnellen, ortsaufgelösten, flächigen, spektroskopischen Analyse, bzw. zum Spectral Imaging oder zur 3D-Erfassung mittels Spektroskopie
DE102013218231A1 (de) * 2013-09-11 2015-03-12 Sirona Dental Systems Gmbh Optisches System zur Erzeugung eines sich zeitlich ändernden Musters für ein Konfokalmikroskop
DE102014002514A1 (de) * 2014-02-21 2015-08-27 Universität Stuttgart Vorrichtung und Verfahren zur multi- oder hyperspektralen Bildgebung und / oder zur Distanz- und / oder 2-D oder 3-D Profilmessung eines Objekts mittels Spektrometrie

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006007172B4 (de) 2006-02-08 2013-01-17 Universität Stuttgart Verfahren und Anordnung zur schnellen, ortsaufgelösten, flächigen, spektroskopischen Analyse, bzw. zum Spectral Imaging oder zur 3D-Erfassung mittels Spektroskopie
DE102007019267A1 (de) * 2007-04-24 2008-10-30 Degudent Gmbh Messanordnung sowie Verfahren zum dreidimensionalen Messen eines Objekts
DE102013218231A1 (de) * 2013-09-11 2015-03-12 Sirona Dental Systems Gmbh Optisches System zur Erzeugung eines sich zeitlich ändernden Musters für ein Konfokalmikroskop
DE102014002514A1 (de) * 2014-02-21 2015-08-27 Universität Stuttgart Vorrichtung und Verfahren zur multi- oder hyperspektralen Bildgebung und / oder zur Distanz- und / oder 2-D oder 3-D Profilmessung eines Objekts mittels Spektrometrie

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M. Hillenbrand, R. Weiss et al.: „Chromatic confocal matrix sensor with actuated pinhole arrays", Applied Optics Vol. 54, No. 15, 4927 – 4936 (2015) *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018107710A1 (de) 2018-03-29 2019-10-02 Dürr Dental SE Intraoraler parallelkonfokaler Oberflächenscanner mit Störlichtsubtraktion
WO2019185386A1 (de) 2018-03-29 2019-10-03 Dürr Dental SE Vorrichtung zum dreidimensionalen erfassen einer oberflächenstruktur, insbesondere zum erfassen von zahnoberflächen
DE102018107710B4 (de) * 2018-03-29 2021-01-14 Dürr Dental SE Intraoraler parallelkonfokaler Oberflächenscanner mit Störlichtsubtraktion
US10753734B2 (en) 2018-06-08 2020-08-25 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
WO2019236934A1 (en) * 2018-06-08 2019-12-12 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a camera
WO2019236948A1 (en) * 2018-06-08 2019-12-12 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
CN112384167A (zh) * 2018-06-08 2021-02-19 登士柏希罗纳有限公司 用于在相机中生成动态投影图案的设备、方法和系统
CN112384167B (zh) * 2018-06-08 2022-02-18 登士柏希罗纳有限公司 用于在相机中生成动态投影图案的设备、方法和系统
WO2020023427A1 (en) 2018-07-24 2020-01-30 Kla-Tencor Corporation Chromatic confocal area sensor
EP3807591A4 (de) * 2018-07-24 2022-03-16 Kla-Tencor Corporation Chromatischer konfokaler flächensensor
CN110567960A (zh) * 2019-10-10 2019-12-13 湖北淡雅香生物科技股份有限公司 打孔情况在线检装置
EP3805716A1 (de) * 2019-10-11 2021-04-14 Leica Instruments (Singapore) Pte. Ltd. Lichtdetektionsschaltung, mikroskop und verfahren zur hyperspektralen bildgebung
WO2021175607A1 (de) * 2020-03-05 2021-09-10 Osram Opto Semiconductors Gmbh Optoelektronische vorrichtung und verfahren
EP3985141A1 (de) * 2020-10-13 2022-04-20 ThyssenKrupp Steel Europe AG Verfahren zur ermittlung von kenngrössen an einer oberfläche eines bewegten metallbands
DE102022109014A1 (de) 2022-04-13 2023-10-19 Jenoptik Optical Systems Gmbh Vorrichtung zum Herstellen und/oder Bearbeiten eines Werkstücks, insbesondere zum additiven Herstellen eines Werkstücks und Verfahren zum Betreiben einer Vorrichtung

Similar Documents

Publication Publication Date Title
DE102016000415A1 (de) Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur
EP3298345B1 (de) Kamera und verfahren zur dreidimensionalen vermessung und farbvermessung eines dentalen objekts
EP2149037B1 (de) Vorrichtung zur lichtdetektion in einem scanmikroskop
DE102004014048B4 (de) Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
DE102010049672B3 (de) Laser-Doppler-Linien-Distanzsensor zur dreidimensionalen Formvermessung bewegter Festkörper
DE102012204128A1 (de) Hochauflösende Scanning-Mikroskopie
DE102007019267A1 (de) Messanordnung sowie Verfahren zum dreidimensionalen Messen eines Objekts
WO2012034852A1 (de) Optisches abbildungssystem zur multispektralen bildgebung
DE102013019348A1 (de) Hochauflösende Scanning-Mikroskopie
DE102007009550B4 (de) Verfahren und Mikroskopvorrichtung zur Beobachtung einer bewegten Probe
EP0675466A2 (de) Verfahren und Anordnung zum Erkennen bzw. Kontrolle von Gegenständen
DE102011109653A1 (de) Laser-Scanning-Mikroskop mit einem Beleuchtungsarray
DE102012217967A1 (de) Konfokales Mikroskop mit frei einstellbarer Probenabtastung
DE102010055882A1 (de) Pinhole für ein konfokales Laser-Scanning Mikroskop
EP0466979B1 (de) Anordnung zur simultanen konfokalen Bilderzeugung
DE102018127281A1 (de) Mikroskop und Verfahren zur Mikroskopie
DE102005042672B4 (de) Photosensor-Chip, Laser-Mikroskop mit Photosensor-Chip und Verfahren zum Auslesen eines Photosensor-Chips
EP3405097B1 (de) Vorrichtung zum dreidimensionalen erfassen einer oberflächenstruktur
WO2012130209A2 (de) Vorrichtung und verfahren zur erfassung und analyse von laserstrahlung
DE10155142C2 (de) Dunkelfeld-Abbildungsvorrichtung zur ortsaufgelösten Dunkelfeldabbildung einer flächigen Probe
DE102012101344A1 (de) Optisches Rastermikroskop mit zwei Scaneinheiten
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
EP4189358A1 (de) Verfahren zum detektieren von emissionslicht, detektionsvorrichtung und laserscanning-mikroskop
DE10253108B4 (de) Verfahren zur Detektion eines Objekts mit einem Rastermikroskop und Rastermikroskop zur Detektion eines Objekts
DE10206004A1 (de) Vorrichtung zur konfokalen optischen Mikroanalyse

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: DUERR DENTAL SE, DE

Free format text: FORMER OWNER: DUERR DENTAL AG, 74321 BIETIGHEIM-BISSINGEN, DE

R082 Change of representative

Representative=s name: OSTERTAG & PARTNER, PATENTANWAELTE MBB, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final