DE202012104074U1 - 3D-Kamera zur dreidimensionalen Überwachung eines Überwachungsbereichs - Google Patents

3D-Kamera zur dreidimensionalen Überwachung eines Überwachungsbereichs Download PDF

Info

Publication number
DE202012104074U1
DE202012104074U1 DE201220104074 DE202012104074U DE202012104074U1 DE 202012104074 U1 DE202012104074 U1 DE 202012104074U1 DE 201220104074 DE201220104074 DE 201220104074 DE 202012104074 U DE202012104074 U DE 202012104074U DE 202012104074 U1 DE202012104074 U1 DE 202012104074U1
Authority
DE
Germany
Prior art keywords
camera
pattern
micromirrors
illumination
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE201220104074
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE201220104074 priority Critical patent/DE202012104074U1/de
Publication of DE202012104074U1 publication Critical patent/DE202012104074U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

3D-Kamera (10) mit mindestens einem Bildsensor (14a–b) und mit mindestens einer Beleuchtungseinheit (100), wobei die Beleuchtungseinheit (100) eine Lichtquelle (104) zum Aussenden eines Lichtstrahls (112) und ein in dem Lichtstrahl (112) angeordnetes optisches Mustererzeugungselement (108) zur Erzeugung eines Beleuchtungsmusters (20) in einem Überwachungsbereich (12) der 3D-Kamera (10) aufweist, dadurch gekennzeichnet, dass das Mustererzeugungselement ein Mikrospiegelarray (108) aufweist.

Description

  • Die Erfindung betrifft eine 3D-Kamera mit mindestens einem Bildsensor und mit mindestens einer Beleuchtungseinheit nach dem Oberbegriff von Anspruch 1.
  • Im Gegensatz zu einer herkömmlichen Kamera nimmt eine 3D-Kamera auch eine Tiefeninformation auf und erzeugt somit dreidimensionale Bilddaten, die auch als Entfernungsbild oder Tiefenkarte bezeichnet werden. Die zusätzliche Entfernungsdimension lässt sich in einer Vielzahl von Anwendungen nutzen, um mehr Informationen über Objekte in der von der Kamera erfassten Szenerie zu gewinnen.
  • 3D-Kameras können beispielsweise in mobilen Anwendungen für die automatisierte Erkennung von Umgebungen eingesetzt werden. Damit orientiert sich ein autonomes Fahrzeug (AGV, automatic guided vehicle) bei seiner Wegplanung, indem anhand von natürlichen oder künstlichen Landmarken die eigene Position bestimmt oder Hindernisse erkannt werden. Solche Informationen lassen sich auch für eine Fahrassistenz nutzen.
  • Ein weiteres Beispiel ist die Sicherheitstechnik. Eine typische sicherheitstechnische Anwendung ist die Absicherung einer gefährlichen Maschine, wie etwa einer Presse oder eines Roboters, wo bei Eingriff eines Körperteils in einen Gefahrenbereich um die Maschine herum eine Absicherung erfolgt. Dies kann je nach Situation die Abschaltung der Maschine oder das Verbringen in eine sichere Position sein. Mit der zusätzlichen Tiefeninformation lassen sich dreidimensionale Schutzbereiche definieren, die genauer an die Gefahrensituation anpassbar sind als zweidimensionale Schutzfelder, und es kann auch besser beurteilt werden, ob sich eine Person in kritischer Weise an die Gefahrenquelle annähert.
  • In einer weiteren Anwendung werden erfasste Bewegungen als Befehl an eine mit der 3D-Kamera verbundene Steuerung interpretiert. Dazu werden beispielsweise Gesten oder Posen erfasst. Obwohl dies in erster Linie aus der Unterhaltungselektronik bekannt ist, kann es auch genutzt werden, um einen Sensor zu bedienen oder zu konfigurieren, wie etwa in der DE 10 2010 017 857 beschrieben.
  • Ein bekanntes Prinzip zur Erfassung dreidimensionaler Bilddaten beruht auf Triangulation unter Zuhilfenahme einer aktiven Musterbeleuchtung. Bei stereoskopischen Systemen werden dann jeweils mindestens zwei Aufnahmen aus unterschiedlicher Perspektive erzeugt. In den überlappenden Bildbereichen werden gleiche Strukturen identifiziert und aus der Disparität und den optischen Parametern des Kamerasystems mittels Triangulation Entfernungen und somit das dreidimensionale Bild beziehungsweise die Tiefenkarte berechnet.
  • Eine Stereokamera ist prinzipiell auch in der Lage, passiv zu arbeiten, d.h. ohne eine eigene Musterbeleuchtung. Für eine zuverlässige Bildauswertung, ganz besonders im Rahmen der Sicherheitstechnik, besteht aber der Anspruch, die dreidimensionalen Bilddaten in Form einer dichten Tiefenkarte zu erzeugen, also einen zuverlässigen Abstandswert für jeden auszuwertenden Bildbereich und bevorzugt nahezu jeden Bildpunkt verfügbar zu haben. Ist die zu überwachende Szenerie kontrastschwach oder weist Bereiche mit wenig Struktur auf, so wird dies mit einem passiven Sensor nicht erreicht. Große strukturlose Flächen oder zueinander ähnliche Strukturmerkmale können eine eindeutige Zuordnung von Bildbereichen beim Auffinden der Korrespondenzen zwischen den Strukturelementen der Bilder verhindern. Die Folge sind Lücken in den dreidimensionalen Bildern oder fehlerhafte Berechnungen der Entfernungen. Somit wird durch eine aktive Beleuchtung die Verfügbarkeit des Systems und zudem die Fremdlichtsicherheit erheblich verbessert,
  • Andere Triangulationssysteme verwenden nur eine Kamera und werten die Veränderungen des projizierten Musters durch Objekte in verschiedenen Entfernungen aus. Dazu wird dem System das Beleuchtungsmuster eingelernt und so eine Erwartungshaltung für die Bilddaten bei verschiedenen Objektentfernungen und -strukturen generiert. Eine Möglichkeit besteht darin, das Beleuchtungsmuster auf Objekten, insbesondere einer Fläche, in verschiedenen Entfernungen als Referenzbild einzulernen. In einem derartigen System ist eine aktive Beleuchtung von vorneherein unverzichtbar.
  • Aus der EP 2 166 304 A1 ist eine Beleuchtungseinheit für eine stereoskopische Sicherheitskamera bekannt. Dabei wird ein selbstunähnliches Beleuchtungsmuster mit Hilfe eines optischen Phasenelements erzeugt, das von einer divergenten Laserlichtquelle durchstrahlt wird. Mit einem solchen Phasenelement sind die notwendigen Intensitäten des Beleuchtungsmusters in einer gewünschten Reichweite nicht zu erzielen.
  • Die EP 2 469 300 A1 offenbart eine 3D-Kamera mit einer Beleuchtungseinheit, die ein Mustererzeugungselement mit einer Vielzahl von Facetten aufweist. Dies erfordert aber die individuelle Ausgestaltung der Facettenlinse oder des Facettenspiegels für ein festgelegtes Beleuchtungsmuster und ist deshalb verhältnismäßig unflexibel.
  • In der US 2007/0263903 A1 erzeugt ein stereoskopisches Kamerasystem mittels einer Beleuchtungseinheit ein strukturiertes Beleuchtungsmuster, welches dann verwendet wird, um Entfernungen zu berechnen. Dabei entsteht das Muster, indem ein diffraktives optisches Element mit einem Laser oder einer LED beleuchtet wird. Problematisch bei der Verwendung eines diffraktiven optischen Elements ist, dass ein relativ großer Lichtanteil in nullter Beugungsordnung transmittiert wird. Es entsteht damit in der Mitte des Musters eine deutlich höhere Energiedichte als am Rand, was sich bei einer Laserschutzbetrachtung nachteilig auswirkt. Denn die Laserschutzklasse wird letztlich durch diese höhere Energiedichte bestimmt, und in den meisten Anwendungen ist eine hohe Laserschutzklasse inakzeptabel. Praktisch kann daher aus Gründen der Augensicherheit diese Beleuchtungseinheit nicht mit den erforderlichen Lichtstärken betrieben werden.
  • In der WO 2009/093228 A2 wird deshalb in einer ähnlichen Anordnung ein zweites diffraktives optisches Element nachgeordnet. Der Lichtstrahl nullter Beugungsordnung wird auf diese Weise nochmals verteilt.
  • Diffraktive optische Elemente erfordern aber abgesehen von den Schwierigkeiten mit der nullten Beugungsordnung stets kohärente Strahlung und damit in der Praxis Laserlichtquellen. Entsprechende Singlemode-Laserdioden mit sehr kleiner Emitterfläche sind aber nur mit relativ geringer Ausgangsleistung deutlich unterhalb einem Watt verfügbar und haben nur eine begrenzte Lebensdauer. Zudem muss die Laserdiode zum Ausleuchten des diffraktiven optischen Elements temperaturstabil gehalten werden, um die optischen Eigenschaften zuverlässig zu erhalten, beispielsweise durch ein kostenintensives zusätzliches Peltierelement.
  • In einem anderen bekannten Ansatz, der beispielsweise in der US 2008/0240502 A1 beschrieben wird, erzeugt ein Dia ein Punktmuster für einen 3D-Sensor. Gemäß US 2010/0118123 A1 weist dieses Dia eine Vielzahl unregelmäßig angeordneter Mikrolinsen auf.
  • Die Verwendung eines Projektionsverfahrens mit einem Dia beziehungsweise einem Dia mit Mikrolinsen ist aber energetisch und damit ökonomisch nur begrenzt effizient. Bei der Verwendung eines herkömmlichen Dias werden die dunklen Bereiche des Beleuchtungsmusters hart abgeschattet und nicht energieeffizient umverteilt. Dadurch geht sehr viel Licht für die Beleuchtung der Szenerie verloren, und es wird sehr viel Abwärme produziert. Je geringer der Füllgrad des Musters ist, also das Verhältnis von Transmissions- zu Gesamtfläche des Dias, desto geringer auch der Wirkungsgrad. Das wirkt sich deshalb besonders nachteilig aus, weil bereits ein Füllgrad von beispielsweise 10–20 % für die Erfassung dichter Tiefenkarten ausreicht. Damit bleiben 80–90 % der Ausgangsleistung ungenutzt. Dies ist nicht nur energetisch ineffizient, sondern treibt auch die Herstellungskosten in die Höhe, weil der Preis von Laserdioden in etwa linear mit der optischen Ausgangsleistung skaliert.
  • Der Einsatz von Dias mit Mikrolinsen erhöht aufgrund der Umverteilung des Lichts die Effizienz im Vergleich zu einem herkömmlichen Dia. Aufgrund der angestrebten Struktur des Beleuchtungsmusters und damit der Verteilung der Mikrolinsen gibt es aber auch hier ungenutzte Teilbereiche, und eine gute Effizienz lässt sich daher nur bis zu einem gewissen Grad erreichen.
  • Aus der DE 103 23 317 A1 ist eine Vorrichtung zur Ablenkung des Strahlenverlaufs in einem optischen System bekannt. Ein Umlenkelement mit mehreren Silizium-Mikrospiegeln sorgt dafür, dass ein gewünschter Bereich abgetastet werden kann. Die Erzeugung dreidimensionaler Bilder ist dabei nicht vorgesehen.
  • Ohne Zusammenhang mit 3D-Sensoren ist bekannt, Mikrospiegel in Projektoren einzusetzen. Dabei geht es dann aber um die Erzeugung von Bildern beispielsweise auf einer Projektionsleinwand, nicht um deren Ausleuchtung zur dreidimensionalen Erfassung einer Szenerie.
  • Es ist daher Aufgabe der Erfindung, die Erzeugung eines Beleuchtungsmusters für eine 3D-Kamera zu verbessern.
  • Diese Aufgabe wird durch eine 3D-Kamera mit mindestens einem Bildsensor und mit mindestens einer Beleuchtungseinheit Anspruch 1 gelöst. Dabei geht die Erfindung von dem Grundgedanken aus, dass das Licht der Lichtquelle von dem Mustererzeugungselement umverteilt wird. Dazu ist ein Mikrospiegelarray (Mikrospiegelfeld) vorgesehen, welches aus dem einfallenden Lichtstrahl das Beleuchtungsmuster erzeugt.
  • Die Erfindung hat den Vorteil, dass Mikrospiegelarrays einen hohen Füllfaktor haben können und deshalb nahezu die gesamte eingestrahlte Energie reflektieren. Somit kann ein Beleuchtungsmuster oder eine strukturierte Beleuchtung mit einem sehr hohen Wirkungsgrad bei zugleich homogener Energieverteilung erzeugt werden. Zugleich geben die Mikrospiegel genügend Flexibilität, um das gewünschte Beleuchtungsmuster zu erzielen.
  • Dabei besteht eine Wahlfreiheit, ob die Lichtquelle einen kohärenten oder inkohärenten Lichtstrahl erzeugt, da die Reflexion an dem Mikrospiegelarray anders als beispielsweise bei einem diffraktiven optischen Element von keinen Kohärenzeigenschaften abhängt, insbesondere nicht wellenlängenabhängig ist. Somit können als Lichtquelle vorzugsweise eine LED oder mehrere LEDs eingesetzt werden. Auch kohärente Lichtquellen wie Laserdioden sind denkbar, sofern höhere Kosten oder geringere Langlebigkeit in Kauf genommen werden. Da es auf Kohärenzeigenschaften nicht ankommt, sind auch große Emitterflächen oder mehrere Einzellaserdioden etwa in Form eines VCSEL-Arrays möglich, um die Ausgangsleistung zu erhöhen.
  • Das Mikrospiegelarray weist bevorzugt eine Vielzahl von Mikrospiegeln auf, um den Lichtstrahl in eine Vielzahl von Einzellichtstrahlen aufzuteilen, so dass jeder Einzellichtstrahl ein Musterelement des Beleuchtungsmusters erzeugt. Vorzugsweise erzeugt dabei jeder Mikrospiegel, sofern er von dem einfallenden Lichtstrahl getroffen wird, gerade einen Einzellichtstrahl und damit ein Musterelement.
  • Das Beleuchtungsmuster ist bevorzugt ein Punktmuster. Dies ist geeignet, der Szenerie eine kontrastreiche Struktur aufzuprägen. Dabei soll hier Punkt nicht im mathematischen Sinne verstanden sein. Eine gewisse Ausdehnung ist nicht nur unvermeidlich, sondern auch unschädlich. Anstelle von Punkten könnte man demnach von Lichtflecken mit gewisser und an sich beliebig geformter, nicht notwendig kreisrunder Querschnittsfläche sprechen.
  • Die Mikrospiegel sind bevorzugt beweglich, wobei die Beleuchtungseinheit eine Ansteuerungseinheit aufweist, um durch Bewegen der Mikrospiegel die Position der Musterelemente zu verändern. Diese Beweglichkeit äußert sich vorzugsweise darin, dass die Kippwinkel oder Reflexionswinkel der Mikrospiegel einzeln oder zumindest gruppenweise verändert werden können. Dementsprechend entsteht ein veränderliches Beleuchtungsmuster, welches durch individuell gestaltbare Kippwinkel genau definiert wird. Diese Variabilität kann bei der Einrichtung der 3D-Kamera verwendet werden, um ein für eine zu überwachende Szenerie geeignetes Beleuchtungsmuster einzustellen. Denkbar ist aber auch eine dynamische Anpassung des Beleuchtungsmusters durch entsprechende Ansteuerung und Änderung der Kippwinkel. Dadurch werden beispielsweise mehr Punkte oder Musterelemente auf einen Bereich gelenkt, in dem besonders wenig natürliche Struktur vorhanden ist, oder wo sich ein interessantes Objekt befindet, welches sogar im Zeitverlauf mit einer dichteren Punktewolke verfolgt werden könnte.
  • Die Mikrospiegel sind bevorzugt strahlformend insbesondere als Hohl- oder Wölbspiegel ausgebildet. Die Mikrospiegel wirken also nicht rein reflexiv, sondern haben aufgrund ihrer konvexen oder konkaven Formgebung zugleich den Effekt einer vor- oder nachgeordneten Linse mit einer der Krümmung entsprechenden Brennweite. Dadurch wird das Licht gebündelt oder aufgeweitet, so dass ein schärferer oder größerer Lichtpunkt in dem Beleuchtungsmuster entsteht.
  • Die Mikrospiegel weisen bevorzugt untereinander unterschiedliche Größen, Kippwinkel und/oder Brennweiten auf. Dadurch erzeugen die Mikrospiegel individuell verschiedene Musterelemente an unterschiedlichen Positionen beziehungsweise mit unterschiedlicher Form und Größe. Im Vergleich zu dem Kippwinkel, dessen Veränderungen bei Mikrospiegelarrays relativ leichter umsetzbar sind, können unterschiedliche Größen oder Brennweiten der Mikrospiegel nur mit vergleichsweise aufwändigen Designänderungen eingeführt werden. Die Beleuchtungseinheit weist bevorzugt ein Abbildungsobjektiv auf, um das Beleuchtungsmuster aus dem Nahfeld hinter dem Mikrospiegelarray in den Überwachungsbereich abzubilden. Eine solche Projektionslinse hinter dem Mikrospiegelarray sorgt dafür, dass sich das Beleuchtungsmuster nicht notwendig in der gewünschten Nutzentfernung ausbilden muss, sondern dorthin projiziert wird. Zusätzlich kann dabei eine Anpassung der Größe der Musterelemente durch entsprechende Bündelung oder Aufweitung vorgenommen werden. Allerdings ist bei entsprechender Ausgestaltung des Mikrospiegelarrays auch möglich, auf ein Abbildungsobjektiv beziehungsweise eine Projektionslinse zu verzichten.
  • Die Beleuchtungseinheit weist bevorzugt mehrere Lichtquellen auf. So lässt sich die optische Ausgangsleistung erhöhen. Das ist auf einfache Weise möglich, weil bei einem Mikrospiegelarray als Mustererzeugungselement keine Rücksicht auf Kohärenzeffekt genommen werden muss. Beispielsweise beleuchten mehrere Lichtquellen dasselbe Mikrospiegelarray aus unterschiedlichen Positionen und/oder Winkeln. Dabei können Bereiche des Mikrospiegelarrays sowohl überlappend mehrfach von mehreren Lichtquellen als auch überlappungsfrei nur einfach von jeweils einer Lichtquelle angestrahlt werden. Prinzipiell ist auch der Einsatz mehrerer Mikrospiegelarrays denkbar, um kachelartig ein größeres Beleuchtungsmuster zu bilden, aber da ohnehin der Einsatz mehrerer Lichtquellen ohne gegenseitige Störung möglich ist, bedarf es dieser Maßnahme in der Regel nicht. Spiegel haben auch im Gegensatz beispielsweise zu Mikrolinsen oder diffraktiven optischen Elementen keine Dispersion, so dass die mehreren Lichtquellen sogar unterschiedliche Wellenlängen aufweisen können.
  • Die 3D-Kamera ist bevorzugt als Stereokamera ausgebildet und weist eine Auswertungseinheit auf, welche für die Anwendung eines Stereoalgorithmus ausgebildet ist, in dem zur Erzeugung eines dreidimensionalen Entfernungsbildes einander zugehörige Teilbereiche der von den beiden Kameras der Stereokamera aufgenommenen Bilder des von dem Beleuchtungsmuster ausgeleuchteten Überwachungsbereichs erkannt und deren Entfernung anhand der Disparität berechnet wird. Der erfindungsgemäß durch das Beleuchtungsmuster erhöhte Kontrast hilft dabei, auch bei einer ungünstigen Szenerie dichte Tiefenkarten zu erfassen. Dazu ist das Beleuchtungsmuster vorzugsweise unregelmäßig oder selbstunähnlich, d.h. die Musterelemente bilden eine zumindest pseudozufällige Anordnung. Dabei kommt es zur Unterstützung des Stereoalgorithmus’ vor allem darauf an, dass Musterelemente zumindest lokal nicht durch Translationen ineinander überführbar sind, somit keine Scheinkorrelationen aufgrund des Beleuchtungsmusters erkannt werden, die keinen Objekten in der Szenerie entsprechen.
  • Die 3D-Kamera ist bevorzugt als Sicherheitskamera ausgebildet, wobei die Auswertungseinheit unzulässige Eingriffe in den Überwachungsbereich erkennen und daraufhin ein Abschaltsignal erzeugen kann, und wobei ein Sicherheitsausgang vorgesehen ist, um darüber ein Abschaltsignal an eine überwachte Maschine auszugeben. Gerade für sicherheitstechnische Anwendungen ist eine zuverlässige Erfassung einer dichten Tiefenkarte erforderlich. Dadurch wird die erforderliche sichere Objektdetektion ermöglicht.
  • Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
  • 1 eine schematische Gesamtdarstellung einer Ausführungsform einer erfindungsgemäßen 3D-Kamera mit dem von deren Beleuchtungseinheit ausgeleuchteten Überwachungsbereich;
  • 2 eine dreidimensionale Ansicht einer Beleuchtungseinheit mit einem Mikrospiegelarray und dem dadurch erzeugten Beleuchtungsmuster;
  • 3a eine Schnittdarstellung eines Mikrospiegelarrays mit unterschiedlichen Kippwinkeln der Mikrospiegel;
  • 3b eine Schnittdarstellung eines Mikrospiegelarrays mit als Hohlspiegel ausgebildeten Mikrospiegeln;
  • 3c eine Schnittdarstellung eines Mikrospiegelarrays mit als Hohlspiegeln ausgebildeten Mikrospiegeln mit unterschiedlichen Kippwinkeln; und
  • 4 eine dreidimensionale Ansicht einer weiteren Ausführungsform einer Beleuchtungseinheit mit einem Mikrospiegelarray und erzeugenden zwei Lichtquellen eines Beleuchtungsmusters.
  • 1 zeigt in einer schematischen dreidimensionalen Darstellung den allgemeinen Aufbau einer erfindungsgemäßen 3D-Kamera 10 nach dem Stereoskopieprinzip, die zur Überwachung eines Raum- oder Überwachungsbereichs 12 eingesetzt ist. Die Erfindung wird an diesem Beispiel einer stereoskopischen 3D-Kamera beschrieben, umfasst aber auch andere triangulationsbasierte 3D-Kameras, etwa mit nur einem Bildsensor und Auswertung der entfernungsabhängigen Veränderungen eines Beleuchtungsmusters, wie sie beispielhaft in der Einleitung genannt sind.
  • In der 3D-Kamera 10 sind zwei Kameramodule in einem bekannten festen Abstand zueinander montiert und nehmen jeweils Bilder des Überwachungsbereichs 12 auf. In jeder Kamera ist ein Bildsensor 14a, 14b vorgesehen, üblicherweise ein matrixförmiger Aufnahmechip, der ein rechteckiges Pixelbild aufnimmt, beispielsweise ein CCD- oder ein CMOS-Sensor. Den Bildsensoren 14a, 14b ist jeweils ein Objektiv mit einer abbildenden Optik zugeordnet, welches als Linse 16a, 16b dargestellt ist und in der Praxis als jede bekannte Abbildungsoptik realisiert sein kann. Der Sichtwinkel dieser Optiken ist in 1 durch gestrichelte Linien dargestellt, die jeweils eine Sichtpyramide 18a, 18b bilden.
  • In der Mitte zwischen den beiden Bildsensoren 14a, 14b ist eine Beleuchtungseinheit 100 dargestellt, wobei diese räumliche Anordnung nur als Beispiel zu verstehen ist und die Beleuchtungseinheit ebenso asymmetrisch oder sogar außerhalb der 3D-Kamera 10 angeordnet sein kann. Die Beleuchtungseinheit 100 erzeugt in einem Beleuchtungsbereich 102 ein strukturiertes Beleuchtungsmuster 20 und wird weiter unten in verschiedenen Ausführungsformen im Zusammenhang mit den 2 bis 4 näher erläutert.
  • Mit den beiden Bildsensoren 14a, 14b und der Beleuchtungseinheit 100 ist eine Auswertungseinheit beziehungsweise Steuerung 22 verbunden. Mittels der Steuerung 22 wird das strukturierte Beleuchtungsmuster 20 erzeugt und bei Bedarf in seiner Struktur oder Intensität variiert, und die Steuerung 22 empfängt Bilddaten der Bildsensoren 14a, 14b. Aus diesen Bilddaten berechnet die Steuerung 22 mit Hilfe einer stereoskopischen Disparitätsschätzung dreidimensionale Bilddaten (Entfernungsbild, Tiefenkarte) des Überwachungsbereichs 12. Das strukturierte Beleuchtungsmuster 20 sorgt dabei für einen guten Kontrast und eine eindeutig zuordenbare Struktur jedes Bildelements in dem beleuchteten Überwachungsbereich 12.
  • An einem Ausgang 24 werden Daten ausgegeben, beispielsweise die Tiefenkarte oder mit Hilfe der Tiefenkarte aufgefundene Informationen über die Szenerie wie Objektkonturen oder Objektpositionen. Prinzipiell ist auch denkbar, nur Rohdaten auszugeben und den Stereoskopiealgorithmus oder weitere Auswertungen extern auszuführen. Die 3D-Kamera 10 ist damit für beliebige Anwendungen ausgelegt. In einer speziellen sicherheitstechnischen Ausführung wird in der Steuerung 22 überprüft, ob in innerhalb des Überwachungsbereichs 12 definierten Schutzbereichen ein unzulässiger Objekteingriff erkannt wird. In diesem Fall wird eine Warnung ausgegeben oder eine Gefahrenquelle abgesichert, beispielsweise ein Roboterarm oder eine sonstige Maschine gestoppt. Um sicherheitsrelevante Signale wie dieses Abschaltsignal auszugeben, ist der Ausgang 24 vorzugsweise als Sicherheitsausgang ausgebildet (OSSD, Output Signal Switching Device). Allgemein wird für sicherheitstechnische Anwendungen die 3D-Kamera 10 durch Maßnahmen wie Selbsttests und diversitär-redundante Ausbildung ihrer Komponenten sicher ausgebildet. Derartige Vorschriften sind für allgemeine berührungslos wirkende Schutzeinrichtungen beispielsweise in der EN 61496-1 bzw. der EN 13849-1 normiert. Eine entsprechende Norm für Sicherheitskameras befindet sich in der Vorbereitung.
  • Die 3D-Kamera 10 wird von einem Gehäuse 26 umgeben und geschützt. Durch eine Frontscheibe 28 kann Licht in und aus dem Überwachungsbereich 12 hindurchtreten. Die Frontscheibe 28 hat Filtereigenschaften, welche auf die Sendefrequenz der Beleuchtungseinheit 100 abgestimmt ist. Selbst mit lichtstarken Beleuchtungseinheiten 100 kann nämlich bei ungünstigen Bedingungen, wie sehr hellen Umgebungen, großen Überwachungsvolumina oder größeren Abständen von 5 Metern und mehr, das Nutzsignal im Rauschen des Gesamtspektrums nicht hinreichend detektiert werden. Mit einer Beleuchtungseinheit 100, die nur Licht in einem oder mehreren schmalen sichtbaren, ultravioletten oder infraroten Bändern aussendet, und einem darauf abgestimmten Filter 28 kann das Signal/Rauschverhältnis ganz erheblich verbessert werden, weil Umgebungslicht außerhalb dieser Bänder keine Rolle mehr spielt. Der optische Filter 28 kann auch anders realisiert sein, etwa in den Objektiven der Kameramodule.
  • 2 zeigt in einer vereinfachten dreidimensionalen Darstellung eine erste Ausführungsform der erfindungsgemäßen Beleuchtungseinheit 100. Wie in der gesamten Beschreibung bezeichnen gleiche Bezugszeichen die gleichen Merkmale. Einer Lichtquelle 104 ist eine strahlformende Optik 106 und ein Mikrospiegelarray 108 mit einer Vielzahl von Mikrospiegeln 110 nachgeordnet. Die Lichtquelle 104 kann kohärentes oder inkohärentes Licht aussenden und beispielsweise eine oder mehrere LEDs oder Laserdioden umfassen. Auch genügen wegen der hohen Lichtausbeute der Beleuchtungseinheit 100 vergleichsweise moderate Ausgangsleistungen, jedoch können besonders für größere Reichweiten auch die stärksten verfügbaren Hochleistungslichtquellen eingesetzt werden.
  • Die Lichtquelle 104 erzeugt einen Lichtstrahl 112, der von der Optik 106 je nach Anforderungen an den Lichtweg gebündelt oder aufgeweitet wird und dann auf das Mikrospiegelarray 108 fällt. Die einzelnen Mikrospiegel 110 teilen den Lichtstrahl 112 in eine Vielzahl von Einzellichtstrahlen 114 auf. Jeder der Einzellichtstrahlen 114 erzeugt in dem Überwachungsbereich 12 beim Auftreffen auf ein Objekt einen Lichtpunkt 116. In ihrer Gesamtheit bilden die Lichtpunkte 116 das Beleuchtungsmuster 20. Dabei ist die Darstellung in den Figuren rein schematisch zu verstehen. In der Regel wird die tatsächliche Anzahl von Lichtpunkten 116 wesentlich höher sein als gezeigt und auch andere Füllgrade erzielen, wobei ein Füllgrad von etwa 10–20 % häufig für eine zuverlässige Aufnahme einer dichten Tiefenkarte ausreicht.
  • Dem Mikrospiegelarray 108 kann in einer weiteren Ausführungsform ein nicht dargestelltes Abbildungsobjektiv nachgeordnet sein, bei dem es sich im einfachsten Fall um eine einzige Linse handelt. Das Abbildungsobjektiv projiziert das von dem Mikrospiegelarray 108 erzeugte Beleuchtungsmuster 20 aus dem Nahfeld in den Überwachungsbereich 12.
  • Der Querschnitt 118 des auf dem Mikrospiegelarray 108 auftreffenden Lichtstrahls 112 stimmt nach Möglichkeit zumindest weitgehend mit der Fläche des Mikrospiegelarrays 108 überein. Oft gilt dies nur in den Grenzen des geometrisch möglichen, etwa weil der Querschnitt 118 gewöhnlich elliptisch und das Mikrospiegelarray 108 vorzugsweise, wenn auch nicht notwendig rechteckig ist. Da in solchen und anderen Fällen eine perfekte Übereinstimmung nur mit aufwändigen Anpassungen erreichbar wäre, gibt es in der Praxis meist nicht angestrahlte Mikrospiegel 110 oder Bereiche, in denen der Querschnitt 118 nicht mit dem Mikrospiegelarray 108 überlappt. Gewöhnlich wird man ersteres vorziehen, da einige ungenutzte Mikrospiegel 110 eher hinnehmbar sind als ein unnötiger Verlust an Ausgangsleistung. Es ist auch möglich, dass der Querschnitt 118 durch Verschieben der Lichtquelle 104 oder des Mikrospiegelarrays 108 auf unterschiedliche Teilbereiche des Mikrospiegelarrays fällt, um so unterschiedliche Beleuchtungsmuster 20 zu erhalten.
  • Die Größe und Form der Lichtpunkte 116 wird außer durch die Entfernung und Ausrichtung der Objektoberfläche, auf welcher der Einzellichtstrahl 114 auftrifft, durch die Geometrie des jeweiligen Mikrospiegels 110 bestimmt. Durch entsprechende Gestaltung der Mikrospiegel 110 kann somit das Beleuchtungsmuster 20 angepasst werden. Dabei wird in einer bevorzugten Ausführungsform ein Punktmuster von Mikrospiegeln 110 mit untereinander gleicher Größe und Geometrie als Beleuchtungsmuster 20 erzeugt. In anderen Ausführungsformen werden Größe und Geometrie mit dem Ergebnis unterschiedlicher Lichtpunkte 116 variiert.
  • Vorzugsweise wird ein unregelmäßiges Beleuchtungsmuster 20 jedoch nicht über unterschiedlich geformte oder ausgedehnte Lichtflecken oder Lichtpunkte 116, sondern über deren unregelmäßige Verteilung innerhalb des Beleuchtungsmusters 20 erreicht. Diese Verteilung kann über verschiedene Kipp- oder Reflexionswinkel der Mikrospiegel definiert vorgegeben werden.
  • Dies wird in 3a in einer Schnittdarstellung des Mikrospiegelarrays 108 illustriert. Die einzelnen Mikrospiegel 110 weisen jeweils eine unterschiedliche Verkippung auf, so dass die Einzellichtstrahlen 114 in einem von der geordneten Matrixstruktur des Mikrospiegelarrays 108 abweichenden, unregelmäßigen Anordnung in den Überwachungsbereich reflektiert werden und dort das unkorrelierte Beleuchtungsmuster 20 bilden. 3a zeigt wegen der Schnittdarstellung nur eine Zeile des Mikrospiegelarrays. Die übrigen Zeilen sind analog aufgebaut, wobei die Verkippung nicht nur in der dargestellten Richtung, sondern auch in der nicht dargestellten Richtung senkrecht zu der Papierebene erfolgt, damit die resultierenden Lichtpunkte 116 in zwei Dimensionen aus der geordneten Matrixstruktur abgelenkt werden können.
  • Die Mikrospiegel 110 sind vorzugsweise mittels einer beispielsweise in der Steuerung 22 implementierten Ansteuereinheit in ihren Kippwinkeln veränderbar. Damit kann das Beleuchtungsmuster 20 während einer Konfigurationsphase der 3D-Kamera 10 angepasst werden. Es ist aber auch möglich, das Beleuchtungsmuster 20 dynamisch während des Betriebs zu verändern, beispielsweise um die Energie durch eine dichtere Punktewolke verstärkt oder ausschließlich auf einen interessanten Bereich (ROI, region of interest) zu richten. Über eine Objektverfolgung kann sogar eine Art Spot auf ein als potentiell gefährlich angesehenes Objekt, ein Hindernis oder die Hand eines Benutzers gerichtet werden, dessen Gesten erkannt werden sollen. Hier sind dann besonders fremdlichtrobust und über große Reichweiten dichte Teiltiefenkarten der als besonders relevant angesehenen Ausschnitte der Szenerie erreichbar.
  • 3b zeigt in einer Schnittdarstellung ähnlich 3a eine weitere Ausführungsform eines Mikrospiegelarrays 108. Anstelle flacher Mikrospiegel 110 sind hier Hohlspiegel vorgesehen. Dadurch erfüllen die Mikrospiegel 110 neben ihrer Funktion, den Lichtstrahl 112 in Einzellichtstrahlen 114 aufzuteilen, auch noch eine Aufgabe als strahlformende Elemente, um die Einzellichtstrahlen 114 zu bündeln oder in einer alternativen Ausführung als Wölbspiegel aufzuweiten. Dadurch können die einzelnen Lichtpunkte 116 angepasst werden.
  • 3c zeigt in einer Schnittdarstellung eine weitere Ausführungsform eines Mikrospiegelarrays 108, welche eine Mischform der in den 3a und 3b gezeigten Mikrospiegelarrays 108 ist. Die einzelnen Mikrospiegel 110 sind demnach einzeln oder in Gruppen durch entsprechende Ansteuerung verkippbar, und zugleich sind sie als Hohl- oder Wölbspiegel ausgebildet.
  • 4 zeigt in einer dreidimensionalen Ansicht eine weitere Ausführungsform einer Beleuchtungseinheit 100. Im Unterschied zu der in 2 dargestellten Ausführungsform sind hier zwei Lichtquellen 104a–b mit zugehörigen strahlformenden Optiken 106a–b vorgesehen. Dadurch wird eine höhere optische Ausgangsleistung oder eine gleiche optische Ausgangsleistung unter Verwendung kostengünstigerer, weniger leistungsstarker Lichtquellen 104a–b ermöglicht. Eine analoge Verallgemeinerung mit zusätzlichen Lichtquellen ist denkbar. Die Querschnitte 118a–b der auf dem Mikrospiegelarray 108 auftreffenden Lichtstrahlen 112a–b können sich in verschiedenen Ausführungsformen vollständig oder partiell überlappen oder einander gänzlich ausweichen. Je nachdem werden unterschiedliche Musterabschnitte als Beleuchtungsmuster 20 nur von einzelnen oder von mehreren Lichtquellen 104a–b erzeugt. Da für die Erzeugung des Beleuchtungsmusters 20 mit einem Mikrospiegelarray 108 kein kohärentes Licht benötigt wird, sind den Kombinationsmöglichkeiten verschiedener Lichtquellen 104 beispielsweise hinsichtlich deren Art, also beispielsweise Laser oder LED, Anzahl, Position, Einfallswinkel oder Wellenlänge kaum Grenzen gesetzt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102010017857 [0005]
    • EP 2166304 A1 [0009]
    • EP 2469300 A1 [0010]
    • US 2007/0263903 A1 [0011]
    • WO 2009/093228 A2 [0012]
    • US 2008/0240502 A1 [0014]
    • US 2010/0118123 A1 [0014]
    • DE 10323317 A1 [0017]
  • Zitierte Nicht-Patentliteratur
    • EN 61496-1 [0042]
    • EN 13849-1 [0042]

Claims (10)

  1. 3D-Kamera (10) mit mindestens einem Bildsensor (14a–b) und mit mindestens einer Beleuchtungseinheit (100), wobei die Beleuchtungseinheit (100) eine Lichtquelle (104) zum Aussenden eines Lichtstrahls (112) und ein in dem Lichtstrahl (112) angeordnetes optisches Mustererzeugungselement (108) zur Erzeugung eines Beleuchtungsmusters (20) in einem Überwachungsbereich (12) der 3D-Kamera (10) aufweist, dadurch gekennzeichnet, dass das Mustererzeugungselement ein Mikrospiegelarray (108) aufweist.
  2. 3D-Kamera (10) nach Anspruch 1, wobei das Mikrospiegelarray (108) eine Vielzahl von Mikrospiegeln (110) aufweist, um den Lichtstrahl (112) in eine Vielzahl von Einzellichtstrahlen (114) aufzuteilen, so dass jeder Einzellichtstrahl (114) ein Musterelement (116) des Beleuchtungsmusters (20) erzeugt.
  3. 3D-Kamera (10) nach Anspruch 1 oder 2, wobei das Beleuchtungsmuster (20) ein Punktmuster ist.
  4. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Mikrospiegel (110) beweglich sind und die Beleuchtungseinheit (100) eine Ansteuerungseinheit (22) aufweist, um durch Bewegen der Mikrospiegel (110) die Position der Musterelemente (116) zu verändern.
  5. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Mikrospiegel (110) strahlformend insbesondere als Hohl- oder Wölbspiegel ausgebildet sind.
  6. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Mikrospiegel (110) untereinander unterschiedliche Größen, Kippwinkel und/oder Brennweiten aufweisen.
  7. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Beleuchtungseinheit (100) ein Abbildungsobjektiv aufweist, um das Beleuchtungsmuster (20) aus dem Nahfeld hinter dem Mikrospiegelarray (108) in den Überwachungsbereich abzubilden.
  8. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Beleuchtungseinheit (100) mehrere Lichtquellen (104a–b) aufweist.
  9. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, die als Stereokamera ausgebildet ist und eine Auswertungseinheit (22) aufweist, welche für die Anwendung eines Stereoalgorithmus ausgebildet ist, in dem zur Erzeugung eines dreidimensionalen Entfernungsbildes einander zugehörige Teilbereiche der von den beiden Kameras der Stereokamera aufgenommenen Bilder des von dem Beleuchtungsmuster (20) ausgeleuchteten Überwachungsbereichs (12) erkannt und deren Entfernung anhand der Disparität berechnet wird.
  10. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, die als Sicherheitskamera ausgebildet ist, wobei die Auswertungseinheit (22) unzulässige Eingriffe in den Überwachungsbereich (12) erkennen und daraufhin ein Abschaltsignal erzeugen kann, und wobei ein Sicherheitsausgang (24) vorgesehen ist, um darüber ein Abschaltsignal an eine überwachte Maschine auszugeben.
DE201220104074 2012-10-23 2012-10-23 3D-Kamera zur dreidimensionalen Überwachung eines Überwachungsbereichs Expired - Lifetime DE202012104074U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201220104074 DE202012104074U1 (de) 2012-10-23 2012-10-23 3D-Kamera zur dreidimensionalen Überwachung eines Überwachungsbereichs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201220104074 DE202012104074U1 (de) 2012-10-23 2012-10-23 3D-Kamera zur dreidimensionalen Überwachung eines Überwachungsbereichs

Publications (1)

Publication Number Publication Date
DE202012104074U1 true DE202012104074U1 (de) 2014-01-27

Family

ID=50098789

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201220104074 Expired - Lifetime DE202012104074U1 (de) 2012-10-23 2012-10-23 3D-Kamera zur dreidimensionalen Überwachung eines Überwachungsbereichs

Country Status (1)

Country Link
DE (1) DE202012104074U1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015110141A1 (de) * 2015-06-24 2016-12-29 Valeo Schalter Und Sensoren Gmbh Sendeeinheit für eine optische Sensorvorrichtung
DE102017205474A1 (de) * 2017-03-31 2018-10-04 Robert Bosch Gmbh Vorrichtung, beispielsweise für einen LIDAR-Sensor, zum Erzeugen von variablen Interferenzmustern und Verfahren zum Betreiben einer solchen Vorrichtung
DE112014006706B4 (de) * 2014-05-27 2020-09-10 Carl Zeiss Industrielle Messtechnik Gmbh Optischer Sensor für ein Koordinatenmessgerät sowie Beleuchtungsmodul für einen solchen optischen Sensor und Verfahren zur Vermessung von Innengewinden oder Bohrlöchern eines Werkstücks mit dem optischen Sensor bzw. Beleuchtungsmodul

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10323317A1 (de) 2003-05-23 2004-12-16 Conti Temic Microelectronic Gmbh Vorrichtung zur Ablenkung des Strahlenverlaufs in einem optischen System sowie Verwendung der Vorrichtung
US20070263903A1 (en) 2006-03-23 2007-11-15 Tyzx, Inc. Enhancing stereo depth measurements with projected texture
US20080240502A1 (en) 2007-04-02 2008-10-02 Barak Freedman Depth mapping using projected patterns
WO2009093228A2 (en) 2008-01-21 2009-07-30 Prime Sense Ltd. Optical designs for zero order reduction
EP2166304A1 (de) 2008-09-23 2010-03-24 Sick Ag Beleuchtungseinheit und Verfahren zur Erzeugung eines selbstunähnlichen Musters
US20100118123A1 (en) 2007-04-02 2010-05-13 Prime Sense Ltd Depth mapping using projected patterns
DE102010017857A1 (de) 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
EP2469300A1 (de) 2011-04-18 2012-06-27 Sick Ag 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10323317A1 (de) 2003-05-23 2004-12-16 Conti Temic Microelectronic Gmbh Vorrichtung zur Ablenkung des Strahlenverlaufs in einem optischen System sowie Verwendung der Vorrichtung
US20070263903A1 (en) 2006-03-23 2007-11-15 Tyzx, Inc. Enhancing stereo depth measurements with projected texture
US20080240502A1 (en) 2007-04-02 2008-10-02 Barak Freedman Depth mapping using projected patterns
US20100118123A1 (en) 2007-04-02 2010-05-13 Prime Sense Ltd Depth mapping using projected patterns
WO2009093228A2 (en) 2008-01-21 2009-07-30 Prime Sense Ltd. Optical designs for zero order reduction
EP2166304A1 (de) 2008-09-23 2010-03-24 Sick Ag Beleuchtungseinheit und Verfahren zur Erzeugung eines selbstunähnlichen Musters
DE102010017857A1 (de) 2010-04-22 2011-10-27 Sick Ag 3D-Sicherheitsvorrichtung und Verfahren zur Absicherung und Bedienung mindestens einer Maschine
EP2469300A1 (de) 2011-04-18 2012-06-27 Sick Ag 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EN 13849-1
EN 61496-1

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014006706B4 (de) * 2014-05-27 2020-09-10 Carl Zeiss Industrielle Messtechnik Gmbh Optischer Sensor für ein Koordinatenmessgerät sowie Beleuchtungsmodul für einen solchen optischen Sensor und Verfahren zur Vermessung von Innengewinden oder Bohrlöchern eines Werkstücks mit dem optischen Sensor bzw. Beleuchtungsmodul
DE102015110141A1 (de) * 2015-06-24 2016-12-29 Valeo Schalter Und Sensoren Gmbh Sendeeinheit für eine optische Sensorvorrichtung
DE102017205474A1 (de) * 2017-03-31 2018-10-04 Robert Bosch Gmbh Vorrichtung, beispielsweise für einen LIDAR-Sensor, zum Erzeugen von variablen Interferenzmustern und Verfahren zum Betreiben einer solchen Vorrichtung
DE102017205474B4 (de) 2017-03-31 2019-06-27 Robert Bosch Gmbh Vorrichtung, beispielsweise für einen LIDAR-Sensor, zum Erzeugen von variablen Interferenzmustern und Verfahren zum Betreiben einer solchen Vorrichtung

Similar Documents

Publication Publication Date Title
EP2772676B1 (de) 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs
EP2469300B1 (de) 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs
DE102011052802B4 (de) 3D-Kamera und Verfahren zur Überwachung eines Raumbereichs
EP1933167B1 (de) Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts
DE102013105105B3 (de) 3D-Kamera mit mindestens einer Beleuchtungsvorrichtung
DE202008017962U1 (de) Beleuchtungseinheit zur Erzeugung eines selbstunähnlichen Musters
DE202008013217U1 (de) Beleuchtung zur Erzeugung eines Kontrastmusters
DE102014104027A1 (de) Optoelektronische Vorrichtung und Verfahren zur Erfassung von Objektinformationen
EP2166305B1 (de) Beleuchtungseinheit und Verfahren zur Projektion eines Beleuchtungsmusters
EP1884804A1 (de) Entfernungsmessgerät
EP3640667B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
WO2012123128A1 (de) Vorrichtung und verfahren zur vermessung eines gegenstandes mittels freiformpotiken
EP3002548B1 (de) Beleuchtungseinrichtung und Verfahren zum Erzeugen eines Beleuchtungsfeldes
DE202008017729U1 (de) Dreidimensionale Überwachung und Absicherung eines Raumbereichs
DE10114784A1 (de) Vorrichtung zur Überwachung eines Schutzfeldes
EP0911664A2 (de) Optische Bildaufnahmeeinrichtung und Verfahren zu deren Nutzung
DE202012104074U1 (de) 3D-Kamera zur dreidimensionalen Überwachung eines Überwachungsbereichs
EP3491413A1 (de) Optische anordnung für ein lidar-system, lidar-system und arbeitsvorrichtung
EP2110699A2 (de) Vorrichtung und Verfahren zum Beleuchten einer Objektszene
WO2015135676A1 (de) Bildaufnahmevorrichtung, insbesondere zur fahrzeugvermessung
DE102008007451A1 (de) Anordnung zur dreidimensionalen Abbildung einer Szene
WO2021121818A1 (de) Sendeeinheit und lidar-vorrichtung mit optischem homogenisierer
DE102007048681A1 (de) Linien-Beleuchtungsvorrichtung für einen Sensor
EP2980527A1 (de) Messeinrichtung zum dreidimensionalen optischen vermessen von objekten mit einem topometrischen sensor sowie verwendung eines multi-laserchip-bauelementes
DE102012100746B4 (de) Sendeeinheit für einen optischen Sensor

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20140306

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R158 Lapse of ip right after 8 years