DE202015105376U1 - 3D camera for taking three-dimensional images - Google Patents

3D camera for taking three-dimensional images Download PDF

Info

Publication number
DE202015105376U1
DE202015105376U1 DE202015105376.2U DE202015105376U DE202015105376U1 DE 202015105376 U1 DE202015105376 U1 DE 202015105376U1 DE 202015105376 U DE202015105376 U DE 202015105376U DE 202015105376 U1 DE202015105376 U1 DE 202015105376U1
Authority
DE
Germany
Prior art keywords
camera
illumination pattern
structured illumination
image
surveillance area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202015105376.2U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE202015105376.2U priority Critical patent/DE202015105376U1/en
Publication of DE202015105376U1 publication Critical patent/DE202015105376U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

3D-Kamera (10) zur Aufnahme von dreidimensionalen Bildern aus einem Überwachungsbereich (12) mit mindestens einem Bildsensor (16a–b) zur Aufnahme von Bilddaten aus dem Überwachungsbereich (12), einer Beleuchtungseinheit (22) zum Erzeugen eines strukturierten Beleuchtungsmusters (28) in dem Überwachungsbereich (12) und mit einer Auswertungseinheit (32), die dafür ausgebildet ist, ein dreidimensionales Bild aus Bilddaten des mindestens einen Bildsensors (14a–b) zu berechnen sowie zunächst eine Vorabaufnahme des Überwachungsbereichs (12) ohne strukturiertes Beleuchtungsmuster (28) zu erzeugen und ein zu projizierendes strukturiertes Beleuchtungsmuster (28) aus der Vorabaufnahme und einem gewünschten strukturierten Beleuchtungsmuster in dem Überwachungsbereich (12) zu berechnen, dadurch gekennzeichnet, dass die Beleuchtungseinheit (22) für die Echtzeitprojektion eines pixelaufgelösten, quantisierten strukturierten Beleuchtungsmusters (28) ausgebildet ist, insbesondere ein schaltbares LED- oder Laserdiodenarray oder ein LCoS aufweist.  3D camera (10) for capturing three-dimensional images from a surveillance area (12) with at least one image sensor (16a-b) for capturing image data from the surveillance area (12), a lighting unit (22) for generating a structured illumination pattern (28) in the monitoring area (12) and with an evaluation unit (32) which is designed to calculate a three-dimensional image from image data of the at least one image sensor (14a-b) and first a pre-image of the monitoring area (12) without a structured illumination pattern (28) and to calculate a structured illumination pattern (28) to be projected from the pre-scan and a desired structured illumination pattern in the surveillance area (12), characterized in that the illumination unit (22) is designed for real-time projection of a pixelized, quantized structured illumination pattern (28) is, in particular a sch old LED or laser diode array or LCoS.

Figure DE202015105376U1_0001
Figure DE202015105376U1_0001

Description

Die Erfindung betrifft eine 3D-Kamera zur Aufnahme von dreidimensionalen Bildern nach dem Oberbegriff von Anspruch 1. The invention relates to a 3D camera for recording three-dimensional images according to the preamble of claim 1.

Im Gegensatz zu einer herkömmlichen Kamera nimmt eine 3D-Kamera auch eine Tiefeninformation auf und erzeugt somit dreidimensionale Bilddaten mit Abstands- oder Entfernungswerten für die einzelnen Pixel des 3D-Bildes, das auch als Entfernungsbild oder Tiefenkarte bezeichnet wird. Die zusätzliche Entfernungsdimension lässt sich in einer Vielzahl von Anwendungen nutzen, um mehr Informationen über Objekte in der von der Kamera erfassten Szenerie zu gewinnen und so verschiedene Aufgaben im Bereich der Industriesensorik zu lösen. In contrast to a conventional camera, a 3D camera also captures depth information and thus generates three-dimensional image data with distance or distance values for the individual pixels of the 3D image, which is also referred to as a distance image or depth map. The extra distance dimension can be used in a variety of applications to gain more information about objects in the scene captured by the camera and to solve various industrial sensor tasks.

In der Automatisierungstechnik können anhand solcher Bildinformationen Objekte erfasst und klassifiziert werden, um weitere automatische Bearbeitungsschritte davon abhängig zu machen, welche Objekte vorzugsweise einschließlich ihrer Position und Orientierung erkannt wurden. Damit kann beispielsweise die Steuerung von Robotern oder verschiedenartigen Aktoren an einem Förderband unterstützt werden. In automation technology, objects can be detected and classified on the basis of such image information in order to make further automatic processing steps dependent on which objects are preferably recognized, including their position and orientation. Thus, for example, the control of robots or various actuators can be supported on a conveyor belt.

In mobilen Anwendungen gewinnt ein Fahrzeug über dreidimensionale Bilddaten Informationen über seine Umgebung und insbesondere einen geplanten Fahrweg. Dies kann für eine autonome Fortbewegung oder eine Fahrassistenz genutzt werden. In mobile applications, a vehicle gains information about its surroundings via three-dimensional image data, and in particular a planned route. This can be used for autonomous locomotion or driving assistance.

Wenn eine Anwesenheit von Personen möglich oder, wie an einem sogenannten kooperativen Arbeitsplatz, sogar erwünscht und vorgesehen ist, treten häufig sicherheitstechnische Aspekte hinzu. Eine typische sicherheitstechnische Anwendung besteht in der Absicherung einer gefährlichen Maschine, wie etwa einer Presse oder eines Roboters, wo bei Eingriff eines Körperteils in einen Gefahrenbereich um die Maschine herum eine Absicherung erfolgt. Dies kann je nach Situation die Abschaltung der Maschine oder das Verbringen in eine sichere Position sein. Mit der zusätzlichen Tiefeninformation lassen sich dreidimensionale Schutzbereiche definieren, die genauer an die Gefahrensituation anpassbar sind als zweidimensionale Schutzfelder, und es kann auch besser beurteilt werden, ob sich eine Person in kritischer Weise an die Gefahrenquelle annähert. When a presence of persons is possible or even desired and provided, as in a so-called cooperative workstation, security aspects are often added. A typical safety application is to secure a dangerous machine, such as a press or a robot, where protection is provided when a body part is engaged in a hazardous area around the machine. Depending on the situation, this can be the shutdown of the machine or the move to a safe position. With the additional depth information, three-dimensional protection areas can be defined which are more precisely adaptable to the danger situation than two-dimensional protection fields, and it can also be better assessed whether a person approaches the danger source in a critical manner.

Zur Ermittlung der Tiefeninformationen sind verschiedene Verfahren bekannt, wie Lichtlaufzeitmessungen (Time-of-Flight), Interferometrie oder Triangulation. Unter den Triangulationsverfahren wiederum können Lichtschnitt- und Projektionsverfahren sowie Stereoskopie unterschieden werden. Beim Lichtschnittverfahren wird das Objekt unter dem Sensor bewegt und aus den gewonnenen streifenbasierten Tiefeninformationen eine 3D-Punktewolke erzeugt. Beim Projektionsverfahren wird beispielsweise ein Streifenmuster auf die abzutastende Oberfläche projiziert und aus Veränderungen des Musters durch die Objekte in der Szene eine Tiefeninformation abgeleitet. Alternativ wird ein sogenanntes selbstunähnliches, also örtlich eindeutiges Muster projiziert. Das Projektionsverfahren mit einem strukturierten Muster wird beispielsweise in der US 7 433 024 verwendet. Dabei wird eine Vielzahl von Referenzbildern des strukturierten Beleuchtungsmusters in unterschiedlichen Abständen eingelernt. Ein später aufgenommenes Bild wird mit diesen Referenzbildern verglichen, um Objektabstände zu schätzen. Stereoskopieverfahren sind dem räumlichen Sehen mit zwei Augen angelehnt und suchen in zwei aus unterschiedlicher Perspektive aufgenommenen Bildern einander zugeordnete Bildelemente, aus deren Disparität in Kenntnis der optischen Parameter der Stereokamera die Entfernung durch Triangulation geschätzt wird. To determine the depth information, various methods are known, such as time-of-flight measurements, interferometry or triangulation. In turn triangulation methods can be used to distinguish between light-section and projection methods and stereoscopy. In the light-section method, the object is moved under the sensor and a 3D point cloud is generated from the strip-based depth information obtained. In the projection method, for example, a striped pattern is projected onto the surface to be scanned, and depth information is derived from changes in the pattern by the objects in the scene. Alternatively, a so-called self-similar, ie locally unique pattern is projected. The projection method with a structured pattern is used, for example, in US Pat US Pat. No. 7,433,024 used. In this case, a multiplicity of reference images of the structured illumination pattern are taught in at different intervals. A later captured image is compared to these reference images to estimate object distances. Stereoscopic methods are based on two-eyed spatial vision and search for associated image elements in two images taken from different perspectives, whose disparity in knowledge of the optical parameters of the stereo camera estimates the distance by triangulation.

Eine wesentliche Herausforderung der bildbasierten 3D-Messtechnik ist, unter den verschiedensten Umgebungsbedingungen flächige, zuverlässige Entfernungsinformationen zu liefern. Für ein passives Stereosystem beispielsweise sind kontrastlose oder sich wiederholende Bildbereiche problematisch, da keine eindeutige Zuordnung von Bildelementen der beiden Aufnahmen möglich ist. Durch eine zusätzliche strukturierte Beleuchtung wird auch solchen Szenen ein ausreichender Kontrast aufgeprägt, so dass der robuste Einsatz für beliebige, auch zuvor unbekannte Szenen ermöglicht wird. Das Beleuchtungsmuster sorgt dafür, dass sich auch in Bereichen ohne natürliche Struktur zuverlässig Korrespondenzen finden lassen. Projektionsverfahren sind ohnehin auf eine Beleuchtung angewiesen. An essential challenge of image-based 3D measurement technology is to provide reliable, reliable distance information under the most diverse environmental conditions. For a passive stereo system, for example, contrastless or repetitive image areas are problematic because no clear assignment of pixels of the two images is possible. An additional structured illumination also gives such scenes a sufficient contrast, so that the robust use is possible for any, even previously unknown scenes. The lighting pattern ensures that reliable correspondences can be found even in areas without a natural structure. Projection methods are dependent on lighting anyway.

Herkömmlich sind die Beleuchtungsmuster meist statisch. Als Mustergenerator werden unter anderem optische Phasenplatten ( EP 2 166 304 A1 ), diffraktive optische Elemente ( US 2007/0263904 A1 ), Dias ( US 2008/0240502 A1 ) oder unregelmäßige Mikrolinsenarrays ( US 2010/0118123 A1 ) vorgeschlagen. Conventionally, the illumination patterns are mostly static. As a pattern generator, inter alia, optical phase plates ( EP 2 166 304 A1 ), diffractive optical elements ( US 2007/0263904 A1 ), Slides ( US 2008/0240502 A1 ) or irregular microlens arrays ( US 2010/0118123 A1 ) proposed.

Ein statisches Beleuchtungsmuster bringt aber Nachteile mit sich. Durch Überlagerung des eigenen Beleuchtungsmusters mit natürlicher Textur der Szenerie oder mit Beleuchtungsmustern anderer Sensoren kann es nämlich passieren, dass Bereiche überbelichtet sind oder die gewünschte Kontrastverbesserung in Summe wieder verlorengeht. Es kommt daher möglicherweise wieder zu einer Kontrast- beziehungsweise Eindeutigkeitsverschlechterung, die letztlich die Qualität und Zuverlässigkeit der Entfernungsinformationen beeinträchtigt. Ein weiterer unerwünschter Nebeneffekt des statischen Beleuchtungsmusters ist, dass die Aufnahmen für eine Visualisierung oder klassische Bildverarbeitung der natürlichen Textur wegen des Beleuchtungsmusters unbrauchbar sind. However, a static lighting pattern has disadvantages. By superimposing the own illumination pattern with natural texture of the scene or with illumination patterns of other sensors, it may happen that areas are overexposed or the desired contrast improvement is lost altogether. Therefore, there may be again a contrast or uniqueness degradation, which ultimately affects the quality and reliability of the range information. Another unwanted side effect of the static illumination pattern is that the shots for a Visualization or classical image processing of the natural texture are useless because of the illumination pattern.

Die EP 2 019 281 A1 beschreibt ein Verfahren, bei dem zunächst in einem Optimierungsprozess eines 3D-Sensors ein Gegenstand ohne Beleuchtung aufgenommen wird. Daraus wird ein Kontrastdatensatz gewonnen, der mit einem für unterschiedliche Setups vorgegebenen optimalen Kontrastdatensatz verglichen wird. Daraus wird dann ein Beleuchtungsmuster bestimmt. Allerdings geht die EP 2 019 281 A1 nicht näher darauf ein, wie sich das gewünschte Beleuchtungsmuster in Echtzeit erzeugen und umschalten lässt. The EP 2 019 281 A1 describes a method in which an object without illumination is first recorded in an optimization process of a 3D sensor. From this, a contrast data set is obtained, which is compared with an optimum contrast data record specified for different setups. From this, a lighting pattern is determined. However, that goes EP 2 019 281 A1 It does not specify how the desired lighting pattern can be generated and switched in real time.

In der EP 2 553 383 B1 wird mit einem Stereoverfahren ein Sichtfeld auf Objekte überwacht. Dazu wird geprüft, ob es in dem Sichtfeld Regionen geringer Textur gibt, die keine Entfernungsbestimmung zulassen. Ist das der Fall, wird in solche Regionen mit einer Beleuchtung künstliche Textur projiziert, bis für eine konfigurierte Überwachungsgrenze ausreichend Textur bereitgestellt ist. Das ist ein vergleichsweise langsames und zielloses iteratives Vorgehen, weil in jeder Iteration nur festgestellt wird, welche Regionen noch zu kontrastschwach sind, nicht aber welches Beleuchtungsmuster das Problem lösen würde und wie es in den erforderlichen Bereichen erzeugt werden kann. In the EP 2 553 383 B1 monitors a field of view for objects using a stereo method. For this purpose, it is checked whether there are regions of low texture in the field of view that do not allow a distance determination. If so, artificial texture is projected into such regions with illumination until sufficient texture is provided for a configured monitor boundary. This is a comparatively slow and aimless iterative approach, because in each iteration it is only ascertained which regions are still too weak in contrast, but which lighting pattern would not solve the problem and how it can be generated in the required areas.

Es ist deshalb Aufgabe der Erfindung, in einer 3D-Kamera für einen ausreichenden Kontrast in der aufzunehmenden Szenerie zu sorgen. It is therefore an object of the invention to provide in a 3D camera for a sufficient contrast in the scene to be recorded.

Diese Aufgabe wird durch eine 3D-Kamera zur Aufnahme von dreidimensionalen Bildern nach Anspruch 1 gelöst. Die 3D-Kamera nimmt mit einem Bildsensor zweidimensionale Bilddaten auf und berechnet daraus in an sich bekannter Weise dreidimensionale Bilder. Die 3D-Kamera kennt außerdem ein gewünschtes strukturiertes Beleuchtungsmuster, welches überall für ausreichend Kontrast sorgen würde. Dieses strukturierte Beleuchtungsmuster kann aber nicht einfach statisch projiziert werden, da es sich in der Szenerie noch mit den natürlichen Kontrasten, Fremdbeleuchtungen insbesondere anderer 3D-Kameras und ähnlichen Effekten überlagert. Deshalb wird zunächst eine Vorabaufnahme ohne strukturiertes Beleuchtungsmuster erzeugt, also ohne künstlichen Kontrast durch die eigene Beleuchtung. Darin werden beispielsweise Kontraste in den zweidimensionalen Bilddaten oder unzuverlässige Bereiche beziehungsweise Lücken in einem aus der Vorabaufnahme erzeugten dreidimensionalen Bild ausgewertet. Daraus wird berechnet, welches zu projizierende strukturierte Beleuchtungsmuster in dem Überwachungsbereich unter Berücksichtigung der Vorabaufnahme das gewünschte strukturierte Beleuchtungsmuster erzeugt. This object is achieved by a 3D camera for recording three-dimensional images according to claim 1. The 3D camera captures two-dimensional image data with an image sensor and calculates three-dimensional images in a manner known per se. The 3D camera also knows a desired structured illumination pattern that would provide sufficient contrast everywhere. However, this structured illumination pattern can not simply be projected statically, since it is superimposed in the scenery with the natural contrasts, external illumination, in particular of other 3D cameras and similar effects. Therefore, a preliminary image is first produced without a structured illumination pattern, ie without artificial contrast through the own illumination. Therein, for example, contrasts in the two-dimensional image data or unreliable regions or gaps in a three-dimensional image generated from the preliminary image are evaluated. From this, it is calculated which patterned illumination pattern to be projected in the surveillance area, taking into account the pre-acquisition, generates the desired structured illumination pattern.

Die Erfindung geht nun von dem Grundgedanken aus, die Adaption anhand einer Vorabaufnahme hochdynamisch und in Echtzeit vorzunehmen. Dazu ist als Beleuchtungseinheit ein echtzeitfähiger Projektor vorgesehen, der ein pixelaufgelöstes, quantisiertes strukturiertes Beleuchtungsmuster projiziert. Anders ausgedrückt erzeugt der Projektor ein Pixelmuster mit schwarz-weißen Pixeln oder Grauwerten. Besonders geeignet als Projektor sind schaltbare Halbleiterarrays mit einer Vielzahl von LEDs oder Laserdioden, insbesondere VCSELs. Dabei entspricht praktisch ein Pixel einer Lichtquelle. Ein anderer geeigneter Projektor nutzt ein Mikro-Display, insbesondere ein LCoS (Liquid Crystal on Silicon). The invention is based on the basic idea of making the adaptation highly dynamic and in real time on the basis of a pre-acquisition. For this purpose, a real-time capable projector is provided as lighting unit, which projects a pixel-resolved, quantized structured illumination pattern. In other words, the projector produces a pixel pattern with black and white pixels or gray scale values. Particularly suitable as a projector are switchable semiconductor arrays with a plurality of LEDs or laser diodes, in particular VCSELs. Practically one pixel corresponds to a light source. Another suitable projector uses a micro-display, in particular a LCoS (Liquid Crystal on Silicon).

Die Erfindung hat den Vorteil, dass flächendeckend und zuverlässig dreidimensionale Bilder unabhängig vom Kontrast der betrachteten Szenerie erzeugt werden. Eine Kontrastverschlechterung durch Überlagerungseffekte mit natürlichem Kontrast oder fremden Lichtquellen wird ausgeglichen. Dies gelingt in Echtzeit und funktioniert daher auch in schnell bewegten Szenerien. Die erfindungsgemäße 3D-Kamera besitzt die Fähigkeit, gezielt auf andere Sensoren beziehungsweise deren Beleuchtungsmuster zu reagieren. Dadurch können beispielsweise mehrere 3D-Kameras nebeneinander gemeinsam und lückenlos beziehungsweise teilüberlappend einen großen Überwachungsbereich abdecken. In mobilen Anwendungen insbesondere an fahrenden Objekten tolerieren sich die 3D-Kameras untereinander durch entsprechende intelligente Anpassung der Beleuchtungsmuster. The invention has the advantage that nationwide and reliable three-dimensional images are generated regardless of the contrast of the observed scenery. Contrast deterioration due to overlay effects with natural contrast or extraneous light sources is compensated. This succeeds in real time and therefore also works in fast moving scenes. The 3D camera according to the invention has the ability to react specifically to other sensors or their illumination pattern. As a result, for example, several 3D cameras can cover a large monitoring area next to each other in common and completely or partially overlapping. In mobile applications, especially on moving objects, the 3D cameras tolerate each other by correspondingly adapting the lighting patterns accordingly.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, den Überwachungsbereich für die Vorabaufnahme mit Hilfe der Beleuchtungseinheit homogen auszuleuchten. Damit wird natürlicher Kontrast auch in dunklen Bereichen der Szenerie erkannt. Eine homogene Ausleuchtung ist überhaupt nur möglich, weil die Beleuchtungseinheit umschaltbar ist, und das auch mit der erforderlichen kurzen Reaktionszeit. Eine Zusatzbeleuchtung wie gelegentlich im Stand der Technik zur verbesserten Visualisierung vorgeschlagen, kann durch diese Doppelfunktion ersetzt werden. Ein homogen ausgeleuchtetes Bild kann nicht nur für die Vorabaufnahme genutzt werden, sondern auch als zweidimensionales Bild zur Visualisierung oder klassischen Bildverarbeitung oder um das dreidimensionale Bild, das ja nur Entfernungen enthält, auch mit der tatsächlichen Textur zu überlagern und so dreidimensional darzustellen. The evaluation unit is preferably designed to homogeneously illuminate the monitoring area for the preliminary recording with the aid of the lighting unit. Thus, natural contrast is detected even in dark areas of the scenery. A homogeneous illumination is only possible because the lighting unit is switchable, and also with the required short reaction time. Additional lighting, as sometimes suggested in the art for improved visualization, may be replaced by this dual function. A homogeneously illuminated image can be used not only for pre-recording, but also as a two-dimensional image for visualization or classical image processing or to superimpose the three-dimensional image, which only contains distances, with the actual texture and thus represent three-dimensional.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, den Überwachungsbereich mit einer homogenen, jedoch im Randbereich überhöhten Intensitätsverteilung auszuleuchten. So wird die homogene Ausleuchtung tatsächlich in der Aufnahme erreicht und gleicht einen Randbereichsabfall von Projektions- beziehungsweise Empfangsoptik aus. Hier wird die schnelle Anpassungsfähigkeit der Beleuchtungseinheit für einen weiteren vorteilhaften Effekt ausgenutzt. The evaluation unit is preferably designed to illuminate the monitoring area with a homogeneous, but in the edge area excessive intensity distribution. Thus, the homogeneous illumination is actually achieved in the image and compensates for a marginal area drop of Projection or reception optics off. Here, the fast adaptability of the lighting unit is exploited for a further advantageous effect.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, wiederholt mit einer Aufnahmefrequenz dreidimensionale Bilder aufzunehmen, dazwischen zyklisch Vorabaufnahmen zu erzeugen und damit das zu projizierende strukturierte Beleuchtungsmuster dynamisch anzupassen. Die Anpassung an eine Szenerie erfolgt somit nicht im Rahmen eines Setups, sondern hochdynamisch im Betrieb unter ständiger Berücksichtigung der Veränderungen in der Szenerie. Erneut ist die Echtzeitfähigkeit der Beleuchtungseinheit dafür die Voraussetzung. The evaluation unit is preferably designed to repeatedly record three-dimensional images with a recording frequency, to cyclically pre-record them in between, and thus dynamically adapt the structured illumination pattern to be projected. The adaptation to a scene is thus not carried out as part of a setup, but highly dynamic in operation, taking into account the changes in the scenery. Once again, the real-time capability of the lighting unit is the prerequisite.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, vor der Aufnahme jedes dreidimensionalen Bildes eine Vorabaufnahme zu erzeugen und mit deren Hilfe ein zu projizierendes strukturiertes Beleuchtungsmuster zu berechnen. In einer solchen Ausführungsform wird jedes dreidimensionale Bild nach individueller Optimierung mit einem neu angepassten Beleuchtungsmuster aufgenommen. Die Vorabaufnahme enthält außerdem jeweils für jedes dreidimensionale Bild die in Echtzeit aufgenommenen zugehörigen zweidimensionalen Bilddaten zur Visualisierung oder für klassische Bildauswertungen. The evaluation unit is preferably designed to generate a pre-image before the recording of each three-dimensional image and with the aid of which to calculate a structured illumination pattern to be projected. In such an embodiment, each three-dimensional image is captured after individual optimization with a newly adapted illumination pattern. For each three-dimensional image, the pre-scan also contains in each case the associated two-dimensional image data taken in real time for visualization or for classical image evaluations.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, das zu projizierende strukturierte Beleuchtungsmuster nur für einen Teilbereich des Überwachungsbereichs zu berechnen. Ein solcher Teilbereich kann beispielsweise ein interessierender Teilbereich (ROI, region of interest), ein Schutzfeld oder ein bestimmtes Objekt sein. Außerhalb des Teilbereichs wird beispielsweise homogen beleuchtet, ein nicht gesondert angepasstes Beleuchtungsmuster projiziert oder gar nicht beleuchtet. So wird Auswertungsaufwand und gegebenenfalls Leistung für die Beleuchtung eingespart. Eine ähnliche Anpassung der Beleuchtung und Auswertung an sich verändernde Aufgaben in Echtzeit besteht darin, mit einer gröberen lateralen Auflösung und Entfernungsauflösung zu arbeiten, bis ein Objekt in einem definierten Entfernungsbereich eintritt, und dann Beleuchtungsmuster und dreidimensionale Bildberechnung auf eine höhere oder die volle Auflösung umzuschalten. The evaluation unit is preferably designed to calculate the structured illumination pattern to be projected only for a partial area of the monitored area. Such a subarea can be, for example, a region of interest (ROI), a protective field or a specific object. Outside the subarea, for example, is homogeneously illuminated, a not separately adapted illumination pattern projected or not illuminated. Thus, evaluation effort and, if necessary, power for the lighting is saved. A similar adaptation of the illumination and evaluation to changing tasks in real time is to work with a coarser lateral resolution and range resolution until an object enters a defined range of distances and then to switch illumination pattern and three-dimensional image calculation to a higher or full resolution.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, in das zu projizierende strukturierte Beleuchtungsmuster eine Zusatzinformation einzublenden. Dabei handelt es sich um einen Teil des strukturierten Beleuchtungsmusters, der für eine Kontrasterhöhung zur zuverlässigeren Erfassung nichts zu tun hat, sondern beispielsweise einen Status, einen Hinweis oder eine Warnung in die Szenerie projiziert, vorzugsweise auf den Boden, um dem Anwender oder anderen Personen eine Hilfestellung zu geben. Beispiele sind Schutzfeldgrenzen, eine Ausrichthilfe, eine Wartungsanforderung, Konturen erkannter Objekte oder eine geplante oder tatsächliche Fahrtrichtung eines Fahrzeugs, an dem die 3D-Kamera montiert ist. The evaluation unit is preferably designed to display additional information in the structured illumination pattern to be projected. It is a part of the structured illumination pattern that has nothing to do for a contrast enhancement for more reliable detection but, for example, projects a status, clue or warning into the scene, preferably on the ground, to the user or other persons To give assistance. Examples are protective field boundaries, an alignment aid, a maintenance request, contours of detected objects or a planned or actual direction of travel of a vehicle on which the 3D camera is mounted.

Die 3D-Kamera ist vorzugsweise als Stereokamera ausgebildet und weist dazu mindestens zwei Kameramodule mit jeweils einem Bildsensor in zueinander versetzter Perspektive sowie eine Stereoskopieeinheit auf, in der mittels eines Stereoalgorithmus‘ einander zugehörige Teilbereiche in von den beiden Kameramodulen aufgenommenen Bilddaten erkannt werden und deren Entfernung anhand der Disparität berechnet wird. Diese Stereokamera wird durch die Beleuchtungseinheit zu einem aktiven Stereosystem mit adaptiver Beleuchtungsanpassung. Die Stereoeinheit ist funktional derjenige Teil der Auswertungseinheit, der aus den Bilddaten dreidimensionale Bilder berechnet. The 3D camera is preferably designed as a stereo camera and has for this purpose at least two camera modules, each with an image sensor in mutually offset perspective and a stereoscopic unit, in which by means of a stereo algorithm 'associated sub-areas are detected in captured by the two camera modules image data and their removal based the disparity is calculated. This stereo camera is transformed by the lighting unit into an active stereo system with adaptive lighting adjustment. The stereo unit is functionally that part of the evaluation unit which calculates three-dimensional images from the image data.

Dabei sind Implementierungen auf einem gemeinsamen oder einem eigenen Chip denkbar. Implementations on a common or a separate chip are conceivable.

Die 3D-Kamera weist bevorzugt eine Triangulationseinheit auf, welche zur Berechnung des dreidimensionalen Bildes das zu projizierende strukturierte Beleuchtungsmuster mit den Bilddaten des Bildsensors korreliert. Damit werden Entfernungen durch ein einleitend kurz erläutertes Projektionsverfahren geschätzt (aktive Triangulation), mit im Prinzip denselben Korrelationsalgorithmen wie bei einer Stereokamera, jedoch unter Verwendung nur einer Kamera und des Beleuchtungsmusters. Das adaptive Beleuchtungsverfahren sorgt dafür, dass das Beleuchtungsmuster überall gut zu sehen ist. Im Gegensatz zu einem Stereoverfahren ist es hier aber nicht möglich, sich auf natürliche Kontraste zu verlassen und entsprechende Teilbereiche unbeleuchtet zu lassen, da die 3D-Erfassung auf dem Beleuchtungsmuster basiert und dies nicht nur eine Hilfe zur besseren Merkmalserfassung ist. Ein Projektionsverfahren kann mit einem Stereoverfahren kombiniert werden, denn jedes Kameramodul einer Stereokamera kann auch dafür eingesetzt werden. Dies dient beispielsweise der redundanten oder diversitärredundanten Entfernungsschätzung mit anschließender Plausibilisierung oder Verrechnung. The 3D camera preferably has a triangulation unit, which correlates the structured illumination pattern to be projected with the image data of the image sensor in order to calculate the three-dimensional image. Thus, distances are estimated by an initially briefly explained projection method (active triangulation), with in principle the same correlation algorithms as in a stereo camera, but using only one camera and the illumination pattern. The adaptive lighting process ensures that the lighting pattern is clearly visible everywhere. In contrast to a stereo method, however, it is not possible to rely on natural contrasts and to leave corresponding subregions unlit because the 3D detection is based on the illumination pattern and this is not only an aid to better feature detection. A projection method can be combined with a stereo method, because any camera module of a stereo camera can also be used for it. This serves, for example, for the redundant or diversified redundant distance estimation with subsequent plausibility check or clearing.

Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die einzige Abbildung der Zeichnung zeigt in: The invention will be explained in more detail below with regard to further features and advantages by way of example with reference to embodiments and with reference to the accompanying drawings. The only illustration of the drawing shows in:

1 eine schematische Darstellung einer 3D-Kamera. 1 a schematic representation of a 3D camera.

1 zeigt in einer schematischen dreidimensionalen Darstellung den allgemeinen Aufbau einer 3D-Kamera 10 zur Aufnahme von dreidimensionalen Bildern, auch als Entfernungsbilder oder Tiefenkarten bezeichnet, eines Raum- oder Überwachungsbereichs 12. Diese Tiefenkarten werden beispielsweise für eine der einleitend genannten Anwendungen weiter ausgewertet. 1 shows in a schematic three-dimensional representation of the general structure a 3D camera 10 for recording three-dimensional images, also referred to as distance images or depth maps, of a spatial or monitoring area 12 , These depth maps are further evaluated for example for one of the aforementioned applications.

In der 3D-Kamera 10 sind zwei Kameramodule 14a–b in einem bekannten festen Abstand zueinander montiert und nehmen jeweils Bilder des Überwachungsbereichs 12 auf. In jeder Kamera ist ein Bildsensor 16a–b vorgesehen, üblicherweise ein matrixförmiger Aufnahmechip, der ein rechteckiges Pixelbild aufnimmt, beispielsweise ein CCD- oder ein CMOS-Sensor. Den Bildsensoren 16a–b ist jeweils ein Objektiv mit einer abbildenden Optik zugeordnet, welches als Linse 18a–b dargestellt ist und in der Praxis als jede bekannte Abbildungsoptik realisiert sein kann. Der Sichtwinkel dieser Optiken ist in 1 durch gestrichelte Linien dargestellt, die jeweils eine Sichtpyramide 20a–b bilden. In the 3D camera 10 are two camera modules 14a -B mounted at a known fixed distance from each other and take pictures of the surveillance area 12 on. In every camera is an image sensor 16a B, usually a matrix-shaped receiving chip which receives a rectangular pixel image, for example a CCD or a CMOS sensor. The image sensors 16a -B is in each case associated with a lens with an imaging optics, which as a lens 18a -B is shown and may be implemented in practice as any known imaging optics. The viewing angle of these optics is in 1 represented by dashed lines, each with a viewing pyramid 20a -B form.

Beispielsweise zwischen den beiden Bildsensoren 16a–b angeordnet ist eine Beleuchtungseinheit 22 mit mindestens einer Lichtquelle 24 und einer Sendeoptik 26. Alternativ zu einer integrierten Beleuchtungseinheit 22 ist auch eine externe Beleuchtungseinheit denkbar. Die Beleuchtungseinheit 22 wird über eine in 1 nur als Verbindungslinie gezeigte elektrische Schnittstelle angesteuert und ermöglicht in Echtzeit die Projektion eines pixelbasierten, quantisierten strukturierten Beleuchtungsmusters 28, das vereinfachend als Punktmuster dargestellt ist. Praktisch sollte das Beleuchtungsmuster 28 vorzugsweise zumindest lokal eindeutig oder selbstunähnlich in dem Sinne sein, dass Strukturen des Beleuchtungsmusters 28 nicht zu Scheinkorrelationen führen, beziehungsweise einen Beleuchtungsbereich eindeutig kennzeichnen. For example, between the two image sensors 16a -B is arranged a lighting unit 22 with at least one light source 24 and a transmission optics 26 , Alternatively to an integrated lighting unit 22 An external lighting unit is also conceivable. The lighting unit 22 will have an in 1 only electrical connection shown as a connecting line and allows in real time the projection of a pixel-based, quantized structured illumination pattern 28 , which is simplified as a dot pattern. Practically, the lighting pattern should be 28 preferably at least locally be unique or selbstunähnlich in the sense that structures of the illumination pattern 28 do not lead to apparent correlations, or clearly identify a lighting area.

Die Beleuchtungseinheit 22 ist in der Lage, in Echtzeit ein über die elektrische Schnittstelle vorgegebenes beliebiges Pixelmuster als strukturiertes Beleuchtungsmuster 28 zu projizieren. Eine solche adaptive, dynamische Beleuchtungseinheit 22 kann beispielsweise durch Einsatz eines Mikro-Displays (LCoS, Liquid Crystal on Silicon) mit einer Lichtquelle in Form von einer oder mehreren Hochleistungs-LEDs oder Laserdioden, insbesondere in einem Array, realisiert werden. Derartige Mikro-Displays arbeiten insbesondere in einer reflektiven Anordnung und prägen dem zunächst noch unstrukturierten Licht der Lichtquelle das Pixelmuster des Beleuchtungsmusters 28 auf. Alternativ nutzt die Beleuchtungseinheit 22 ein schaltbares Array von LEDs oder Laserdioden, insbesondere VCSELs. Hier bilden die einzelnen Lichtquellen 24 selbst die Pixel des Beleuchtungsmusters 28. The lighting unit 22 is able, in real time, an arbitrary pixel pattern given as a structured illumination pattern via the electrical interface 28 to project. Such an adaptive, dynamic lighting unit 22 For example, it can be realized by using a micro-display (LCoS, Liquid Crystal on Silicon) with a light source in the form of one or more high-power LEDs or laser diodes, in particular in an array. Such micro-displays work in particular in a reflective arrangement and shape the initially unstructured light of the light source the pixel pattern of the illumination pattern 28 on. Alternatively, the lighting unit uses 22 a switchable array of LEDs or laser diodes, in particular VCSELs. Here are the individual light sources 24 even the pixels of the illumination pattern 28 ,

Mit den beiden Bildsensoren 16a–b und der Beleuchtungseinheit 22 ist eine kombinierte Auswertungs- und Steuerungseinheit 30 verbunden, die im Rahmen dieser Beschreibung nur als Auswertungseinheit bezeichnet wird. Mittels der Auswertungseinheit 30 wird das jeweils zu projizierende strukturierte Beleuchtungsmuster 28 vorgegeben berechnet beziehungsweise vorgegeben, und sie empfängt Bilddaten der Bildsensoren 16a–b. Aus diesen Bilddaten berechnet eine Stereoeinheit 32 der Auswertungseinheit 30 mit einem an sich bekannten Stereoalgorithmus dreidimensionale Bilddaten des Überwachungsbereichs 12. With the two image sensors 16a -B and the lighting unit 22 is a combined evaluation and control unit 30 connected, which is referred to in this description only as an evaluation unit. By means of the evaluation unit 30 becomes the structured illumination pattern to be projected 28 preset calculated and given, and it receives image data of the image sensors 16a b. From this image data calculates a stereo unit 32 the evaluation unit 30 With a stereo algorithm known per se three-dimensional image data of the surveillance area 12 ,

Über einen Ausgang 34 kann die 3D-Kamera dreidimensionale Bilddaten, aber auch andere Messergebnisse ausgeben, beispielsweise Rohbilddaten eines Kameramoduls 14a–b, Auswertungsergebnisse wie Objektdaten oder die Identifizierung bestimmter Objekte. Speziell in sicherheitstechnischer Anwendung kann das Erkennen eines unzulässigen Eingriffs in Schutzfelder, die in dem Überwachungsbereich 12 definiert wurden, zur Ausgabe eines sicherheitsgerichteten Abschaltsignals führen. Dazu ist der Ausgang 34 vorzugsweise als Sicherheitsausgang (OSSD, Output Signal Switching Device) ausgeführt. About an exit 34 For example, the 3D camera can output three-dimensional image data, but also other measurement results, for example raw image data of a camera module 14a -B, evaluation results such as object data or the identification of specific objects. Especially in safety applications, the detection of an impermissible intervention in protective fields in the surveillance area 12 have led to the output of a safety-related shutdown signal. This is the exit 34 preferably executed as a safety output (OSSD, Output Signal Switching Device).

Beleuchtungseinheit 22 und Bildsensoren 16a–b sollten vorzugsweise einen Registrier- beziehungsweise Kalibrierprozess durchlaufen, damit die genaue Zuordnung zwischen Beleuchtungspixeln und den aufgenommenen Pixeln bestimmt ist. Bei einer integrierten Beleuchtungseinheit 22 wie in 1 dargestellt, geschieht dies bevorzugt schon ab Werk, während eine externe Beleuchtungseinheit 22 im Feld kalibriert werden muss. lighting unit 22 and image sensors 16a Preferably, b should undergo a registration or calibration process to determine the exact association between illumination pixels and captured pixels. For an integrated lighting unit 22 as in 1 shown, this is preferably done from the factory, while an external lighting unit 22 must be calibrated in the field.

Erfindungsgemäß ist vorgesehen, dass das jeweils projizierte Beleuchtungsmuster 28 dynamisch an die aktuelle Szenerie angepasst ist. Das entsprechende in der Auswertungseinheit 30 implementierte Vorgehen wird im Folgenden beschrieben. According to the invention, it is provided that the respectively projected illumination pattern 28 dynamically adapted to the current scenery. The corresponding in the evaluation unit 30 Implemented procedure is described below.

In einem ersten Schritt erfolgt eine Vorabaufnahme unter homogener Beleuchtung durch die Beleuchtungseinheit 22. Dabei kann die adaptive Beleuchtungseinheit 22 vorteilhaft verwendet werden, um den u. a. durch die Empfangsoptiken 18a–b und die Sendeoptik 26 verursachten natürlichen Randlichtabfall gezielt durch Intensitätsüberhöhung der Randbereiche auszugleichen. In einer alternativen Ausführungsform wird die Beleuchtungseinheit 22 für die Vorabaufnahme ausgeschaltet. In a first step, a preliminary image under homogeneous illumination by the lighting unit 22 , In this case, the adaptive lighting unit 22 be used advantageously to the ua by the receiving optics 18a -B and the transmission optics 26 caused natural edge light waste specifically compensate by increasing the intensity of the edge areas. In an alternative embodiment, the lighting unit 22 switched off for pre-recording.

Aus den in der Vorabaufnahme erfassten Bilddaten der Bildsensoren 16a–b sowie gegebenenfalls eines daraus in der Stereoeinheit 32 erzeugten dreidimensionalen Bildes werden Kontrast- und gegebenenfalls Entfernungsinformationen der aktuellen Szenerie berechnet. Diese Informationen fließen dann in die Berechnung eines zu projizierenden Beleuchtungsmusters 28 ein. Das zu projizierende Beleuchtungsmuster 28 kann außerdem auf einem bekannten optimalen Beleuchtungsmuster basieren, das überall oder zumindest an allen relevanten Stellen für ausreichenden Kontrast sorgen würde. Jedenfalls berücksichtigt das zu projizierende Beleuchtungsmuster die Informationen aus der Vorabaufnahme, um zu erreichen, dass die Überlagerung aus dem zu projizierenden Beleuchtungsmuster und den in der aktuellen Szenerie bereits vorhandenen Kontrasten oder Strukturen, die über die Vorabaufnahme bekannt sind, eine zuverlässige 3D-Erfassung ermöglicht. Vorzugsweise wird so nur an Stellen mit unzureichenden Kontrastverhältnissen beziehungsweise unzuverlässigen Entfernungswerten ein Beleuchtungsmuster 28 appliziert. From the image data of the image sensors acquired in the pre-scan 16a -B and possibly one of them in the stereo unit 32 generated three-dimensional image contrast and, where appropriate distance information of the calculated current scenery. This information then flows into the calculation of a lighting pattern to be projected 28 one. The lighting pattern to be projected 28 may also be based on a known optimal illumination pattern that would provide sufficient contrast everywhere, or at least at all relevant locations. In any case, the illumination pattern to be projected takes into account the information from the pre-acquisition, in order to ensure that the superimposition of the illumination pattern to be projected and the contrasts or structures already present in the current scene, which are known via the pre-acquisition, enable reliable 3D detection. Preferably, only in places with insufficient contrast ratios or unreliable distance values is a lighting pattern 28 applied.

Im nächsten Schritt projiziert die Beleuchtungseinheit 22 das berechnete zu projizierende Beleuchtungsmuster in den Überwachungsbereich 12. Es folgt eine Aufnahme der beiden zweidimensionalen Ausgangsbilder mit den Bildsensoren 16a–b und deren Verrechnung zu einem dreidimensionalen Bild in der Stereoeinheit 32. Vorzugsweise liefert der Stereoalgorithmus zugleich eine Beurteilung der Qualität beziehungsweise Zuverlässigkeit der jeweiligen Entfernungen. In the next step, the lighting unit projects 22 the calculated illumination pattern to be projected into the surveillance area 12 , This is followed by a recording of the two two-dimensional output images with the image sensors 16a -B and their offset to a three-dimensional image in the stereo unit 32 , Preferably, the stereo algorithm also provides an assessment of the quality or reliability of the respective distances.

Damit ist dann ein Aufnahmezyklus beendet, und es folgt eine weitere Vorabaufnahme. Alternativ kann das zuletzt berechnete zu projizierende Beleuchtungsmuster erneut zur Erfassung des nächsten dreidimensionalen Bildes verwendet werden, was dann natürlich eine entsprechend verlangsamte Adaption insbesondere an schnell veränderliche Szenerien zur Folge hat. Die generierten End- und Zwischenergebnisse, wie dreidimensionale Bilddaten der Stereoeinheit 32, zweidimensionale Bilddaten der Bildsensoren 16a–b oder Zuverlässigkeits- beziehungsweise Qualitätsinformationen können in beliebiger Kombination an der Schnittstelle 34 zum Abruf bereitgestellt werden. This completes a recording cycle, followed by another pre-recording. Alternatively, the last computed illumination pattern to be projected can be used again to capture the next three-dimensional image, which then of course results in a correspondingly slowed-down adaptation, in particular to fast-changing sceneries. The generated final and intermediate results, such as three-dimensional image data of the stereo unit 32 , two-dimensional image data of the image sensors 16a -B or reliability or quality information can be in any combination at the interface 34 be made available for retrieval.

Erfindungsgemäß ist es möglich, das Beleuchtungsmuster 28 und die Auswertung der Bilddaten sehr schnell während des Betriebs an die Umgebungssituation anzupassen. So kann beispielsweise in bestimmten Situationen, etwa bei Annäherung eines Objekts oder an ein Objekt, der gesamte Überwachungsbereich 12 oder auch nur ein Teil davon (ROI, region of interest) höher strukturiert beleuchtet und ausgewertet werden als in anderen Situationen, etwa bei freiem Sichtfeld einer an einem Fahrzeug angebrachten 3D-Kamera 10. In den zuletzt erwähnten mobilen Anwendungen an einem insbesondere selbstgesteuerten Fahrzeug (AGV, Automated Guided Vehicle) ist auch eine gezielte Anpassung von Beleuchtung und Auswertung an die Bewegungsrichtung, etwa bei Kurvenfahrten, oder die Geschwindigkeit realisierbar. According to the invention, it is possible to use the illumination pattern 28 and to adapt the evaluation of the image data very quickly during operation to the environmental situation. For example, in certain situations, such as approaching an object or an object, the entire surveillance area 12 or only a part of it (ROI, region of interest) are structured and evaluated higher structured than in other situations, such as the free field of view of a mounted on a vehicle 3D camera 10 , In the last mentioned mobile applications on a particular self-propelled vehicle (AGV, Automated Guided Vehicle), a targeted adaptation of lighting and evaluation to the direction of movement, such as cornering, or the speed can be realized.

In einer weiteren Ausführungsform werden mit dem Beleuchtungsmuster 28 zusätzliche Informationen projiziert, die für den Anwender oder andere Personen vorteilhaft sind. Dies können beispielsweise Grenzen des Sicht- oder Auswertungsbereichs, definierte Schutzfelder, Konturen von erkannten Objekten oder Ausrichthilfen für die Installation sein. Als Hinweis oder Warnung kann von einem Fahrzeug eine Fahrtrichtungsanzeige oder dergleichen auf den Boden projiziert werden. In a further embodiment, the illumination pattern 28 project additional information that is beneficial to the user or other persons. These can be, for example, limits of the viewing or evaluation area, defined protective fields, contours of detected objects or alignment aids for the installation. As an indication or warning, a direction indicator or the like may be projected on the ground by a vehicle.

Obwohl die Erfindung anhand der in 1 dargestellten Stereokamera erfolgt, sind auch andere 3D-Kameras denkbar, insbesondere mit nur einer insbesondere hochauflösenden Kamera und dem einleitend genannten Projektionsverfahren (aktive Triangulation) durch Korrelation mit dem Beleuchtungsmuster 28. Es kann also ein Kameramodul 14a–b entfallen, und die Stereoeinheit 32 ist entsprechend zu einer Triangulationseinheit umgestaltet. Ein Projektionsverfahren kann aber auch zusätzlich in der Stereokamera unter Verwendung eines der Kameramodule 14a–b implementiert werden, wobei dann die Stereoeinheit 32 für beide Verfahren ausgebildet ist, insbesondere um tatsächlich beide Verfahren diversitär-redundant zur Verfügung zu stellen. Das Projektionsverfahren kann dann sogar in sich redundant einmal für jedes der Kameramodule 14a–b durchgeführt werden. Although the invention is based on the in 1 Other stereo cameras are also conceivable, in particular with only one particular high-resolution camera and the initially mentioned projection method (active triangulation) by correlation with the illumination pattern 28 , So it can be a camera module 14a -B omitted, and the stereo unit 32 is transformed accordingly to a triangulation unit. However, a projection method can also be used in the stereo camera using one of the camera modules 14a -B are implemented, in which case the stereo unit 32 is designed for both methods, in particular to actually provide both methods diversified-redundant available. The projection process can then even be redundant once for each of the camera modules 14a -B.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 7433024 [0006] US 7433024 [0006]
  • EP 2166304 A1 [0008] EP 2166304 A1 [0008]
  • US 2007/0263904 A1 [0008] US 2007/0263904 A1 [0008]
  • US 2008/0240502 A1 [0008] US 2008/0240502 A1 [0008]
  • US 2010/0118123 A1 [0008] US 2010/0118123 A1 [0008]
  • EP 2019281 A1 [0010, 0010] EP 2019281 A1 [0010, 0010]
  • EP 2553383 B1 [0011] EP 2553383 B1 [0011]

Claims (9)

3D-Kamera (10) zur Aufnahme von dreidimensionalen Bildern aus einem Überwachungsbereich (12) mit mindestens einem Bildsensor (16a–b) zur Aufnahme von Bilddaten aus dem Überwachungsbereich (12), einer Beleuchtungseinheit (22) zum Erzeugen eines strukturierten Beleuchtungsmusters (28) in dem Überwachungsbereich (12) und mit einer Auswertungseinheit (32), die dafür ausgebildet ist, ein dreidimensionales Bild aus Bilddaten des mindestens einen Bildsensors (14a–b) zu berechnen sowie zunächst eine Vorabaufnahme des Überwachungsbereichs (12) ohne strukturiertes Beleuchtungsmuster (28) zu erzeugen und ein zu projizierendes strukturiertes Beleuchtungsmuster (28) aus der Vorabaufnahme und einem gewünschten strukturierten Beleuchtungsmuster in dem Überwachungsbereich (12) zu berechnen, dadurch gekennzeichnet, dass die Beleuchtungseinheit (22) für die Echtzeitprojektion eines pixelaufgelösten, quantisierten strukturierten Beleuchtungsmusters (28) ausgebildet ist, insbesondere ein schaltbares LED- oder Laserdiodenarray oder ein LCoS aufweist. 3D camera ( 10 ) for taking three-dimensional images from a surveillance area ( 12 ) with at least one image sensor ( 16a -B) for capturing image data from the surveillance area ( 12 ), a lighting unit ( 22 ) for generating a structured illumination pattern ( 28 ) in the surveillance area ( 12 ) and with an evaluation unit ( 32 ) which is adapted to produce a three-dimensional image from image data of the at least one image sensor ( 14a -B) as well as an initial recording of the surveillance area ( 12 ) without a structured illumination pattern ( 28 ) and a structured illumination pattern to be projected ( 28 ) from the pre-scan and a desired structured illumination pattern in the surveillance area ( 12 ), characterized in that the lighting unit ( 22 ) for the real-time projection of a pixel-resolved, quantized structured illumination pattern ( 28 ), in particular has a switchable LED or laser diode array or LCoS. 3D-Kamera (10) nach Anspruch 1. wobei die Auswertungseinheit (30) dafür ausgebildet ist, den Überwachungsbereich (12) für die Vorabaufnahme mit Hilfe der Beleuchtungseinheit (22) homogen auszuleuchten. 3D camera ( 10 ) according to claim 1, wherein the evaluation unit ( 30 ) is designed to control the surveillance area ( 12 ) for the preliminary recording with the aid of the illumination unit ( 22 ) to illuminate homogeneously. 3D-Kamera (10) nach Anspruch 1 oder 2, wobei die Auswertungseinheit (30) dafür ausgebildet ist, den Überwachungsbereich (12) mit einer homogenen, jedoch im Randbereich überhöhten Intensitätsverteilung auszuleuchten. 3D camera ( 10 ) according to claim 1 or 2, wherein the evaluation unit ( 30 ) is designed to control the surveillance area ( 12 ) with a homogeneous, but in the edge area excessive intensity distribution to illuminate. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (30) dafür ausgebildet ist, wiederholt mit einer Aufnahmefrequenz dreidimensionale Bilder aufzunehmen, dazwischen zyklisch Vorabaufnahmen zu erzeugen und damit das zu projizierende strukturierte Beleuchtungsmuster (28) dynamisch anzupassen. 3D camera ( 10 ) according to one of the preceding claims, wherein the evaluation unit ( 30 ) is adapted to repeatedly record three-dimensional images with a recording frequency, cyclically pre-recording therebetween in order to generate the structured illumination pattern to be projected ( 28 ) dynamically adapt. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (30) dafür ausgebildet ist, vor der Aufnahme jedes dreidimensionalen Bildes eine Vorabaufnahme zu erzeugen und mit deren Hilfe ein zu projizierendes strukturiertes Beleuchtungsmuster (28) zu berechnen. 3D camera ( 10 ) according to one of the preceding claims, wherein the evaluation unit ( 30 ) is designed to produce a pre-image before the recording of each three-dimensional image and with the aid of which a structured illumination pattern ( 28 ) to calculate. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (30) dafür ausgebildet ist, das zu projizierende strukturierte Beleuchtungsmuster (28) nur für einen Teilbereich des Überwachungsbereichs (12) zu berechnen. 3D camera ( 10 ) according to one of the preceding claims, wherein the evaluation unit ( 30 ) is adapted to the structured illumination pattern to be projected ( 28 ) only for part of the surveillance area ( 12 ) to calculate. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (30) dafür ausgebildet ist, in das zu projizierende strukturierte Beleuchtungsmuster (28) eine Zusatzinformation einzublenden. 3D camera ( 10 ) according to one of the preceding claims, wherein the evaluation unit ( 30 ) is designed to be incorporated in the structured illumination pattern to be projected ( 28 ) to show additional information. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, die als Stereokamera ausgebildet ist und dazu mindestens zwei Kameramodule (14a–b) mit jeweils einem Bildsensor (16a–b) in zueinander versetzter Perspektive sowie eine Stereoskopieeinheit (32) aufweist, in der mittels eines Stereoalgorithmus‘ einander zugehörige Teilbereiche in von den beiden Kameramodulen (14a–b) aufgenommenen Bilddaten erkannt werden und deren Entfernung anhand der Disparität berechnet wird. 3D camera ( 10 ) according to one of the preceding claims, which is designed as a stereo camera and to at least two camera modules ( 14a -B) each with an image sensor ( 16a B) in a staggered perspective and a stereoscopic unit ( 32 ), in which by means of a stereo algorithm 'associated sub-areas in of the two camera modules ( 14a -B) recorded image data and whose distance is calculated on the basis of the disparity. 3D-Kamera (10) nach einem der vorhergehenden Ansprüche, die eine Triangulationseinheit (32) aufweist, welche zur Berechnung des dreidimensionalen Bildes das zu projizierende strukturierte Beleuchtungsmuster (28) mit den Bilddaten des Bildsensors (14a–b) korreliert. 3D camera ( 10 ) according to one of the preceding claims, which comprises a triangulation unit ( 32 ), which for the calculation of the three-dimensional image, the structured illumination pattern to be projected ( 28 ) with the image data of the image sensor ( 14a -B) correlates.
DE202015105376.2U 2015-10-12 2015-10-12 3D camera for taking three-dimensional images Active DE202015105376U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202015105376.2U DE202015105376U1 (en) 2015-10-12 2015-10-12 3D camera for taking three-dimensional images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202015105376.2U DE202015105376U1 (en) 2015-10-12 2015-10-12 3D camera for taking three-dimensional images

Publications (1)

Publication Number Publication Date
DE202015105376U1 true DE202015105376U1 (en) 2015-10-19

Family

ID=54432258

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202015105376.2U Active DE202015105376U1 (en) 2015-10-12 2015-10-12 3D camera for taking three-dimensional images

Country Status (1)

Country Link
DE (1) DE202015105376U1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017001313A1 (en) 2017-02-10 2017-10-19 Daimler Ag A method of processing image information concerning the face of the driver of a motor vehicle
DE102016223671A1 (en) * 2016-11-29 2018-05-30 Continental Automotive Gmbh Illumination system for the determination of geometric properties as well as driver assistance system and method
CN108156430A (en) * 2018-02-22 2018-06-12 天津天地伟业信息系统集成有限公司 Security area projects video camera and kinescope method
DE102017222708A1 (en) 2017-12-14 2019-06-19 Conti Temic Microelectronic Gmbh 3D environment detection via projector and camera modules
EP3383595B1 (en) 2015-12-04 2021-09-01 KUKA Deutschland GmbH Displaying of variable safety zones

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070263904A1 (en) 2006-03-15 2007-11-15 Nikon Corporation Subject tracking device, subject tracking method, subject tracking program product and optical device
US20080240502A1 (en) 2007-04-02 2008-10-02 Barak Freedman Depth mapping using projected patterns
US7433024B2 (en) 2006-02-27 2008-10-07 Prime Sense Ltd. Range mapping using speckle decorrelation
EP2019281A1 (en) 2007-07-20 2009-01-28 Sick Ag 3D sensor and method for operating a 3D sensor
EP2166304A1 (en) 2008-09-23 2010-03-24 Sick Ag Lighting unit and method for creating a pattern dissimilar to itself
US20100118123A1 (en) 2007-04-02 2010-05-13 Prime Sense Ltd Depth mapping using projected patterns
EP2553383B1 (en) 2010-03-31 2014-02-26 Omron Scientific Technologies, INC. Method and apparatus for generating texture in a three-dimensional scene

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433024B2 (en) 2006-02-27 2008-10-07 Prime Sense Ltd. Range mapping using speckle decorrelation
US20070263904A1 (en) 2006-03-15 2007-11-15 Nikon Corporation Subject tracking device, subject tracking method, subject tracking program product and optical device
US20080240502A1 (en) 2007-04-02 2008-10-02 Barak Freedman Depth mapping using projected patterns
US20100118123A1 (en) 2007-04-02 2010-05-13 Prime Sense Ltd Depth mapping using projected patterns
EP2019281A1 (en) 2007-07-20 2009-01-28 Sick Ag 3D sensor and method for operating a 3D sensor
EP2166304A1 (en) 2008-09-23 2010-03-24 Sick Ag Lighting unit and method for creating a pattern dissimilar to itself
EP2553383B1 (en) 2010-03-31 2014-02-26 Omron Scientific Technologies, INC. Method and apparatus for generating texture in a three-dimensional scene

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3383595B1 (en) 2015-12-04 2021-09-01 KUKA Deutschland GmbH Displaying of variable safety zones
DE102016223671A1 (en) * 2016-11-29 2018-05-30 Continental Automotive Gmbh Illumination system for the determination of geometric properties as well as driver assistance system and method
WO2018099525A1 (en) * 2016-11-29 2018-06-07 Conti Temic Microelectronic Gmbh Lighting system for ascertaining geometric properties, and driver assistance system and method therefor
US10836301B2 (en) 2016-11-29 2020-11-17 Conti Temic Microelectronic Gmbh Lighting system for ascertaining geometric properties, and driver assistance system and method therefor
DE102017001313A1 (en) 2017-02-10 2017-10-19 Daimler Ag A method of processing image information concerning the face of the driver of a motor vehicle
DE102017222708A1 (en) 2017-12-14 2019-06-19 Conti Temic Microelectronic Gmbh 3D environment detection via projector and camera modules
WO2019114889A1 (en) 2017-12-14 2019-06-20 Conti Temic Microelectronic Gmbh 3-d environment sensing by means of the projection of a series of pseudo-random patterns and stereo camera modules
CN111465819A (en) * 2017-12-14 2020-07-28 康蒂-特米克微电子有限公司 Three-dimensional environment sensing by means of projection of pseudo-random pattern sequences and stereo camera modules
US11073379B2 (en) 2017-12-14 2021-07-27 Conti Temic Microelectronic Gmbh 3-D environment sensing by means of projector and camera modules
CN108156430A (en) * 2018-02-22 2018-06-12 天津天地伟业信息系统集成有限公司 Security area projects video camera and kinescope method
CN108156430B (en) * 2018-02-22 2023-12-22 天津天地伟业信息系统集成有限公司 Guard zone projection camera and video recording method

Similar Documents

Publication Publication Date Title
DE102010037744B3 (en) Optoelectronic sensor
EP2835973B1 (en) 3D camera and method for capturing of three-dimensional image data
DE102009031732B3 (en) Distance measuring optoelectronic sensor e.g. laser scanner, for monitoring operating area, has illumination unit activated with increased power, when no impermissible object contact is recognized
EP1933167B1 (en) Optoelectronic sensor and method for detecting and determining the distance of an object
EP3421189B1 (en) Method for monitoring a machine
EP2275990B1 (en) 3D sensor
DE102013112171B4 (en) External environment recognition device
DE202015105376U1 (en) 3D camera for taking three-dimensional images
EP3011225B1 (en) Device and method for securing a machine that operates in an automated manner
DE102007036129B3 (en) Device and method for the three-dimensional monitoring of a spatial area with at least two image sensors
EP2202994B1 (en) 3D camera for monitoring an area
WO2019114889A1 (en) 3-d environment sensing by means of the projection of a series of pseudo-random patterns and stereo camera modules
DE102016206493A1 (en) Method and camera system for determining the distance of objects to a vehicle
EP2854106A1 (en) 3D camera according to the stereoscopy principle and method for recording depth maps
EP2019281B1 (en) Method for operating a 3D sensor
EP3195256A1 (en) Method and apparatus for identifying structural elements of a projected structural pattern in camera images
DE102010036852B4 (en) stereo camera
DE202012102541U1 (en) 3D camera
DE102020117060B4 (en) Device and method for detecting the surroundings of a vehicle
EP3320681B1 (en) Method and device for scanning surfaces using a stereo camera
DE102011017707A1 (en) Method for detecting object e.g. concrete post in vicinity of camera for monitoring rear side region of vehicle, involves reading images captured by cameras after partially illuminating with illumination patterns
DE202012101965U1 (en) stereo camera
EP2818824B1 (en) Apparatus comprising an optoelectronic 3D-sensor and method for recognising objects
EP3496398B1 (en) Secure stereo camera and method for testing the functionality of the image sensors
EP2270424A1 (en) Opto-electronic sensor and monitoring method

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years