DE202015105376U1 - 3D camera for taking three-dimensional images - Google Patents
3D camera for taking three-dimensional images Download PDFInfo
- Publication number
- DE202015105376U1 DE202015105376U1 DE202015105376.2U DE202015105376U DE202015105376U1 DE 202015105376 U1 DE202015105376 U1 DE 202015105376U1 DE 202015105376 U DE202015105376 U DE 202015105376U DE 202015105376 U1 DE202015105376 U1 DE 202015105376U1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- illumination pattern
- structured illumination
- image
- surveillance area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
3D-Kamera (10) zur Aufnahme von dreidimensionalen Bildern aus einem Überwachungsbereich (12) mit mindestens einem Bildsensor (16a–b) zur Aufnahme von Bilddaten aus dem Überwachungsbereich (12), einer Beleuchtungseinheit (22) zum Erzeugen eines strukturierten Beleuchtungsmusters (28) in dem Überwachungsbereich (12) und mit einer Auswertungseinheit (32), die dafür ausgebildet ist, ein dreidimensionales Bild aus Bilddaten des mindestens einen Bildsensors (14a–b) zu berechnen sowie zunächst eine Vorabaufnahme des Überwachungsbereichs (12) ohne strukturiertes Beleuchtungsmuster (28) zu erzeugen und ein zu projizierendes strukturiertes Beleuchtungsmuster (28) aus der Vorabaufnahme und einem gewünschten strukturierten Beleuchtungsmuster in dem Überwachungsbereich (12) zu berechnen, dadurch gekennzeichnet, dass die Beleuchtungseinheit (22) für die Echtzeitprojektion eines pixelaufgelösten, quantisierten strukturierten Beleuchtungsmusters (28) ausgebildet ist, insbesondere ein schaltbares LED- oder Laserdiodenarray oder ein LCoS aufweist. 3D camera (10) for capturing three-dimensional images from a surveillance area (12) with at least one image sensor (16a-b) for capturing image data from the surveillance area (12), a lighting unit (22) for generating a structured illumination pattern (28) in the monitoring area (12) and with an evaluation unit (32) which is designed to calculate a three-dimensional image from image data of the at least one image sensor (14a-b) and first a pre-image of the monitoring area (12) without a structured illumination pattern (28) and to calculate a structured illumination pattern (28) to be projected from the pre-scan and a desired structured illumination pattern in the surveillance area (12), characterized in that the illumination unit (22) is designed for real-time projection of a pixelized, quantized structured illumination pattern (28) is, in particular a sch old LED or laser diode array or LCoS.
Description
Die Erfindung betrifft eine 3D-Kamera zur Aufnahme von dreidimensionalen Bildern nach dem Oberbegriff von Anspruch 1. The invention relates to a 3D camera for recording three-dimensional images according to the preamble of claim 1.
Im Gegensatz zu einer herkömmlichen Kamera nimmt eine 3D-Kamera auch eine Tiefeninformation auf und erzeugt somit dreidimensionale Bilddaten mit Abstands- oder Entfernungswerten für die einzelnen Pixel des 3D-Bildes, das auch als Entfernungsbild oder Tiefenkarte bezeichnet wird. Die zusätzliche Entfernungsdimension lässt sich in einer Vielzahl von Anwendungen nutzen, um mehr Informationen über Objekte in der von der Kamera erfassten Szenerie zu gewinnen und so verschiedene Aufgaben im Bereich der Industriesensorik zu lösen. In contrast to a conventional camera, a 3D camera also captures depth information and thus generates three-dimensional image data with distance or distance values for the individual pixels of the 3D image, which is also referred to as a distance image or depth map. The extra distance dimension can be used in a variety of applications to gain more information about objects in the scene captured by the camera and to solve various industrial sensor tasks.
In der Automatisierungstechnik können anhand solcher Bildinformationen Objekte erfasst und klassifiziert werden, um weitere automatische Bearbeitungsschritte davon abhängig zu machen, welche Objekte vorzugsweise einschließlich ihrer Position und Orientierung erkannt wurden. Damit kann beispielsweise die Steuerung von Robotern oder verschiedenartigen Aktoren an einem Förderband unterstützt werden. In automation technology, objects can be detected and classified on the basis of such image information in order to make further automatic processing steps dependent on which objects are preferably recognized, including their position and orientation. Thus, for example, the control of robots or various actuators can be supported on a conveyor belt.
In mobilen Anwendungen gewinnt ein Fahrzeug über dreidimensionale Bilddaten Informationen über seine Umgebung und insbesondere einen geplanten Fahrweg. Dies kann für eine autonome Fortbewegung oder eine Fahrassistenz genutzt werden. In mobile applications, a vehicle gains information about its surroundings via three-dimensional image data, and in particular a planned route. This can be used for autonomous locomotion or driving assistance.
Wenn eine Anwesenheit von Personen möglich oder, wie an einem sogenannten kooperativen Arbeitsplatz, sogar erwünscht und vorgesehen ist, treten häufig sicherheitstechnische Aspekte hinzu. Eine typische sicherheitstechnische Anwendung besteht in der Absicherung einer gefährlichen Maschine, wie etwa einer Presse oder eines Roboters, wo bei Eingriff eines Körperteils in einen Gefahrenbereich um die Maschine herum eine Absicherung erfolgt. Dies kann je nach Situation die Abschaltung der Maschine oder das Verbringen in eine sichere Position sein. Mit der zusätzlichen Tiefeninformation lassen sich dreidimensionale Schutzbereiche definieren, die genauer an die Gefahrensituation anpassbar sind als zweidimensionale Schutzfelder, und es kann auch besser beurteilt werden, ob sich eine Person in kritischer Weise an die Gefahrenquelle annähert. When a presence of persons is possible or even desired and provided, as in a so-called cooperative workstation, security aspects are often added. A typical safety application is to secure a dangerous machine, such as a press or a robot, where protection is provided when a body part is engaged in a hazardous area around the machine. Depending on the situation, this can be the shutdown of the machine or the move to a safe position. With the additional depth information, three-dimensional protection areas can be defined which are more precisely adaptable to the danger situation than two-dimensional protection fields, and it can also be better assessed whether a person approaches the danger source in a critical manner.
Zur Ermittlung der Tiefeninformationen sind verschiedene Verfahren bekannt, wie Lichtlaufzeitmessungen (Time-of-Flight), Interferometrie oder Triangulation. Unter den Triangulationsverfahren wiederum können Lichtschnitt- und Projektionsverfahren sowie Stereoskopie unterschieden werden. Beim Lichtschnittverfahren wird das Objekt unter dem Sensor bewegt und aus den gewonnenen streifenbasierten Tiefeninformationen eine 3D-Punktewolke erzeugt. Beim Projektionsverfahren wird beispielsweise ein Streifenmuster auf die abzutastende Oberfläche projiziert und aus Veränderungen des Musters durch die Objekte in der Szene eine Tiefeninformation abgeleitet. Alternativ wird ein sogenanntes selbstunähnliches, also örtlich eindeutiges Muster projiziert. Das Projektionsverfahren mit einem strukturierten Muster wird beispielsweise in der
Eine wesentliche Herausforderung der bildbasierten 3D-Messtechnik ist, unter den verschiedensten Umgebungsbedingungen flächige, zuverlässige Entfernungsinformationen zu liefern. Für ein passives Stereosystem beispielsweise sind kontrastlose oder sich wiederholende Bildbereiche problematisch, da keine eindeutige Zuordnung von Bildelementen der beiden Aufnahmen möglich ist. Durch eine zusätzliche strukturierte Beleuchtung wird auch solchen Szenen ein ausreichender Kontrast aufgeprägt, so dass der robuste Einsatz für beliebige, auch zuvor unbekannte Szenen ermöglicht wird. Das Beleuchtungsmuster sorgt dafür, dass sich auch in Bereichen ohne natürliche Struktur zuverlässig Korrespondenzen finden lassen. Projektionsverfahren sind ohnehin auf eine Beleuchtung angewiesen. An essential challenge of image-based 3D measurement technology is to provide reliable, reliable distance information under the most diverse environmental conditions. For a passive stereo system, for example, contrastless or repetitive image areas are problematic because no clear assignment of pixels of the two images is possible. An additional structured illumination also gives such scenes a sufficient contrast, so that the robust use is possible for any, even previously unknown scenes. The lighting pattern ensures that reliable correspondences can be found even in areas without a natural structure. Projection methods are dependent on lighting anyway.
Herkömmlich sind die Beleuchtungsmuster meist statisch. Als Mustergenerator werden unter anderem optische Phasenplatten (
Ein statisches Beleuchtungsmuster bringt aber Nachteile mit sich. Durch Überlagerung des eigenen Beleuchtungsmusters mit natürlicher Textur der Szenerie oder mit Beleuchtungsmustern anderer Sensoren kann es nämlich passieren, dass Bereiche überbelichtet sind oder die gewünschte Kontrastverbesserung in Summe wieder verlorengeht. Es kommt daher möglicherweise wieder zu einer Kontrast- beziehungsweise Eindeutigkeitsverschlechterung, die letztlich die Qualität und Zuverlässigkeit der Entfernungsinformationen beeinträchtigt. Ein weiterer unerwünschter Nebeneffekt des statischen Beleuchtungsmusters ist, dass die Aufnahmen für eine Visualisierung oder klassische Bildverarbeitung der natürlichen Textur wegen des Beleuchtungsmusters unbrauchbar sind. However, a static lighting pattern has disadvantages. By superimposing the own illumination pattern with natural texture of the scene or with illumination patterns of other sensors, it may happen that areas are overexposed or the desired contrast improvement is lost altogether. Therefore, there may be again a contrast or uniqueness degradation, which ultimately affects the quality and reliability of the range information. Another unwanted side effect of the static illumination pattern is that the shots for a Visualization or classical image processing of the natural texture are useless because of the illumination pattern.
Die
In der
Es ist deshalb Aufgabe der Erfindung, in einer 3D-Kamera für einen ausreichenden Kontrast in der aufzunehmenden Szenerie zu sorgen. It is therefore an object of the invention to provide in a 3D camera for a sufficient contrast in the scene to be recorded.
Diese Aufgabe wird durch eine 3D-Kamera zur Aufnahme von dreidimensionalen Bildern nach Anspruch 1 gelöst. Die 3D-Kamera nimmt mit einem Bildsensor zweidimensionale Bilddaten auf und berechnet daraus in an sich bekannter Weise dreidimensionale Bilder. Die 3D-Kamera kennt außerdem ein gewünschtes strukturiertes Beleuchtungsmuster, welches überall für ausreichend Kontrast sorgen würde. Dieses strukturierte Beleuchtungsmuster kann aber nicht einfach statisch projiziert werden, da es sich in der Szenerie noch mit den natürlichen Kontrasten, Fremdbeleuchtungen insbesondere anderer 3D-Kameras und ähnlichen Effekten überlagert. Deshalb wird zunächst eine Vorabaufnahme ohne strukturiertes Beleuchtungsmuster erzeugt, also ohne künstlichen Kontrast durch die eigene Beleuchtung. Darin werden beispielsweise Kontraste in den zweidimensionalen Bilddaten oder unzuverlässige Bereiche beziehungsweise Lücken in einem aus der Vorabaufnahme erzeugten dreidimensionalen Bild ausgewertet. Daraus wird berechnet, welches zu projizierende strukturierte Beleuchtungsmuster in dem Überwachungsbereich unter Berücksichtigung der Vorabaufnahme das gewünschte strukturierte Beleuchtungsmuster erzeugt. This object is achieved by a 3D camera for recording three-dimensional images according to claim 1. The 3D camera captures two-dimensional image data with an image sensor and calculates three-dimensional images in a manner known per se. The 3D camera also knows a desired structured illumination pattern that would provide sufficient contrast everywhere. However, this structured illumination pattern can not simply be projected statically, since it is superimposed in the scenery with the natural contrasts, external illumination, in particular of other 3D cameras and similar effects. Therefore, a preliminary image is first produced without a structured illumination pattern, ie without artificial contrast through the own illumination. Therein, for example, contrasts in the two-dimensional image data or unreliable regions or gaps in a three-dimensional image generated from the preliminary image are evaluated. From this, it is calculated which patterned illumination pattern to be projected in the surveillance area, taking into account the pre-acquisition, generates the desired structured illumination pattern.
Die Erfindung geht nun von dem Grundgedanken aus, die Adaption anhand einer Vorabaufnahme hochdynamisch und in Echtzeit vorzunehmen. Dazu ist als Beleuchtungseinheit ein echtzeitfähiger Projektor vorgesehen, der ein pixelaufgelöstes, quantisiertes strukturiertes Beleuchtungsmuster projiziert. Anders ausgedrückt erzeugt der Projektor ein Pixelmuster mit schwarz-weißen Pixeln oder Grauwerten. Besonders geeignet als Projektor sind schaltbare Halbleiterarrays mit einer Vielzahl von LEDs oder Laserdioden, insbesondere VCSELs. Dabei entspricht praktisch ein Pixel einer Lichtquelle. Ein anderer geeigneter Projektor nutzt ein Mikro-Display, insbesondere ein LCoS (Liquid Crystal on Silicon). The invention is based on the basic idea of making the adaptation highly dynamic and in real time on the basis of a pre-acquisition. For this purpose, a real-time capable projector is provided as lighting unit, which projects a pixel-resolved, quantized structured illumination pattern. In other words, the projector produces a pixel pattern with black and white pixels or gray scale values. Particularly suitable as a projector are switchable semiconductor arrays with a plurality of LEDs or laser diodes, in particular VCSELs. Practically one pixel corresponds to a light source. Another suitable projector uses a micro-display, in particular a LCoS (Liquid Crystal on Silicon).
Die Erfindung hat den Vorteil, dass flächendeckend und zuverlässig dreidimensionale Bilder unabhängig vom Kontrast der betrachteten Szenerie erzeugt werden. Eine Kontrastverschlechterung durch Überlagerungseffekte mit natürlichem Kontrast oder fremden Lichtquellen wird ausgeglichen. Dies gelingt in Echtzeit und funktioniert daher auch in schnell bewegten Szenerien. Die erfindungsgemäße 3D-Kamera besitzt die Fähigkeit, gezielt auf andere Sensoren beziehungsweise deren Beleuchtungsmuster zu reagieren. Dadurch können beispielsweise mehrere 3D-Kameras nebeneinander gemeinsam und lückenlos beziehungsweise teilüberlappend einen großen Überwachungsbereich abdecken. In mobilen Anwendungen insbesondere an fahrenden Objekten tolerieren sich die 3D-Kameras untereinander durch entsprechende intelligente Anpassung der Beleuchtungsmuster. The invention has the advantage that nationwide and reliable three-dimensional images are generated regardless of the contrast of the observed scenery. Contrast deterioration due to overlay effects with natural contrast or extraneous light sources is compensated. This succeeds in real time and therefore also works in fast moving scenes. The 3D camera according to the invention has the ability to react specifically to other sensors or their illumination pattern. As a result, for example, several 3D cameras can cover a large monitoring area next to each other in common and completely or partially overlapping. In mobile applications, especially on moving objects, the 3D cameras tolerate each other by correspondingly adapting the lighting patterns accordingly.
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, den Überwachungsbereich für die Vorabaufnahme mit Hilfe der Beleuchtungseinheit homogen auszuleuchten. Damit wird natürlicher Kontrast auch in dunklen Bereichen der Szenerie erkannt. Eine homogene Ausleuchtung ist überhaupt nur möglich, weil die Beleuchtungseinheit umschaltbar ist, und das auch mit der erforderlichen kurzen Reaktionszeit. Eine Zusatzbeleuchtung wie gelegentlich im Stand der Technik zur verbesserten Visualisierung vorgeschlagen, kann durch diese Doppelfunktion ersetzt werden. Ein homogen ausgeleuchtetes Bild kann nicht nur für die Vorabaufnahme genutzt werden, sondern auch als zweidimensionales Bild zur Visualisierung oder klassischen Bildverarbeitung oder um das dreidimensionale Bild, das ja nur Entfernungen enthält, auch mit der tatsächlichen Textur zu überlagern und so dreidimensional darzustellen. The evaluation unit is preferably designed to homogeneously illuminate the monitoring area for the preliminary recording with the aid of the lighting unit. Thus, natural contrast is detected even in dark areas of the scenery. A homogeneous illumination is only possible because the lighting unit is switchable, and also with the required short reaction time. Additional lighting, as sometimes suggested in the art for improved visualization, may be replaced by this dual function. A homogeneously illuminated image can be used not only for pre-recording, but also as a two-dimensional image for visualization or classical image processing or to superimpose the three-dimensional image, which only contains distances, with the actual texture and thus represent three-dimensional.
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, den Überwachungsbereich mit einer homogenen, jedoch im Randbereich überhöhten Intensitätsverteilung auszuleuchten. So wird die homogene Ausleuchtung tatsächlich in der Aufnahme erreicht und gleicht einen Randbereichsabfall von Projektions- beziehungsweise Empfangsoptik aus. Hier wird die schnelle Anpassungsfähigkeit der Beleuchtungseinheit für einen weiteren vorteilhaften Effekt ausgenutzt. The evaluation unit is preferably designed to illuminate the monitoring area with a homogeneous, but in the edge area excessive intensity distribution. Thus, the homogeneous illumination is actually achieved in the image and compensates for a marginal area drop of Projection or reception optics off. Here, the fast adaptability of the lighting unit is exploited for a further advantageous effect.
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, wiederholt mit einer Aufnahmefrequenz dreidimensionale Bilder aufzunehmen, dazwischen zyklisch Vorabaufnahmen zu erzeugen und damit das zu projizierende strukturierte Beleuchtungsmuster dynamisch anzupassen. Die Anpassung an eine Szenerie erfolgt somit nicht im Rahmen eines Setups, sondern hochdynamisch im Betrieb unter ständiger Berücksichtigung der Veränderungen in der Szenerie. Erneut ist die Echtzeitfähigkeit der Beleuchtungseinheit dafür die Voraussetzung. The evaluation unit is preferably designed to repeatedly record three-dimensional images with a recording frequency, to cyclically pre-record them in between, and thus dynamically adapt the structured illumination pattern to be projected. The adaptation to a scene is thus not carried out as part of a setup, but highly dynamic in operation, taking into account the changes in the scenery. Once again, the real-time capability of the lighting unit is the prerequisite.
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, vor der Aufnahme jedes dreidimensionalen Bildes eine Vorabaufnahme zu erzeugen und mit deren Hilfe ein zu projizierendes strukturiertes Beleuchtungsmuster zu berechnen. In einer solchen Ausführungsform wird jedes dreidimensionale Bild nach individueller Optimierung mit einem neu angepassten Beleuchtungsmuster aufgenommen. Die Vorabaufnahme enthält außerdem jeweils für jedes dreidimensionale Bild die in Echtzeit aufgenommenen zugehörigen zweidimensionalen Bilddaten zur Visualisierung oder für klassische Bildauswertungen. The evaluation unit is preferably designed to generate a pre-image before the recording of each three-dimensional image and with the aid of which to calculate a structured illumination pattern to be projected. In such an embodiment, each three-dimensional image is captured after individual optimization with a newly adapted illumination pattern. For each three-dimensional image, the pre-scan also contains in each case the associated two-dimensional image data taken in real time for visualization or for classical image evaluations.
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, das zu projizierende strukturierte Beleuchtungsmuster nur für einen Teilbereich des Überwachungsbereichs zu berechnen. Ein solcher Teilbereich kann beispielsweise ein interessierender Teilbereich (ROI, region of interest), ein Schutzfeld oder ein bestimmtes Objekt sein. Außerhalb des Teilbereichs wird beispielsweise homogen beleuchtet, ein nicht gesondert angepasstes Beleuchtungsmuster projiziert oder gar nicht beleuchtet. So wird Auswertungsaufwand und gegebenenfalls Leistung für die Beleuchtung eingespart. Eine ähnliche Anpassung der Beleuchtung und Auswertung an sich verändernde Aufgaben in Echtzeit besteht darin, mit einer gröberen lateralen Auflösung und Entfernungsauflösung zu arbeiten, bis ein Objekt in einem definierten Entfernungsbereich eintritt, und dann Beleuchtungsmuster und dreidimensionale Bildberechnung auf eine höhere oder die volle Auflösung umzuschalten. The evaluation unit is preferably designed to calculate the structured illumination pattern to be projected only for a partial area of the monitored area. Such a subarea can be, for example, a region of interest (ROI), a protective field or a specific object. Outside the subarea, for example, is homogeneously illuminated, a not separately adapted illumination pattern projected or not illuminated. Thus, evaluation effort and, if necessary, power for the lighting is saved. A similar adaptation of the illumination and evaluation to changing tasks in real time is to work with a coarser lateral resolution and range resolution until an object enters a defined range of distances and then to switch illumination pattern and three-dimensional image calculation to a higher or full resolution.
Die Auswertungseinheit ist bevorzugt dafür ausgebildet, in das zu projizierende strukturierte Beleuchtungsmuster eine Zusatzinformation einzublenden. Dabei handelt es sich um einen Teil des strukturierten Beleuchtungsmusters, der für eine Kontrasterhöhung zur zuverlässigeren Erfassung nichts zu tun hat, sondern beispielsweise einen Status, einen Hinweis oder eine Warnung in die Szenerie projiziert, vorzugsweise auf den Boden, um dem Anwender oder anderen Personen eine Hilfestellung zu geben. Beispiele sind Schutzfeldgrenzen, eine Ausrichthilfe, eine Wartungsanforderung, Konturen erkannter Objekte oder eine geplante oder tatsächliche Fahrtrichtung eines Fahrzeugs, an dem die 3D-Kamera montiert ist. The evaluation unit is preferably designed to display additional information in the structured illumination pattern to be projected. It is a part of the structured illumination pattern that has nothing to do for a contrast enhancement for more reliable detection but, for example, projects a status, clue or warning into the scene, preferably on the ground, to the user or other persons To give assistance. Examples are protective field boundaries, an alignment aid, a maintenance request, contours of detected objects or a planned or actual direction of travel of a vehicle on which the 3D camera is mounted.
Die 3D-Kamera ist vorzugsweise als Stereokamera ausgebildet und weist dazu mindestens zwei Kameramodule mit jeweils einem Bildsensor in zueinander versetzter Perspektive sowie eine Stereoskopieeinheit auf, in der mittels eines Stereoalgorithmus‘ einander zugehörige Teilbereiche in von den beiden Kameramodulen aufgenommenen Bilddaten erkannt werden und deren Entfernung anhand der Disparität berechnet wird. Diese Stereokamera wird durch die Beleuchtungseinheit zu einem aktiven Stereosystem mit adaptiver Beleuchtungsanpassung. Die Stereoeinheit ist funktional derjenige Teil der Auswertungseinheit, der aus den Bilddaten dreidimensionale Bilder berechnet. The 3D camera is preferably designed as a stereo camera and has for this purpose at least two camera modules, each with an image sensor in mutually offset perspective and a stereoscopic unit, in which by means of a stereo algorithm 'associated sub-areas are detected in captured by the two camera modules image data and their removal based the disparity is calculated. This stereo camera is transformed by the lighting unit into an active stereo system with adaptive lighting adjustment. The stereo unit is functionally that part of the evaluation unit which calculates three-dimensional images from the image data.
Dabei sind Implementierungen auf einem gemeinsamen oder einem eigenen Chip denkbar. Implementations on a common or a separate chip are conceivable.
Die 3D-Kamera weist bevorzugt eine Triangulationseinheit auf, welche zur Berechnung des dreidimensionalen Bildes das zu projizierende strukturierte Beleuchtungsmuster mit den Bilddaten des Bildsensors korreliert. Damit werden Entfernungen durch ein einleitend kurz erläutertes Projektionsverfahren geschätzt (aktive Triangulation), mit im Prinzip denselben Korrelationsalgorithmen wie bei einer Stereokamera, jedoch unter Verwendung nur einer Kamera und des Beleuchtungsmusters. Das adaptive Beleuchtungsverfahren sorgt dafür, dass das Beleuchtungsmuster überall gut zu sehen ist. Im Gegensatz zu einem Stereoverfahren ist es hier aber nicht möglich, sich auf natürliche Kontraste zu verlassen und entsprechende Teilbereiche unbeleuchtet zu lassen, da die 3D-Erfassung auf dem Beleuchtungsmuster basiert und dies nicht nur eine Hilfe zur besseren Merkmalserfassung ist. Ein Projektionsverfahren kann mit einem Stereoverfahren kombiniert werden, denn jedes Kameramodul einer Stereokamera kann auch dafür eingesetzt werden. Dies dient beispielsweise der redundanten oder diversitärredundanten Entfernungsschätzung mit anschließender Plausibilisierung oder Verrechnung. The 3D camera preferably has a triangulation unit, which correlates the structured illumination pattern to be projected with the image data of the image sensor in order to calculate the three-dimensional image. Thus, distances are estimated by an initially briefly explained projection method (active triangulation), with in principle the same correlation algorithms as in a stereo camera, but using only one camera and the illumination pattern. The adaptive lighting process ensures that the lighting pattern is clearly visible everywhere. In contrast to a stereo method, however, it is not possible to rely on natural contrasts and to leave corresponding subregions unlit because the 3D detection is based on the illumination pattern and this is not only an aid to better feature detection. A projection method can be combined with a stereo method, because any camera module of a stereo camera can also be used for it. This serves, for example, for the redundant or diversified redundant distance estimation with subsequent plausibility check or clearing.
Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die einzige Abbildung der Zeichnung zeigt in: The invention will be explained in more detail below with regard to further features and advantages by way of example with reference to embodiments and with reference to the accompanying drawings. The only illustration of the drawing shows in:
In der 3D-Kamera
Beispielsweise zwischen den beiden Bildsensoren
Die Beleuchtungseinheit
Mit den beiden Bildsensoren
Über einen Ausgang
Beleuchtungseinheit
Erfindungsgemäß ist vorgesehen, dass das jeweils projizierte Beleuchtungsmuster
In einem ersten Schritt erfolgt eine Vorabaufnahme unter homogener Beleuchtung durch die Beleuchtungseinheit
Aus den in der Vorabaufnahme erfassten Bilddaten der Bildsensoren
Im nächsten Schritt projiziert die Beleuchtungseinheit
Damit ist dann ein Aufnahmezyklus beendet, und es folgt eine weitere Vorabaufnahme. Alternativ kann das zuletzt berechnete zu projizierende Beleuchtungsmuster erneut zur Erfassung des nächsten dreidimensionalen Bildes verwendet werden, was dann natürlich eine entsprechend verlangsamte Adaption insbesondere an schnell veränderliche Szenerien zur Folge hat. Die generierten End- und Zwischenergebnisse, wie dreidimensionale Bilddaten der Stereoeinheit
Erfindungsgemäß ist es möglich, das Beleuchtungsmuster
In einer weiteren Ausführungsform werden mit dem Beleuchtungsmuster
Obwohl die Erfindung anhand der in
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 7433024 [0006] US 7433024 [0006]
- EP 2166304 A1 [0008] EP 2166304 A1 [0008]
- US 2007/0263904 A1 [0008] US 2007/0263904 A1 [0008]
- US 2008/0240502 A1 [0008] US 2008/0240502 A1 [0008]
- US 2010/0118123 A1 [0008] US 2010/0118123 A1 [0008]
- EP 2019281 A1 [0010, 0010] EP 2019281 A1 [0010, 0010]
- EP 2553383 B1 [0011] EP 2553383 B1 [0011]
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202015105376.2U DE202015105376U1 (en) | 2015-10-12 | 2015-10-12 | 3D camera for taking three-dimensional images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202015105376.2U DE202015105376U1 (en) | 2015-10-12 | 2015-10-12 | 3D camera for taking three-dimensional images |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202015105376U1 true DE202015105376U1 (en) | 2015-10-19 |
Family
ID=54432258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202015105376.2U Active DE202015105376U1 (en) | 2015-10-12 | 2015-10-12 | 3D camera for taking three-dimensional images |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202015105376U1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017001313A1 (en) | 2017-02-10 | 2017-10-19 | Daimler Ag | A method of processing image information concerning the face of the driver of a motor vehicle |
DE102016223671A1 (en) * | 2016-11-29 | 2018-05-30 | Continental Automotive Gmbh | Illumination system for the determination of geometric properties as well as driver assistance system and method |
CN108156430A (en) * | 2018-02-22 | 2018-06-12 | 天津天地伟业信息系统集成有限公司 | Security area projects video camera and kinescope method |
DE102017222708A1 (en) | 2017-12-14 | 2019-06-19 | Conti Temic Microelectronic Gmbh | 3D environment detection via projector and camera modules |
EP3383595B1 (en) | 2015-12-04 | 2021-09-01 | KUKA Deutschland GmbH | Displaying of variable safety zones |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070263904A1 (en) | 2006-03-15 | 2007-11-15 | Nikon Corporation | Subject tracking device, subject tracking method, subject tracking program product and optical device |
US20080240502A1 (en) | 2007-04-02 | 2008-10-02 | Barak Freedman | Depth mapping using projected patterns |
US7433024B2 (en) | 2006-02-27 | 2008-10-07 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
EP2019281A1 (en) | 2007-07-20 | 2009-01-28 | Sick Ag | 3D sensor and method for operating a 3D sensor |
EP2166304A1 (en) | 2008-09-23 | 2010-03-24 | Sick Ag | Lighting unit and method for creating a pattern dissimilar to itself |
US20100118123A1 (en) | 2007-04-02 | 2010-05-13 | Prime Sense Ltd | Depth mapping using projected patterns |
EP2553383B1 (en) | 2010-03-31 | 2014-02-26 | Omron Scientific Technologies, INC. | Method and apparatus for generating texture in a three-dimensional scene |
-
2015
- 2015-10-12 DE DE202015105376.2U patent/DE202015105376U1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7433024B2 (en) | 2006-02-27 | 2008-10-07 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
US20070263904A1 (en) | 2006-03-15 | 2007-11-15 | Nikon Corporation | Subject tracking device, subject tracking method, subject tracking program product and optical device |
US20080240502A1 (en) | 2007-04-02 | 2008-10-02 | Barak Freedman | Depth mapping using projected patterns |
US20100118123A1 (en) | 2007-04-02 | 2010-05-13 | Prime Sense Ltd | Depth mapping using projected patterns |
EP2019281A1 (en) | 2007-07-20 | 2009-01-28 | Sick Ag | 3D sensor and method for operating a 3D sensor |
EP2166304A1 (en) | 2008-09-23 | 2010-03-24 | Sick Ag | Lighting unit and method for creating a pattern dissimilar to itself |
EP2553383B1 (en) | 2010-03-31 | 2014-02-26 | Omron Scientific Technologies, INC. | Method and apparatus for generating texture in a three-dimensional scene |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3383595B1 (en) | 2015-12-04 | 2021-09-01 | KUKA Deutschland GmbH | Displaying of variable safety zones |
DE102016223671A1 (en) * | 2016-11-29 | 2018-05-30 | Continental Automotive Gmbh | Illumination system for the determination of geometric properties as well as driver assistance system and method |
WO2018099525A1 (en) * | 2016-11-29 | 2018-06-07 | Conti Temic Microelectronic Gmbh | Lighting system for ascertaining geometric properties, and driver assistance system and method therefor |
US10836301B2 (en) | 2016-11-29 | 2020-11-17 | Conti Temic Microelectronic Gmbh | Lighting system for ascertaining geometric properties, and driver assistance system and method therefor |
DE102017001313A1 (en) | 2017-02-10 | 2017-10-19 | Daimler Ag | A method of processing image information concerning the face of the driver of a motor vehicle |
DE102017222708A1 (en) | 2017-12-14 | 2019-06-19 | Conti Temic Microelectronic Gmbh | 3D environment detection via projector and camera modules |
WO2019114889A1 (en) | 2017-12-14 | 2019-06-20 | Conti Temic Microelectronic Gmbh | 3-d environment sensing by means of the projection of a series of pseudo-random patterns and stereo camera modules |
CN111465819A (en) * | 2017-12-14 | 2020-07-28 | 康蒂-特米克微电子有限公司 | Three-dimensional environment sensing by means of projection of pseudo-random pattern sequences and stereo camera modules |
US11073379B2 (en) | 2017-12-14 | 2021-07-27 | Conti Temic Microelectronic Gmbh | 3-D environment sensing by means of projector and camera modules |
CN108156430A (en) * | 2018-02-22 | 2018-06-12 | 天津天地伟业信息系统集成有限公司 | Security area projects video camera and kinescope method |
CN108156430B (en) * | 2018-02-22 | 2023-12-22 | 天津天地伟业信息系统集成有限公司 | Guard zone projection camera and video recording method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010037744B3 (en) | Optoelectronic sensor | |
EP2835973B1 (en) | 3D camera and method for capturing of three-dimensional image data | |
DE102009031732B3 (en) | Distance measuring optoelectronic sensor e.g. laser scanner, for monitoring operating area, has illumination unit activated with increased power, when no impermissible object contact is recognized | |
EP1933167B1 (en) | Optoelectronic sensor and method for detecting and determining the distance of an object | |
EP3421189B1 (en) | Method for monitoring a machine | |
EP2275990B1 (en) | 3D sensor | |
DE102013112171B4 (en) | External environment recognition device | |
DE202015105376U1 (en) | 3D camera for taking three-dimensional images | |
EP3011225B1 (en) | Device and method for securing a machine that operates in an automated manner | |
DE102007036129B3 (en) | Device and method for the three-dimensional monitoring of a spatial area with at least two image sensors | |
EP2202994B1 (en) | 3D camera for monitoring an area | |
WO2019114889A1 (en) | 3-d environment sensing by means of the projection of a series of pseudo-random patterns and stereo camera modules | |
DE102016206493A1 (en) | Method and camera system for determining the distance of objects to a vehicle | |
EP2854106A1 (en) | 3D camera according to the stereoscopy principle and method for recording depth maps | |
EP2019281B1 (en) | Method for operating a 3D sensor | |
EP3195256A1 (en) | Method and apparatus for identifying structural elements of a projected structural pattern in camera images | |
DE102010036852B4 (en) | stereo camera | |
DE202012102541U1 (en) | 3D camera | |
DE102020117060B4 (en) | Device and method for detecting the surroundings of a vehicle | |
EP3320681B1 (en) | Method and device for scanning surfaces using a stereo camera | |
DE102011017707A1 (en) | Method for detecting object e.g. concrete post in vicinity of camera for monitoring rear side region of vehicle, involves reading images captured by cameras after partially illuminating with illumination patterns | |
DE202012101965U1 (en) | stereo camera | |
EP2818824B1 (en) | Apparatus comprising an optoelectronic 3D-sensor and method for recognising objects | |
EP3496398B1 (en) | Secure stereo camera and method for testing the functionality of the image sensors | |
EP2270424A1 (en) | Opto-electronic sensor and monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R150 | Utility model maintained after payment of first maintenance fee after three years | ||
R151 | Utility model maintained after payment of second maintenance fee after six years | ||
R152 | Utility model maintained after payment of third maintenance fee after eight years |