DE202015102019U1 - Camera for taking pictures of a detection area - Google Patents

Camera for taking pictures of a detection area Download PDF

Info

Publication number
DE202015102019U1
DE202015102019U1 DE202015102019.8U DE202015102019U DE202015102019U1 DE 202015102019 U1 DE202015102019 U1 DE 202015102019U1 DE 202015102019 U DE202015102019 U DE 202015102019U DE 202015102019 U1 DE202015102019 U1 DE 202015102019U1
Authority
DE
Germany
Prior art keywords
camera
change
images
movement
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202015102019.8U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE202015102019.8U priority Critical patent/DE202015102019U1/en
Publication of DE202015102019U1 publication Critical patent/DE202015102019U1/en
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/005Blur detection

Abstract

Kamera (10), insbesondere 3D-Kamera, die einen Bildsensor (16, 16a–b) zur Aufnahme von Bildern eines Erfassungsbereichs (12), einen Inertialsensor (30) zum Erkennen einer Bewegungsänderung der Kamera (10) und eine Auswertungseinheit (26, 28, 34) zur Verarbeitung der Bilder und der Bewegungsänderung aufweist, dadurch gekennzeichnet, dass die Auswertungseinheit (26) dafür ausgebildet ist, anhand einer Bewegungsänderung während der Aufnahme ein Zuverlässigkeitsmaß der Bilder zu erzeugen.Camera (10), in particular a 3D camera, which has an image sensor (16, 16a-b) for taking pictures of a detection area (12), an inertial sensor (30) for detecting a change in movement of the camera (10) and an evaluation unit (26, 28, 34) for processing the images and the change in movement, characterized in that the evaluation unit (26) is adapted to generate a reliability measure of the images based on a change in movement during the recording.

Description

Die Erfindung betrifft eine Kamera zur Aufnahme von Bildern eines Erfassungsbereichs nach dem Oberbegriff von Anspruch 1. The invention relates to a camera for taking pictures of a detection area according to the preamble of claim 1.

Im Gegensatz zu einer herkömmlichen Kamera nimmt eine 3D-Kamera auch eine Tiefeninformation auf und erzeugt somit dreidimensionale Bilddaten mit Abstands- oder Entfernungswerten für die einzelnen Pixel des 3D-Bildes, das auch als Entfernungsbild oder Tiefenkarte bezeichnet wird. Die zusätzliche Entfernungsdimension lässt sich in einer Vielzahl von Anwendungen nutzen, um mehr Informationen über Objekte in der von der Kamera erfassten Szenerie zu gewinnen und so verschiedene Aufgaben im Bereich der Industriesensorik zu lösen. In contrast to a conventional camera, a 3D camera also captures depth information and thus generates three-dimensional image data with distance or distance values for the individual pixels of the 3D image, which is also referred to as a distance image or depth map. The extra distance dimension can be used in a variety of applications to gain more information about objects in the scene captured by the camera and to solve various industrial sensor tasks.

In der Automatisierungstechnik können anhand solcher Bildinformationen Objekte erfasst und klassifiziert werden, um weitere automatische Bearbeitungsschritte davon abhängig zu machen, welche Objekte vorzugsweise einschließlich ihrer Position und Orientierung erkannt wurden. Damit kann beispielsweise die Steuerung von Robotern oder verschiedenartigen Aktoren an einem Förderband unterstützt werden. In automation technology, objects can be detected and classified on the basis of such image information in order to make further automatic processing steps dependent on which objects are preferably recognized, including their position and orientation. Thus, for example, the control of robots or various actuators can be supported on a conveyor belt.

In mobilen Anwendungen gewinnt ein Fahrzeug über dreidimensionale Bilddaten Informationen über seine Umgebung und insbesondere einen geplanten Fahrweg. Dies kann für eine autonome Fortbewegung oder eine Fahrassistenz genutzt werden. In mobile applications, a vehicle gains information about its surroundings via three-dimensional image data, and in particular a planned route. This can be used for autonomous locomotion or driving assistance.

Wenn eine Anwesenheit von Personen möglich oder, wie an einem sogenannten kooperativen Arbeitsplatz, sogar erwünscht und vorgesehen ist, treten häufig sicherheitstechnische Aspekte hinzu. Eine typische sicherheitstechnische Anwendung besteht in der Absicherung einer gefährlichen Maschine, wie etwa einer Presse oder eines Roboters, wo bei Eingriff eines Körperteils in einen Gefahrenbereich um die Maschine herum eine Absicherung erfolgt. Dies kann je nach Situation die Abschaltung der Maschine oder das Verbringen in eine sichere Position sein. Mit der zusätzlichen Tiefeninformation lassen sich dreidimensionale Schutzbereiche definieren, die genauer an die Gefahrensituation anpassbar sind als zweidimensionale Schutzfelder, und es kann auch besser beurteilt werden, ob sich eine Person in kritischer Weise an die Gefahrenquelle annähert. Zu den sicherheitstechnischen Anwendungen zählt auch die Absicherung der Bewegung eines Fahrzeugs. When a presence of persons is possible or even desired and provided, as in a so-called cooperative workstation, security aspects are often added. A typical safety application is to secure a dangerous machine, such as a press or a robot, where protection is provided when a body part is engaged in a hazardous area around the machine. Depending on the situation, this can be the shutdown of the machine or the move to a safe position. With the additional depth information, three-dimensional protection areas can be defined which are more precisely adaptable to the danger situation than two-dimensional protection fields, and it can also be better assessed whether a person approaches the danger source in a critical manner. Security applications also include securing the movement of a vehicle.

Zur Ermittlung der Tiefeninformationen sind verschiedene Verfahren bekannt, wie Lichtlaufzeitmessungen (Time-of-Flight), Interferometrie oder Triangulation. Unter den Triangulationsverfahren wiederum können Lichtschnitt- und Projektionsverfahren sowie Stereoskopie unterschieden werden. Beim Lichtschnittverfahren wird das Objekt unter dem Sensor bewegt und aus den gewonnenen streifenbasierten Tiefeninformationen eine 3D-Punktewolke erzeugt. Beim Projektionsverfahren wird beispielsweise ein Streifenmuster auf die abzutastende Oberfläche projiziert und aus Veränderungen des Musters durch die Objekte in der Szene eine Tiefeninformation abgeleitet. Alternativ wird ein sogenanntes selbstunähnliches, also örtlich eindeutiges Muster projiziert. Das Projektionsverfahren mit einem strukturierten Muster wird beispielsweise in der US 7 433 024 verwendet. Dabei wird eine Vielzahl von Referenzbildern des strukturierten Beleuchtungsmusters in unterschiedlichen Abständen eingelernt. Ein später aufgenommenes Bild wird mit diesen Referenzbildern verglichen, um Objektabstände zu schätzen. Stereoskopieverfahren sind dem räumlichen Sehen mit zwei Augen angelehnt und suchen in zwei aus unterschiedlicher Perspektive aufgenommenen Bildern einander zugeordnete Bildelemente, aus deren Disparität in Kenntnis der optischen Parameter der Stereokamera die Entfernung durch Triangulation geschätzt wird. To determine the depth information, various methods are known, such as time-of-flight measurements, interferometry or triangulation. In turn triangulation methods can be used to distinguish between light-section and projection methods and stereoscopy. In the light-section method, the object is moved under the sensor and a 3D point cloud is generated from the strip-based depth information obtained. In the projection method, for example, a striped pattern is projected onto the surface to be scanned, and depth information is derived from changes in the pattern by the objects in the scene. Alternatively, a so-called self-similar, ie locally unique pattern is projected. The projection method with a structured pattern is used, for example, in US Pat US Pat. No. 7,433,024 used. In this case, a multiplicity of reference images of the structured illumination pattern are taught in at different intervals. A later captured image is compared to these reference images to estimate object distances. Stereoscopic methods are based on two-eyed spatial vision and search for associated image elements in two images taken from different perspectives, whose disparity in knowledge of the optical parameters of the stereo camera estimates the distance by triangulation.

Speziell bei mobilen Anwendungen, etwa an einem Stapler oder Flurförderzeug, kann es zu großen Erschütterungen des Fahrzeugs und damit auch einer daran montierten Kamera kommen. Dadurch treten Bewegungsartefakte wie ein Verschmieren der Bilder auf. Es ist in manchen Fällen möglich, dies durch Analyse und Bewertung der Bilddaten zu korrigieren oder zumindest zu erkennen. Das bedeutet aber einen großen Rechenaufwand und ist auch nur bedingt erfolgreich. Especially in mobile applications, such as on a forklift or truck, it can lead to large vibrations of the vehicle and thus also mounted on a camera. As a result, motion artifacts such as smearing of the images occur. In some cases it is possible to correct or at least recognize this by analyzing and evaluating the image data. But that means a lot of computational effort and is only partially successful.

Für einfache Fotokameras ist bekannt, die Eigenbewegung mit einem Sensor zu erkennen, um ein Verwackeln zu kompensieren, etwa durch entsprechende Gegenbewegung in der Optik. Das ist aber nicht für eine wesentlich komplexere 3D-Kamera gedacht und funktioniert auch nur für kleine Eigenbewegungen. For simple photo cameras is known to detect the proper motion with a sensor to compensate for a blur, such as by corresponding counter-movement in the optics. This is not intended for a much more complex 3D camera and works only for small intrusive movements.

Die DE 10 2009 007 842 A1 offenbart ein videobasiertes Fahrerassistenzsystem mit einer Stereokamera, die aus Daten eines Drehraten- beziehungsweise Beschleunigungssensors eine Winkel- und Lageänderung zwischen zwei Aufnahmen bestimmt und den daraus resultierenden Pixelversatz korrigiert. Das hilft aber nicht gegen Bewegungsartefakte innerhalb einer Aufnahme. The DE 10 2009 007 842 A1 discloses a video-based driver assistance system with a stereo camera, which determines from data of a rotation rate or acceleration sensor, an angular and positional change between two shots and corrects the resulting pixel offset. But that does not help against movement artifacts within a shot.

Aus der US 5 585 875 ist ein Vibrationskorrektursystem in einer Kamera bekannt. Es erkennt mit einem Sensor Eigenbewegungen, die etwa durch Handzittern verursacht sind, und umfasst ein optisches Korrektursystem dafür. Dieses Korrektursystem wird blockiert, wenn darin oder in dem Sensor eine Fehlfunktion erkannt wird. Das ist für eine automatisch arbeitende Kamera, erst recht in sicherheitstechnischer Anwendung, kein gangbarer Weg, weil damit starke Erschütterungen und deren Auswirkungen nicht aus der Welt geschafft werden. From the U.S. 5,585,875 For example, a vibration correction system is known in a camera. It detects with a sensor proper movements, which are caused by hand shaking, for example, and includes an optical correction system for it. This correction system is blocked if a malfunction is detected in it or in the sensor. That's for an automatically working camera, especially in safety-related application, not a viable option because it does not eliminate severe shocks and their effects.

Daher ist Aufgabe der Erfindung, die Zuverlässigkeit einer bewegten Kamera zu verbessern. It is therefore an object of the invention to improve the reliability of a moving camera.

Diese Aufgabe wird durch eine Kamera zur Aufnahme von Bildern eines Erfassungsbereichs nach Anspruch 1 gelöst. Vorzugsweise handelt es sich um eine 3D-Kamera, welche aus den Signalen eines oder mehrerer Bildsensoren dreidimensionale Bilder erzeugt. Je nach 3D-Verfahren ist die entsprechende Auswertung zumindest teilweise in den Bildsensor integriert. Die Kamera umfasst einen Inertialsensor, also einen Sensor, der eine Bewegungsänderung der Kamera erkennt. Dabei geht es in erster Linie um plötzliche Bewegungsänderungen wie beim Fahren über eine Bodenwelle. Übliche Beschleunigungs- und Bremsvorgänge oder Kurvenfahrten eines Fahrzeugs können zwar auch über einen Inertialsensor erfasst werden, sind aber im Vergleich zu den Belichtungs- oder Erfassungszeiten oft unkritisch. Die Erfindung geht nun von dem Grundgedanken aus, die Bewegungsänderung während einer Aufnahme zu bewerten. Dadurch kann ein Zuverlässigkeitsmaß gewonnen werden, dass Auskunft darüber gibt, wie stark das Bild vermutlich durch die Bewegungsänderung beeinträchtigt ist. Das Zuverlässigkeitsmaß kann eine Zahl oder ein Zahlenfeld sein, das die Beeinträchtigung wegen der Bewegungsänderung quantifiziert, aber auch eine einfache Information wie „verwackelt“ oder „nicht verwackelt“. Anders ausgedrückt wird geprüft, ob das Bild verwackelt ist und inwieweit es in diesem Falle dennoch verwendet werden kann. This object is achieved by a camera for capturing images of a detection range according to claim 1. Preferably, it is a 3D camera, which generates three-dimensional images from the signals of one or more image sensors. Depending on the 3D method, the corresponding evaluation is at least partially integrated in the image sensor. The camera includes an inertial sensor, ie a sensor that detects a change in the movement of the camera. It is primarily about sudden changes in movement as when driving over a bump. Although typical acceleration and braking processes or cornering of a vehicle can also be detected via an inertial sensor, they are often not critical in comparison to the exposure or detection times. The invention is based on the basic idea of evaluating the change in movement during a recording. As a result, a measure of reliability can be obtained that provides information about how strongly the image is likely to be affected by the change in movement. The reliability measure may be a number or a number field that quantifies the impairment due to the motion change, but also simple information such as "blurred" or "not blurred". In other words, it is checked whether the image is blurred and to what extent it can still be used in this case.

Die Erfindung hat den Vorteil, dass eine zuverlässige Bilderfassung auch unter Erschütterungen ermöglicht wird. Sofern im Moment der Erschütterung kein zuverlässiger Betrieb möglich ist, wird das also erkannt. Damit werden einerseits falsch positive Detektionen von Objekten verhindert, die real gar nicht vorhanden sind. Sie würden sonst möglicherweise als Hindernisse, unzulässige Schutzfeldeingriffe und dergleichen bewertet, also die Verfügbarkeit unnötig reduzieren. Andererseits kann es nicht mehr vorkommen, dass aufgrund einer Erschütterung ein tatsächlich vorhandenes Hindernis übersehen wird. Dies wäre gerade in einer sicherheitstechnischen Anwendung hochkritisch, da es zu Unfällen führen kann. Die Erschütterung wird erfindungsgemäß erkannt und kann in der Signalauswertung berücksichtigt werden oder zumindest zuverlässig erkannt werden, wann die Kamera keine ausreichend verlässlichen Bilder liefert. The invention has the advantage that a reliable image acquisition is made possible even under vibration. If at the moment of vibration no reliable operation is possible, so that is recognized. On the one hand this prevents false positive detections of objects that are not actually present. Otherwise they would possibly be rated as obstacles, inadmissible protective field interventions and the like, thus unnecessarily reducing the availability. On the other hand, it can no longer happen that due to a shock an actually existing obstacle is overlooked. This would be highly critical, especially in a safety-related application, since it can lead to accidents. The vibration is detected according to the invention and can be taken into account in the signal analysis or at least reliably detected when the camera does not provide sufficiently reliable images.

Der Inertialsensor ist bevorzugt ein Beschleunigungssensor und/oder ein Drehratensensor. So wird die Bewegungsänderung in Translations- und/oder Rotationsrichtung bestimmt. Eine plötzliche Rotation wird regelmäßig das geringere Problem sein, so dass vorzugsweise die Beschleunigung gemessen wird. The inertial sensor is preferably an acceleration sensor and / or a rotation rate sensor. Thus, the change of motion in the translation and / or rotation direction is determined. A sudden rotation will regularly be the lesser problem, so preferably the acceleration is measured.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, die Bewegungsänderung während der Aufnahme und/oder das Zuverlässigkeitsmaß mit den zugehörigen Bildern zu speichern oder auszugeben. So kann die Bewegungsänderung in einer Nachbearbeitung, insbesondere eine Bildkorrektur verwendet werden, oder es erfolgt eine nachträgliche Neubewertung der Beeinträchtigung durch die Bewegungsänderung. Durch Speichern oder Ausgeben des Zuverlässigkeitsmaßes sind die aufgenommenen Bilder quasi markiert oder getaggt, und daran wird rasch erkannt, ob und inwieweit die Qualität der Bilder wegen einer Bewegungsänderung als herabgesetzt betrachtet wird. The evaluation unit is preferably designed to store or output the movement change during the recording and / or the reliability measure with the associated images. Thus, the change in movement in a post-processing, in particular an image correction can be used, or there is a subsequent re-evaluation of the impairment of the change in movement. By storing or outputting the reliability measure, the captured images are quasi tagged or tagged, and it is quickly recognized whether and to what extent the quality of the images is considered degraded due to a change in motion.

Die Auswertungseinheit ist dafür ausgebildet, die Bewegungsänderung in Amplitude und/oder Richtung auszuwerten und gegebenenfalls mit dem Bild zu speichern. Die Amplitude ist offensichtlich ein quantitatives Maß für die Erschütterung und differenziert so zwischen kleinen und großen Erschütterungen. Auch die Richtung kann aber eine Rolle spielen, da je nach Anwendung Bewegungsänderungen in bestimmten Richtungen kritischer sind als in anderen Richtungen. The evaluation unit is designed to evaluate the change in movement in amplitude and / or direction and optionally to save it with the image. The amplitude is obviously a quantitative measure of the vibration and differentiates between small and large vibrations. The direction may also play a role, however, since, depending on the application, movement changes in certain directions are more critical than in other directions.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, in Abhängigkeit von dem Zuverlässigkeitsmaß die Bewegungsänderung zu ignorieren, andere Verfahren zu Verarbeitung der Bilddaten einzusetzen oder die Bilder zu verwerfen. Das Bild wird also je nach Qualitätseinbuße durch Bewegungsänderung anders behandelt. Eine Möglichkeit ist die genannte, ein nur leicht beeinträchtigtes Bild ganz normal zu behandeln, bei einer stärkeren Bewegungsänderung andere, in der Regel mächtigere oder zumindest störtolerantere Bildverarbeitungen einzusetzen und ein Bild, das unter zu starker Bewegungsänderung gewonnen wurde, gar nicht mehr auszuwerten. The evaluation unit is preferably designed to ignore the change in movement depending on the reliability measure, to use other methods for processing the image data or to discard the images. The image is thus treated differently depending on the loss of quality due to changes in movement. One possibility is to treat the mentioned picture, which is only slightly impaired, as normal, to use other, usually more powerful, or at least disturbance-tolerant, image processing in the event of a greater change in movement and to no longer evaluate an image obtained under excessive change of motion.

Die Auswertungseinheit ist bevorzugt dafür ausgebildet, ein Warn- oder Abschaltsignal zu erzeugen, wenn das Zuverlässigkeitsmaß für eine Mindestanzahl von aufeinanderfolgenden Aufnahmen unter einem Mindestwert liegt. Das ist besonders in sicherheitstechnischen Anwendungen relevant, etwa der Überwachung eines Schutzfeldes oder einer Hinderniserkennung an einem Fahrzeug. Dafür wird zuverlässig festgestellt, wenn aufgrund von Bewegungsänderungen keine ausreichende Erfassung durch die Kamera erwartet werden kann, um eine überwachte Gefahrenquelle in einen sicheren Zustand zu überbringen, beispielsweise eine Maschine abzuschalten oder ein Fahrzeug abzubremsen. Es werden vorzugsweise direkt aufeinander folgende Bilder geprüft, aber dies muss nicht ganz streng befolgt werden. So kann beispielsweise auch eine Abschaltung erfolgen, wenn beispielsweise von N Aufnahmen nur eine oder wenige Aufnahmen brauchbar sind. Zudem ist denkbar, das jeweilige Zuverlässigkeitsmaß quantitativ zu bewerten. So können beispielsweise mehrere Bilder ohne Warnung oder Abschaltung toleriert werden, deren Zuverlässigkeitsmaß nur knapp unter dem Mindestwert liegt, während schon eines oder wenige völlig verwackelte Bilder eine Warnung oder Abschaltung auslösen. The evaluation unit is preferably designed to generate a warning or switch-off signal if the reliability measure for a minimum number of successive recordings is below a minimum value. This is particularly relevant in safety applications, such as the monitoring of a protective field or obstacle detection on a vehicle. For this purpose, it is reliably established that, due to movement changes, sufficient detection by the camera can not be expected in order to transfer a monitored source of danger to a safe state, for example to shut down a machine or to decelerate a vehicle. Preferably, directly successive images are checked, but this does not have to be followed very strictly. For example, a shutdown can take place if, for example, only one or a few recordings of N recordings are usable. In addition, it is conceivable to quantitatively assess the respective reliability measure. For example, several images can be tolerated without warning or shutdown, the reliability level is just below the minimum value, while even one or a few completely blurred images trigger a warning or shutdown.

Die Kamera ist bevorzugt zur Aufnahme von dreidimensionalen Bildern als Stereokamera ausgebildet und weist dazu mindestens zwei Kameramodule mit jeweils einem Bildsensor in zueinander versetzter Perspektive sowie eine Stereoskopieeinheit auf, in der mittels eines Stereoalgorithmus‘ einander zugehörige Teilbereiche in von den beiden Kameramodulen aufgenommenen Bilddaten erkannt werden und deren Entfernung anhand der Disparität berechnet wird. Das Stereoskopieverfahren hat wie alle 3D-Verfahren auch ohne Bewegungsänderung die zusätzliche Schwierigkeit, überhaupt lückenlos Entfernungsdaten zu gewinnen. Diese erhöhte Komplexität macht es noch sinnvoller, zumindest Störungen durch Bewegungsänderungen durch andere Maßnahmen auszugleichen oder wenigstens zu erkennen. Die Stereokamera kann eine Beleuchtungseinheit zur Erzeugung eines strukturierten Beleuchtungsmusters aufweisen, um unabhängig von Umgebungsbedingungen zu werden. The camera is preferably designed to record three-dimensional images as a stereo camera and has for this purpose at least two camera modules each with an image sensor in mutually offset perspective and a stereoscopic unit, in which by means of a stereo algorithm 'associated sub-areas are detected in captured by the two camera modules image data and whose distance is calculated on the basis of the disparity. The stereoscopic method has, like all 3D methods, even without change of movement, the additional difficulty of gaining complete range data at all. This increased complexity makes it even more useful, at least to compensate for disturbances due to movement changes by other measures or at least to recognize. The stereo camera may include a lighting unit for generating a patterned illumination pattern to become independent of environmental conditions.

Eine denkbare Alternative zu einer Stereokamera ist eine Kamera nach dem Projektionsverfahren beziehungsweise mit aktiver Triangulation, die zur Aufnahme von dreidimensionalen Bildern eine Triangulationseinheit aufweist, welche zur Berechnung des dreidimensionalen Bildes ein projiziertes strukturiertes Beleuchtungsmuster mit Bilddaten des Bildsensors korreliert. Hier ist die Beleuchtungseinheit nicht optional, sondern Teil des 3D-Verfahrens. A conceivable alternative to a stereo camera is a camera according to the projection method or with active triangulation, which has a triangulation unit for recording three-dimensional images, which correlates a projected structured illumination pattern with image data of the image sensor for calculating the three-dimensional image. Here, the lighting unit is not optional, but part of the 3D process.

Die Kamera ist bevorzugt zur Aufnahme von dreidimensionalen Bildern als Lichtlaufzeitkamera ausgebildet und weist dazu eine Beleuchtungseinheit und eine Lichtlaufzeiteinheit auf, um die Lichtlaufzeit eines Lichtsignals zu bestimmen, das von der Beleuchtungseinheit ausgesandt, an Objekten in dem Erfassungsbereich remittiert und in dem Bildsensor erfasst wird. Bei Lichtlaufzeitkameras ist häufig die Auswertung zumindest teilweise in den Bildsensor integriert. Bei einigen Phasenverfahren wird beispielsweise ein dreidimensionales Bild aus vier Aufnahmen erzeugt. Das dauert mit typischerweise einigen 10 ms vergleichsweise lang, so dass Erschütterung großen Einfluss haben kann. The camera is preferably configured to record three-dimensional images as a time of flight camera and has for this purpose a lighting unit and a light-time unit to determine the light transit time of a light signal emitted by the lighting unit, remitted to objects in the detection area and detected in the image sensor. In the case of time of day cameras, the evaluation is often at least partially integrated into the image sensor. For example, in some phase methods, a three-dimensional image is generated from four images. This takes a comparatively long time with typically a few 10 ms, so that vibration can have a major impact.

Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in: The invention will be explained in more detail below with regard to further features and advantages by way of example with reference to embodiments and with reference to the accompanying drawings. The illustrations of the drawing show in:

1 eine schematische Darstellung einer Stereokamera; und 1 a schematic representation of a stereo camera; and

2 eine schematische Darstellung einer Lichtlaufzeitkamera. 2 a schematic representation of a light time camera.

1 zeigt eine schematische Darstellung einer 3D-Kamera 10 zur Aufnahme von dreidimensionalen Bildern eines Erfassungsbereichs 12 in einer Ausführungsform als Stereokamera. Die nachfolgend an Ausführungsbeispielen beschriebene Bewertung der Erschütterung oder Bewegungsänderung der 3D-Kamera 10 ist prinzipiell auch für einfache, also zweidimensionale Kameras interessant, insbesondere bei deren Einsatz in der Sicherheitstechnik. Allerdings zielt die Erfindung vorzugsweise auf 3D-Kameras, da hier Bewegungsänderungen besonders kritisch sind und es schon ohne eine Bewegungsproblematik oftmals schwer genug ist, lückenlose Bilder zu gewinnen. Deshalb wird die Erfindung auch anhand von 3D-Kameras erläutert, wobei durch konkrete Beschreibung einer Stereokamera und später eine Lichtlaufzeitkamera keine Beschränkung auf einen bestimmten Typ 3D-Kamera impliziert sein soll. Auch andere 3D-erfahren sind denkbar, insbesondere ein einleitend genanntes Projektionsverfahren mit nur einer Kamera und Korrelation mit deren Beleuchtungsmuster (aktive Triangulation). 1 shows a schematic representation of a 3D camera 10 for taking three-dimensional images of a detection area 12 in one embodiment as a stereo camera. The evaluation of the vibration or change of movement of the 3D camera described below using exemplary embodiments 10 is in principle also interesting for simple, ie two-dimensional cameras, in particular for their use in safety technology. However, the invention preferably aims at 3D cameras, since movement changes are particularly critical here and it is often difficult enough to gain seamless images even without a movement problem. Therefore, the invention will also be explained with reference to 3D cameras, wherein by concrete description of a stereo camera and later a light time camera no limitation to a particular type of 3D camera should be implied. Other 3D experiences are also conceivable, in particular an initially mentioned projection method with only one camera and correlation with its illumination pattern (active triangulation).

Die 3D-Kamera 10 kann beispielsweise in mobiler Anwendung an einem Fahrzeug montiert sein und von einem Fahrerassistenzsystem oder sogar zum autonomen Fahren (AGV, automated guided vehicle) genutzt werden. Erschütterungen, Vibrationen oder sonstige ungünstige Bewegungsänderungen treten aber auch in eigentlich statischer Montage auf, beispielsweise an feststehenden Maschinen, die Erschütterungen ausgesetzt sind oder selbst zumindest in einigen Arbeitsschritten vibrieren. The 3D camera 10 For example, it can be mounted in a mobile application on a vehicle and used by a driver assistance system or even for autonomous driving (AGV). However, vibrations, vibrations or other unfavorable movement changes also occur in actually static mounting, for example on stationary machines which are exposed to vibrations or themselves vibrate at least in a few steps.

In der 3D-Kamera 10 sind zwei Kameramodule 14a–b in einem bekannten festen Abstand zueinander montiert und nehmen jeweils Bilder des Erfassungsbereichs 12 auf. In jeder Kamera ist ein Bildsensor 16a–b vorgesehen, üblicherweise ein matrixförmiger Aufnahmechip, der ein rechteckiges Pixelbild aufnimmt, beispielsweise ein CCD- oder ein CMOS-Sensor. Den Bildsensoren 16a–b ist jeweils ein Objektiv mit einer abbildenden Optik zugeordnet, welches als Linse 18a–b dargestellt ist und in der Praxis als jede bekannte Abbildungsoptik realisiert sein kann. In the 3D camera 10 are two camera modules 14a -B mounted at a known fixed distance from each other and each take pictures of the detection area 12 on. In every camera is an image sensor 16a B, usually a matrix-shaped receiving chip which receives a rectangular pixel image, for example a CCD or a CMOS sensor. The image sensors 16a -B is in each case associated with a lens with an imaging optics, which as a lens 18a -B is shown and may be implemented in practice as any known imaging optics.

In der Mitte zwischen den beiden Kameramodulen 14a–b ist eine Beleuchtungseinheit 20 mit einer Lichtquelle 22 dargestellt, wobei diese räumliche Anordnung nur als Beispiel zu verstehen ist. Die Beleuchtungseinheit 20 kann abweichend von der Darstellung anders und auch extern angeordnet sein. Für passive Stereoskopie könnte auf die Beleuchtungseinheit 20 sogar verzichtet werden. Die Beleuchtungseinheit 20 erzeugt mit Hilfe eines Mustererzeugungselements 24 in dem Erfassungsbereich 12 ein strukturiertes Beleuchtungsmuster. Das Beleuchtungsmuster sollte vorzugsweise zumindest lokal eindeutig oder selbstunähnlich in dem Sinne sein, dass Strukturen des Beleuchtungsmusters nicht zu Scheinkorrelationen führen, beziehungsweise einen Beleuchtungsbereich eindeutig kennzeichnen. In the middle between the two camera modules 14a -B is a lighting unit 20 with a light source 22 shown, this spatial Arrangement is to be understood only as an example. The lighting unit 20 can be arranged differently and also externally, differing from the illustration. For passive stereoscopy could be on the lighting unit 20 even be waived. The lighting unit 20 generated by means of a pattern generating element 24 in the detection area 12 a structured lighting pattern. The illumination pattern should preferably be at least locally unique or self-similar in the sense that structures of the illumination pattern do not lead to apparent correlations, or clearly identify a lighting area.

Mit den beiden Bildsensoren 16a–b und der Beleuchtungseinheit 20 ist eine kombinierte Steuerungs- und Auswertungseinheit 26 verbunden, die im Folgenden nur als Auswertungseinheit 26 bezeichnet wird. Mittels der Auswertungseinheit 26 wird das strukturierte Beleuchtungsmuster erzeugt, und sie empfängt Bilddaten der Bildsensoren 16a–b. Aus diesen Bilddaten berechnet eine Stereoskopieeinheit 28 der Auswertungseinheit 26 mit einem an sich bekannten Stereoskopiealgorithmus dreidimensionale Bilddaten (Entfernungsbild, Tiefenkarte) des Erfassungsbereichs 12. Die Auswertungseinheit 26 und die Stereoskopieeinheit 28 können abweichend von der Darstellung in beliebiger Weise auf einem oder mehreren digitalen Bausteinen verteilt implementiert sein und auch analoge Schaltungsteile aufweisen. With the two image sensors 16a -B and the lighting unit 20 is a combined control and evaluation unit 26 in the following, only as an evaluation unit 26 referred to as. By means of the evaluation unit 26 The structured illumination pattern is generated and receives image data of the image sensors 16a b. From these image data, a stereoscopic unit calculates 28 the evaluation unit 26 with a stereoscopic algorithm known per se three-dimensional image data (distance image, depth map) of the detection area 12 , The evaluation unit 26 and the stereoscopic unit 28 Deviating from the representation, they can be implemented in any way distributed on one or more digital components and can also have analog circuit components.

In die 3D-Kamera 10 ist weiterhin ein Inertialsensor 30 integriert, der Bewegungsänderungen detektiert und zu deren Übermittlung mit der Auswertungseinheit 26 verbunden ist. Der Inertialsensor 30 bestimmt die Drehrate und/oder Beschleunigung der 3D-Kamera 10 und ist dafür in einer beliebigen bekannten Weise ausgebildet, beispielsweise als Piezokeramik oder wegen dessen besonderer Kompaktheit als MEMS (Micro Electro Mechnical System). Die Auswertungseinheit 26 bewertet anhand der Bewegungsänderungen während einer Aufnahme in einem Zuverlässigkeitsmaß, inwieweit dadurch eine Beeinträchtigung der erzeugten dreidimensionalen Bilder verursacht wird. Dabei kann es sich sowohl um Einzelbilder als auch eine Reihe aufeinanderfolgender Bilder handeln. In the 3D camera 10 is still an inertial sensor 30 integrated, detects the movement changes and their transmission with the evaluation unit 26 connected is. The inertial sensor 30 determines the rate of rotation and / or acceleration of the 3D camera 10 and is designed for this purpose in any known manner, for example as a piezoceramic or because of its particular compactness as a MEMS (Micro Electro Mechanical System). The evaluation unit 26 evaluated on the basis of the movement changes during a recording in a reliability measure, the extent to which an impairment of the generated three-dimensional images is caused. These can be both individual images and a series of consecutive images.

Beispielsweise werden dreidimensionale Bilder verworfen, als ungültig oder zumindest potentiell fehlerhaft markiert, wenn der Inertialsensor 30 während deren Aufnahme eine Erschütterung registriert hat, deren Amplitude über einem festgelegten Grenzwert liegt. Mit Hilfe des Inertialsensors 30 kann zum einen verhindert werden, dass es während einer Erschütterung zu einer falsch positiven Objektdetektion kommt, also aus Bewegungsartefakten ein Objekt erkannt wird, das gar nicht existiert. Dies würde zu unnötigen Reaktionen und damit einer Einschränkung der Verfügbarkeit eines Systems führen, dessen Teil die 3D-Kamera 10 ist. For example, three-dimensional images are discarded, marked as invalid or at least potentially defective when the inertial sensor 30 while recording has registered a shock whose amplitude is above a specified limit. With the help of the inertial sensor 30 On the one hand, it can be prevented that a false positive object detection occurs during a vibration, ie motion artifacts are used to detect an object that does not exist. This would lead to unnecessary reactions and thus a restriction on the availability of a system that is part of the 3D camera 10 is.

Besonders im Falle sicherheitstechnischer Anwendungen, in denen die 3D-Kamera 10 beispielsweise ein Schutzfeld oder die Umgebung eines Fahrzeugs überwacht, besteht aufgrund der Bewertung mit Hilfe des Inertialsensors 30 die Möglichkeit, problematische Situationen zu erkennen und gegebenenfalls ein Warn- oder Abschaltsignal zu erzeugen. So wird beispielsweise eine Maschine oder ein Fahrzeug vorsorglich gestoppt, wenn mehr als N aufeinanderfolgende Bilder wegen zu starker Erschütterung ungültig beziehungsweise potentiell fehlerhaft sind. Dadurch wird verhindert, dass möglicherweise ein sicherheitskritisches Objekt übersehen wird und es deshalb zu einem Unfall kommt. Especially in the case of safety applications in which the 3D camera 10 For example, monitors a protective field or the environment of a vehicle, is due to the evaluation using the inertial sensor 30 the ability to detect problematic situations and, if necessary, generate a warning or shutdown signal. For example, a machine or vehicle is precautionarily stopped if more than N consecutive images are invalid or potentially defective due to excessive vibration. This will prevent a potentially critical object from being overlooked and cause an accident.

Die während einer Erschütterung aufgenommenen dreidimensionalen Bilder müssen nicht zwingend komplett verworfen werden. Alternativ können diese Bilder mittels speziell angepasster Algorithmen unter Verwendung des Zusatzwissens von dem Inertialsensor 30 analysiert und ausgewertet werden, dass eine Erschütterung während der Bildaufnahme aufgetreten ist, gegebenenfalls auch unter Berücksichtigung der aus den Messdaten des Inertialsensors 30 bekannten Amplitude und Richtung. The recorded during a vibration three-dimensional images do not necessarily have to be completely discarded. Alternatively, these images may be generated using specially adapted algorithms using the additional knowledge from the inertial sensor 30 be analyzed and evaluated that a vibration during image acquisition has occurred, possibly also taking into account from the measurement data of the inertial sensor 30 known amplitude and direction.

Je nach Anwendung kann nicht allein die Amplitude, sondern auch die vektorielle Richtung der Auslenkung einer Bewegungsänderung beziehungsweise Erschütterung relevant sein. Beispielsweise kann es sein, dass eine Auslenkung in Richtung der Sensorachse (Messrichtung) kritischer ist als senkrecht zur Messrichtung oder umgekehrt. Daher kann das Zuverlässigkeitsmaß, insbesondere die Identifizierung oder Markierung von ungültigen oder potenziell fehlerhaften dreidimensionalen Bildern, neben der Amplitude der Erschütterung auch abhängig von der Richtung der Auslenkung sein, wobei zumindest bestimmte Inertialsensoren 30 auch in der Lage sind, diese Richtung mit zu erfassen. Depending on the application, not only the amplitude, but also the vectorial direction of the deflection of a movement change or vibration can be relevant. For example, it may be that a deflection in the direction of the sensor axis (measuring direction) is more critical than perpendicular to the measuring direction or vice versa. Therefore, the reliability measure, in particular the identification or marking of invalid or potentially defective three-dimensional images, in addition to the amplitude of the vibration, can also be dependent on the direction of the deflection, wherein at least certain inertial sensors 30 are also able to grasp this direction.

In einer weiteren Ausführungsform werden mehrere Schwellwerte für die gegebenenfalls richtungsabhängig bewertete Amplitude der Bewegungsänderung oder für das Zuverlässigkeitsmaß definiert, um je nach Grad der Beeinträchtigung durch die Erschütterung selektiv zu reagieren. Beispielsweise wird eine geringfügige Erschütterung ohne besondere Maßnahme hingenommen, eine gewisse Erschütterung führt zum Erzeugen oder Verarbeiten eines dreidimensionalen Bildes mit speziellen Algorithmen, und erst bei schwerer Erschütterung wird ein dreidimensionales Bild komplettes Verworfen. In a further embodiment, a plurality of threshold values are defined for the optionally direction-dependent evaluated amplitude of the change in movement or for the reliability measure in order to react selectively depending on the degree of impairment by the vibration. For example, a slight vibration is tolerated without special measures, a certain amount of vibration leads to the production or processing of a three-dimensional image with special algorithms, and only in the case of severe vibration is a three-dimensional image completely discarded.

Über einen Ausgang 32 kann die 3D-Kamera 10 dreidimensionale Bilder oder andere Messergebnisse ausgeben, beispielsweise die von dem Inertialsensor 30 bestimmte Bewegungsänderung, Rohbilddaten eines Kameramoduls 14a–b, aber auch Auswertungsergebnisse wie Objektdaten oder die Identifizierung bestimmter Objekte. Speziell in sicherheitstechnischer Anwendung kann das Erkennen eines unzulässigen Eingriffs in Schutzfelder, die in dem Erfassungsbereich 12 definiert wurden, oder das bereits erläuterte Aufeinanderfolgen von N Bildern bei zu großer Erschütterung zur Ausgabe eines sicherheitsgerichteten Abschaltsignals führen. Dazu ist der Ausgang 32 dann vorzugsweise als Sicherheitsausgang (OSSD, Output Signal Switching Device) ausgeführt und die 3D-Kamera 10 insgesamt im Sinne einschlägiger Sicherheitsnormen ausfallsicher aufgebaut. About an exit 32 can the 3d camera 10 output three-dimensional images or other measurement results, such as the inertial sensor 30 certain movement change, raw image data of a camera module 14a -B, but also evaluation results such as object data or the identification of certain objects. Especially in safety applications, the detection of an impermissible intervention in protective fields in the detection area 12 have been defined, or the already explained succession of N images in case of excessive vibration lead to the output of a safety-related shutdown signal. This is the exit 32 then preferably as a safety output (OSSD, output signal switching device) running and the 3D camera 10 Total constructed in accordance with relevant safety standards fail-safe.

2 zeigt in einer weiteren Blockdarstellung eine alternative Ausführungsform der 3D-Kamera 10 als Lichtlaufzeitkamera. Dabei bezeichnen hier und im Folgenden die gleichen Bezugszeichen gleiche oder einander entsprechende Merkmale. Auf der relativ groben Ebene der Darstellung unterscheidet sich die Lichtlaufzeitkamera von einer Stereokamera hauptsächlich durch das Fehlen eines zweiten Kameramoduls. Ein solcher Aufbau ist auch derjenige einer 3D-Kamera, die Entfernungen in einem Projektionsverfahren aus entfernungsabhängigen Veränderungen des Beleuchtungsmusters schätzt. Ein weiterer Unterschied besteht darin, dass die Auswertung eine andere ist. Dazu ist anstelle der Stereoskopieeinheit 28 eine Lichtlaufzeiteinheit 34 in der Auswertungseinheit 26 vorgesehen, welche die Lichtlaufzeit zwischen Aussenden und Empfangen eines Lichtsignals misst. Die Lichtlaufzeiteinheit 34 kann auch direkt zumindest teilweise in den Bildsensor 16 integriert sein, beispielsweise in einem PMD-Chip (Photonmischdetektion). Entsprechend ist in einer 3D-Kamera für ein Projektionsverfahren eine angepasste Einheit zum Auswerten des Beleuchtungsmusters vorgesehen. 2 shows in a further block diagram an alternative embodiment of the 3D camera 10 as a light runtime camera. Here and in the following, the same reference numerals designate the same or corresponding features. At the relatively coarse level of presentation, the time of day camera differs from a stereo camera mainly in the absence of a second camera module. Such a construction is also that of a 3D camera, which estimates distances in a projection method from distance-dependent changes of the illumination pattern. Another difference is that the evaluation is different. This is in place of the stereoscopic unit 28 a light time unit 34 in the evaluation unit 26 provided, which measures the light transit time between sending and receiving a light signal. The light runtime unit 34 can also directly at least partially into the image sensor 16 be integrated, for example in a PMD chip (photon mixing detection). Accordingly, an adapted unit for evaluating the illumination pattern is provided in a 3D camera for a projection method.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 7433024 [0006] US 7433024 [0006]
  • DE 102009007842 A1 [0009] DE 102009007842 A1 [0009]
  • US 5585875 [0010] US 5585875 [0010]

Claims (8)

Kamera (10), insbesondere 3D-Kamera, die einen Bildsensor (16, 16a–b) zur Aufnahme von Bildern eines Erfassungsbereichs (12), einen Inertialsensor (30) zum Erkennen einer Bewegungsänderung der Kamera (10) und eine Auswertungseinheit (26, 28, 34) zur Verarbeitung der Bilder und der Bewegungsänderung aufweist, dadurch gekennzeichnet, dass die Auswertungseinheit (26) dafür ausgebildet ist, anhand einer Bewegungsänderung während der Aufnahme ein Zuverlässigkeitsmaß der Bilder zu erzeugen. Camera ( 10 ), in particular 3D camera, which has an image sensor ( 16 . 16a -B) for taking pictures of a coverage area ( 12 ), an inertial sensor ( 30 ) for detecting a movement change of the camera ( 10 ) and an evaluation unit ( 26 . 28 . 34 ) for processing the images and the movement change, characterized in that the evaluation unit ( 26 ) is adapted to generate a reliability measure of the images based on a change of motion during the recording. Kamera (10) nach Anspruch 1, wobei der Inertialsensor (30) ein Beschleunigungssensor und/oder ein Drehratensensor ist. Camera ( 10 ) according to claim 1, wherein the inertial sensor ( 30 ) is an acceleration sensor and / or a rotation rate sensor. Kamera (10) nach Anspruch 1 oder 2, wobei die Auswertungseinheit (26) dafür ausgebildet ist, die Bewegungsänderung während der Aufnahme und/oder das Zuverlässigkeitsmaß mit den zugehörigen Bildern zu speichern oder auszugeben. Camera ( 10 ) according to claim 1 or 2, wherein the evaluation unit ( 26 ) is adapted to store or output the change of motion during the recording and / or the reliability measure with the associated images. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (26) dafür ausgebildet ist, die Bewegungsänderung in Amplitude und/oder Richtung auszuwerten. Camera ( 10 ) according to one of the preceding claims, wherein the evaluation unit ( 26 ) is designed to evaluate the change in movement in amplitude and / or direction. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (26) dafür ausgebildet ist, in Abhängigkeit von dem Zuverlässigkeitsmaß die Bewegungsänderung zu ignorieren, andere Verfahren zur Verarbeitung der Bilddaten einzusetzen oder die Bilder zu verwerfen. Camera ( 10 ) according to one of the preceding claims, wherein the evaluation unit ( 26 ) is adapted to ignore the change of movement depending on the reliability measure, to use other methods for processing the image data or to discard the images. Kamera (10) nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinheit (26) dafür ausgebildet ist, ein Warn- oder Abschaltsignal zu erzeugen, wenn das Zuverlässigkeitsmaß für eine Mindestanzahl von aufeinanderfolgenden Aufnahmen unter einem Mindestwert liegt. Camera ( 10 ) according to one of the preceding claims, wherein the evaluation unit ( 26 ) is adapted to generate a warning or shutdown signal when the reliability measure for a minimum number of consecutive shots is below a minimum value. Kamera (10) nach einem der vorhergehenden Ansprüche, die zur Aufnahme von dreidimensionalen Bildern als Stereokamera ausgebildet ist und dazu mindestens zwei Kameramodule (14a–b) mit jeweils einem Bildsensor (16a–b) in zueinander versetzter Perspektive sowie eine Stereoskopieeinheit (28) aufweist, in der mittels eines Stereoalgorithmus‘ einander zugehörige Teilbereiche in von den beiden Kameramodulen (14a–b) aufgenommenen Bilddaten erkannt werden und deren Entfernung anhand der Disparität berechnet wird. Camera ( 10 ) according to one of the preceding claims, which is designed to receive three-dimensional images as a stereo camera and to at least two camera modules ( 14a -B) each with an image sensor ( 16a B) in a staggered perspective and a stereoscopic unit ( 28 ), in which by means of a stereo algorithm 'associated sub-areas in of the two camera modules ( 14a -B) recorded image data and whose distance is calculated on the basis of the disparity. Kamera (10) nach einem der Ansprüche 1 bis 6, die zur Aufnahme von dreidimensionalen Bildern als Lichtlaufzeitkamera ausgebildet ist und dazu eine Beleuchtungseinheit (20) und eine Lichtlaufzeiteinheit (34) aufweist, um die Lichtlaufzeit eines Lichtsignals zu bestimmen, das von der Beleuchtungseinheit (20) ausgesandt, an Objekten in dem Erfassungsbereich (12) remittiert und in dem Bildsensor (16) erfasst wird. Camera ( 10 ) according to one of claims 1 to 6, which is designed to receive three-dimensional images as a light runtime camera and to a lighting unit ( 20 ) and a light time unit ( 34 ) in order to determine the light transit time of a light signal emitted by the illumination unit ( 20 ) to objects in the detection area ( 12 ) and in the image sensor ( 16 ) is detected.
DE202015102019.8U 2015-04-23 2015-04-23 Camera for taking pictures of a detection area Expired - Lifetime DE202015102019U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202015102019.8U DE202015102019U1 (en) 2015-04-23 2015-04-23 Camera for taking pictures of a detection area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202015102019.8U DE202015102019U1 (en) 2015-04-23 2015-04-23 Camera for taking pictures of a detection area

Publications (1)

Publication Number Publication Date
DE202015102019U1 true DE202015102019U1 (en) 2016-07-27

Family

ID=56682371

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202015102019.8U Expired - Lifetime DE202015102019U1 (en) 2015-04-23 2015-04-23 Camera for taking pictures of a detection area

Country Status (1)

Country Link
DE (1) DE202015102019U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4060286A3 (en) * 2021-03-19 2022-12-07 Topcon Corporation Surveying system, surveying method, and surveying program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5585875A (en) 1992-12-22 1996-12-17 Nikon Corporation Camera having anti-vibration function
US7433024B2 (en) 2006-02-27 2008-10-07 Prime Sense Ltd. Range mapping using speckle decorrelation
DE102009007842A1 (en) 2009-02-06 2010-08-12 Adc Automotive Distance Control Systems Gmbh Method and device for operating a video-based driver assistance system in a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5585875A (en) 1992-12-22 1996-12-17 Nikon Corporation Camera having anti-vibration function
US7433024B2 (en) 2006-02-27 2008-10-07 Prime Sense Ltd. Range mapping using speckle decorrelation
DE102009007842A1 (en) 2009-02-06 2010-08-12 Adc Automotive Distance Control Systems Gmbh Method and device for operating a video-based driver assistance system in a vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4060286A3 (en) * 2021-03-19 2022-12-07 Topcon Corporation Surveying system, surveying method, and surveying program

Similar Documents

Publication Publication Date Title
EP3011225B1 (en) Device and method for securing a machine that operates in an automated manner
DE102010037744B3 (en) Optoelectronic sensor
EP3421189B1 (en) Method for monitoring a machine
EP1543270B1 (en) Method and device for making a hazardous area safe
EP2275990B1 (en) 3D sensor
EP2835973B1 (en) 3D camera and method for capturing of three-dimensional image data
DE102009031732B3 (en) Distance measuring optoelectronic sensor e.g. laser scanner, for monitoring operating area, has illumination unit activated with increased power, when no impermissible object contact is recognized
EP2025991B1 (en) Device and method for three-dimensional monitoring of a spatial area with at least two image sensors
EP3611422B1 (en) Sensor assembly and method for securing a supervised area
DE102007025373B3 (en) Visual monitoring device for use in e.g. automated guided vehicle system, has evaluation unit formed such that unit tests separation information based on another separation information of plausibility
DE102006048163A1 (en) Camera-based monitoring of moving machines and / or moving machine elements for collision prevention
DE102017111885B4 (en) Method and system for monitoring a machine
DE102009034848B4 (en) Optoelectronic sensor
EP3650740B1 (en) Safety system and method for monitoring a machine
DE102007023101A1 (en) Optoelectronic sensor arrangement and method for monitoring a monitoring area
DE202015105376U1 (en) 3D camera for taking three-dimensional images
EP3572971B1 (en) Securing a surveillance area with at least one machine
DE102009026091A1 (en) Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
DE202010012985U1 (en) Sensor arrangement for object recognition
DE102010036852B4 (en) stereo camera
DE102016101793B3 (en) Opto-electronic device for securing a source of danger
EP3651458B1 (en) Secure stereo camera and method for testing the functionality of the image sensors
DE202015102019U1 (en) Camera for taking pictures of a detection area
DE102019127826B4 (en) Safe optoelectronic sensor and method for securing a surveillance area
EP3893145B1 (en) Protection of hazardous location

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R158 Lapse of ip right after 8 years