DE102013222304A1 - Method for determining object distances with a camera installed in a motor vehicle - Google Patents
Method for determining object distances with a camera installed in a motor vehicle Download PDFInfo
- Publication number
- DE102013222304A1 DE102013222304A1 DE201310222304 DE102013222304A DE102013222304A1 DE 102013222304 A1 DE102013222304 A1 DE 102013222304A1 DE 201310222304 DE201310222304 DE 201310222304 DE 102013222304 A DE102013222304 A DE 102013222304A DE 102013222304 A1 DE102013222304 A1 DE 102013222304A1
- Authority
- DE
- Germany
- Prior art keywords
- focus position
- camera
- distance
- sharpness
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/32—Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Bestimmung von Objektentfernungen mit einer in einem Kraftfahrzeug (2) verbauten Kamera (6), bei dem ein Objektiv (20) der Kamera (6) in mehrere Fokus-Positionen (F) verfahren wird, und eine Anzahl an Bildern (18) eines Objektes (10) in den Fokus-Positionen (F) aufgenommen werden, wobei Objektkanten des Objektes (10) in den Bildern (18) unterschiedlich scharf abgebildet sind, und dass mit Hilfe eines Auswertealgorithmus anhand der unterschiedlich scharf abgebildeten Objektkanten die Objektentfernung berechnet wird.The invention relates to a method for determining object distances with a camera (6) installed in a motor vehicle (2), in which an objective (20) of the camera (6) is moved into a plurality of focus positions (F), and a number Images (18) of an object (10) in the focus positions (F) are recorded, wherein object edges of the object (10) in the images (18) are shown differently sharply, and that with the aid of an evaluation algorithm based on the differently sharply imaged object edges the object distance is calculated.
Description
Die Erfindung betrifft ein Verfahren zur Bestimmung von Objektentfernungen mit einer in einem Kraftfahrzeug verbauten Kamera, insbesondere einer Monokamera eines Fahrerassistenzsystems. The invention relates to a method for determining object distances with a camera installed in a motor vehicle, in particular a monocamera of a driver assistance system.
Bei Kraftfahrzeugen sind heutzutage zunehmend Sensoren als Assistenzsysteme eingebaut, die den Fahrzeugnutzer beim Fahren des Fahrzeuges unterstützen. Als Assistenzsysteme sind beispielsweise kamerabasierte Systeme zur optischen Überwachung der Fahrzeugumgebung als Rückfahr- und Einparkhilfen oder als Spurhalteassistent bekannt. Derartige Assistenzsysteme umfassen typischerweise ein am Fahrzeugaußenbereich angeordnetes Kamerasystem zur optischen Erfassung und Aufnahme der Fahrzeugumgebung. Die Einbausituation des Kamerasystems richtet sich hierbei insbesondere nach der bestimmungsgebenden Assistenzfunktion, beispielsweise sind Kamerasysteme für Rückfahrhilfen typischerweise im Bereich des Fahrzeughecks oder Fahrzeugrückscheibe angeordnet. Das von den Kamerasystem erfasste Bild ist typischerweise auf einem Display in der Fahrzeugkabine für den Fahrzeugnutzer darstellbar. In motor vehicles, sensors are increasingly being installed today as assistance systems that assist the vehicle user when driving the vehicle. As assistance systems, for example, camera-based systems for optical monitoring of the vehicle environment are known as reversing and parking aids or as a lane departure warning system. Such assistance systems typically include a vehicle exterior mounted camera system for optically capturing and capturing the vehicle environment. The installation situation of the camera system here depends in particular on the intended assistance function; for example, camera systems for reversing aids are typically arranged in the area of the rear of the vehicle or the rear window of the vehicle. The image captured by the camera system can typically be displayed on a display in the vehicle cabin for the vehicle user.
Derartige Kameraassistenzsysteme können mittels Bildverarbeitung durch eine Auswerteeinheit im beobachteten Fahrzeugraum Objekte, beispielsweise spielende Kinder oder Fußgänger, sowie andere Hindernisse automatisch erkennen, und können in der Folge auch automatisch in die Fahrzeugdynamik eingreifen. Zweckmäßigerweise werden hierzu insbesondere dreidimensionale Tiefeninformationen aus den aufgenommenen Bildern benötigt, um beispielsweise insbesondere die Objektentfernung relativ zum Fahrzeug zu bestimmen. Such camera assistance systems can automatically detect objects, for example playing children or pedestrians, as well as other obstacles by means of image processing by an evaluation unit in the observed vehicle space, and can also automatically intervene in the vehicle dynamics as a result. For this purpose, three-dimensional depth information from the recorded images is expediently required in order, for example, in particular to determine the object distance relative to the vehicle.
Kamerasysteme mit lediglich einer einzelnen (Mono-)Kamera liefern für diesen Einsatzbereich bisher lediglich bedingt befriedigende Ergebnisse. Grund hierfür ist eine fehlende Tiefenwahrnehmung im Vergleich zu Kamerasystemen mit beispielsweise zwei (Stereo-)Kameras. Die fehlende Tiefeninformation kann von der Auswerteeinheit lediglich mit hohem technischem Aufwand aufwendig über Annahmen (beispielsweise ein ebener Untergrund) und Flussberechnungen über mehrere aufgenommene Bilder grob geschätzt werden. Camera systems with only a single (mono) camera provide only partially satisfactory results for this application. The reason for this is a lack of depth perception compared to camera systems with, for example, two (stereo) cameras. The missing depth information can be roughly estimated by the evaluation unit only with great technical effort by means of assumptions (for example, a flat background) and flow calculations over several recorded images.
Stereo-Kameras verwenden zwei gekoppelte Kameramodule, die mit einem festen Abstand und vorzugsweise gleicher Ausrichtung in einem gemeinsamen Kameragehäuse montiert sind. Zur Bestimmung der Tiefeninformationen wird typischerweise nach identischen Inhalten in den beiden Bildern der Kameras gesucht. Auf Basis der unterschiedlichen Ablage der gleichen Inhalte in den Bildern kann auf die Entfernung des Objektes geschlossen werden. Zum Zwecke einer möglichst verlässlichen Entfernungsauflösung sollte der Basisabstand (Abstand zwischen den beiden Kameramodulen) möglichst groß sein. Das steht jedoch im Widerspruch zur Anforderung, Fahrerassistenzkameras klein zu bauen um einen möglichst kleinen Bauraum zu nutzen. Der Aufbau einer Stereo-Kamera muss weiterhin mechanisch möglichst stabil sein, da eine Veränderung in der Ausrichtung der Kameramodule zueinander sich direkt auf die Verlässlichkeit der Entfernungsmessung auswirkt. Dadurch ist ein Aufbau mit zwei Kamera-Modulen nachteiligerweise sehr aufwendig und kostenintensiv in der Herstellung. Stereo cameras use two coupled camera modules which are mounted at a fixed distance and preferably in the same orientation in a common camera housing. In order to determine the depth information, it is typical to search for identical contents in the two images of the cameras. Based on the different storage of the same content in the images can be concluded on the distance of the object. For the purpose of the most reliable range resolution, the base distance (distance between the two camera modules) should be as large as possible. However, this is in contradiction to the requirement to build driver assistance cameras small in order to use the smallest possible space. The structure of a stereo camera must continue to be mechanically as stable as possible, since a change in the orientation of the camera modules to each other directly affects the reliability of the distance measurement. As a result, a structure with two camera modules disadvantageously very expensive and expensive to manufacture.
Dreidimensionale Bildinformationen sind auch mittels einer Bewegung von lediglich einer Kamera erzeugbar, wobei die Tiefeninformationen mittels der Auswerteeinheit berechnet werden können. Bei derartigen Kamerabewegungen erfasst die Kamera Objekte aus einer Anzahl an unterschiedlichen Blickwinkeln. Aus der bekannten Kamerabewegung und den aufgenommenen Bildern ist ähnlich zu einer Stereo-Kamera ein dreidimensionales Bild der beobachteten Fahrzeugumgebung generierbar. Three-dimensional image information can also be generated by means of a movement of only one camera, wherein the depth information can be calculated by means of the evaluation unit. In such camera movements, the camera captures objects from a number of different angles of view. From the known camera movement and the recorded images, similar to a stereo camera, a three-dimensional image of the observed vehicle environment can be generated.
Kameras für Assistenzsysteme sind typischerweise in einer Einbausituation verbaut, in der häufig aus platztechnischen Gründen kein Verfahren der Kamera möglich ist. Beispielsweise sind Kameras für Spurhalteassistenzsysteme hinter einer Windschutzscheibe des Fahrzeugs angeordnet. Dadurch ist nicht ausreichend Bauraum vorhanden, um die Kamera in eine ausreichend abweichende Position zu verfahren, um einen hinreichend großen Unterschied im erfassten Blickwinkel zu erzeugen. Bei einer stillstehenden Kamera können auch keine Tiefeninformationen durch die bekannten Verfahren gewonnen werden. Dadurch sind Assistenzsysteme bei einem stehenden oder sich lediglich langsam bewegenden Fahrzeug nicht wirksam einsetzbar, was sich auf jede Funktion auswirkt, die mit Objekterkennung arbeitet, beispielsweise auf Anwendungen im Bereich der Einparkhilfe. Cameras for assistance systems are typically installed in a mounting situation in which often no procedure of the camera is possible for space-technical reasons. For example, cameras for lane departure warning systems are arranged behind a windshield of the vehicle. As a result, there is not sufficient space available to move the camera into a sufficiently deviating position in order to generate a sufficiently large difference in the detected viewing angle. With a still camera, no depth information can be obtained by the known methods. As a result, assistance systems can not be used effectively in a stationary or only slowly moving vehicle, which has an effect on any function that works with object recognition, for example, in parking aid applications.
Aus der
Die
Der Erfindung liegt daher die Aufgabe zugrunde ein Fahrerassistenzsystem mit einer Monokamera konstruktiv einfach zu ermöglichen. The invention is therefore the object of a driver assistance system with a mono camera structurally simple to enable.
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine Vorrichtung mit den Merkmalen des Anspruchs 10. Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche. Die im Hinblick auf das Verfahren angeführten Merkmale und bevorzugten Ausgestaltungen sind sinngemäß auch auf die Vorrichtung zu übertragen. This object is achieved by a method having the features of claim 1 and by a device having the features of
Zur Bestimmung von Objektentfernungen mit einer in einem Kraftfahrzeug verbauten Kamera wird ein Objektiv der Kamera in mehrere Fokus-Positionen gebracht. Hierunter wird allgemein eine Variation des Abstandes zwischen Objektiv und einem Bildsensor verstanden, wahlweise oder in Kombination durch ein Verfahren des Objektives und/oder des Bildsensors entlang eines Verstellweges. Während des Verfahrens wird eine Anzahl an Bildern des Objektes in den unterschiedlichen Fokus-Positionen aufgenommen. Dabei wird das Objekt in den verschiedenen Bildern unterschiedlich scharf abgebildet. Anhand des unterschiedlich scharf abgebildeten Objekts wird die Objektentfernung mit Hilfe eines Auswertealgorithmus berechnet. Hierzu wird eine optimale Fokus-Position bestimmt, bei der das Objekt scharf abgebildet ist. Da einer jeden Fokus-Position bei scharfer Abbildung eine definierte Objektentfernung aufgrund der Kameraparameter zugeordnet ist, lässt sich aus der Ermittlung der optimalen Fokus-Position die Objektentfernung bestimmen. For determining object distances with a camera installed in a motor vehicle, an objective of the camera is brought into a plurality of focus positions. This is generally understood to mean a variation of the distance between the objective and an image sensor, optionally or in combination by a method of the objective and / or the image sensor along an adjustment path. During the process, a number of images of the object are taken in the different focus positions. In the process, the object is displayed with different sharpness in the different images. The object distance is calculated by means of an evaluation algorithm on the basis of the differently sharply imaged object. For this purpose, an optimal focus position is determined, in which the object is in focus. Since a defined object distance is assigned to each focus position in the case of sharp imaging on the basis of the camera parameters, it is possible to determine the object distance from the determination of the optimum focus position.
Im Gegensatz zum Stand der Technik wird hierbei nicht die gesamte Kamera bewegt sondern lediglich das Objektiv in verschiedene Fokus-Positionen verfahren. Dadurch ist ein konstruktiv besonders einfaches und kostengünstiges Verfahren zur Bestimmung von Objektentfernungen bereitgestellt. Unter Objektentfernung sind im Allgemeinen Tiefeninformationen zu verstehen, die aus der Anzahl an Bildern mittels des Auswertealgorithmuses berechnet werden, mit denen eine relative Entfernung zwischen den Kraftfahrzeug und dem Objekt bestimmbar ist. In contrast to the prior art, in this case not the entire camera is moved but only the lens moved in different focus positions. This provides a structurally particularly simple and cost-effective method for determining object distances. Object distance is generally to be understood as depth information which is calculated from the number of images by means of the evaluation algorithm with which a relative distance between the motor vehicle and the object can be determined.
Bei der im Kraftfahrzeug verbauten Kamera handelt es sich vorzugsweise um eine Kamera für ein Fahrerassistenzsystem, welche beispielsweise im Wesentlichen hinter einer Windschutzscheibe oder im Bereich der vorderen Fahrzeugstoßstange angeordnet ist, und auf den frontseitigen Fahrzeugbereich fokussiert ist. Die Kamera ist insbesondere dazu geeignet und eingerichtet, ein Bild des Frontbereichs mit Tiefeninformation aufzunehmen und an eine Steuer- und Auswerteeinheit zu versenden. Die Steuer- und Auswerteeinheit wird nachfolgend kurz als Auswerteeinheit bezeichnet. Sie umfasst eine speziell für das Fahrerassistenzsystem designte Recheneinheit, wie beispielsweise Prozessor, ASIC-Baustein, DSP (digitaler Signalprozessor) oder FPGA (Field Programmable Gate Array). In dieser Recheneinheit ist der die Bildverarbeitung automatisch durchführende Auswertealgorithmus implementiert The camera installed in the motor vehicle is preferably a camera for a driver assistance system, which is arranged substantially behind a windshield or in the region of the front vehicle bumper, for example, and is focused on the front vehicle area. In particular, the camera is suitable and configured to take a picture of the front area with depth information and to send it to a control and evaluation unit. The control and evaluation unit is referred to below as the evaluation unit. It comprises a computing unit specially designed for the driver assistance system, such as processor, ASIC module, DSP (digital signal processor) or FPGA (Field Programmable Gate Array). In this arithmetic unit, the image processing is automatically implemented evaluating algorithm implemented
Mit dem erfindungsgemäßen Verfahren ist es somit möglich, Tiefeninformationen mit lediglich einer Kamera aufzunehmen. Dadurch entfallen die Notwendigkeit eines Stereo-Kamerasystems und die notwendigerweise hochgenaue Ausrichtung der Stereo-Kameramodule zueinander. Das Kamerasystem umfasst daher lediglich eine Monokamera. Weiterhin wird durch den Verzicht auf eine weitere Kamera Bauraum gespart. Durch die Aufnahme einer größeren Anzahl von Bildern mit verschiedenen Fokuspositionen steht weiterhin für das Fahrerassistenzsystem, beispielsweise für eine Verkehrszeichenerkennung, stets ein Bild mit höherer Schärfe als bei einer Festfokuskamera zur Verfügung. Dadurch sind Hindernisse und Objekte deutlich einfacher und verlässlicher mittels lediglich einer Kamera identifizierbar, was für einen automatischen Eingriff in die Fahrzeugdynamik im Rahmen einer Fahrerassistenzfunktion unbedingt erforderlich ist. With the method according to the invention it is thus possible to record depth information with only one camera. This eliminates the need for a stereo camera system and the necessarily highly accurate alignment of the stereo camera modules with each other. The camera system therefore includes only a mono camera. Furthermore, by dispensing with another camera space is saved. By taking a larger number of images with different focus positions is still for the driver assistance system, for example, for a traffic sign recognition, always an image with higher sharpness than a solid focus camera available. As a result, obstacles and objects are much easier and more reliably identifiable by means of only one camera, which is absolutely necessary for automatic intervention in the vehicle dynamics in the context of a driver assistance function.
Die Kamera ist vorzugsweise nach Art einer Autofokuskamera ausgeführt, bei der das Kameraobjektiv in mehrere Objektiveinstellungen beziehungsweise Fokus-Positionen verfahrbar ist um ein Objekt scharf abzubilden. Dadurch entfällt ein Fokussierungs-Justage-Schritt der Kamera während der Herstellung, wie es beispielsweise bei Kameras mit lediglich einer festen Objektiveinstellung notwendig ist. Unter einer Fokus-Position ist im Wesentlichen der Abstand zwischen dem Objektiv der Kamera und einem Kamerabildsensor zu verstehen. Wesentlich für die Kamera sind im Zusammenhang mit dem erfindungsgemäßen Verfahren eine schnelle Verfahrbarkeit der Fokus-Position sowie eine hohe Langlebigkeit der beteiligten Verfahrmechanik. The camera is preferably designed in the manner of an autofocus camera in which the camera lens can be moved into a plurality of lens settings or focus positions in order to sharply image an object. This eliminates a focus adjustment step of the camera during manufacture, as is necessary, for example, in cameras with only a fixed lens setting. A focus position is essentially the distance between the lens of the camera and a camera image sensor to understand. Essential for the camera are, in connection with the method according to the invention, a fast movability of the focus position as well as a high longevity of the traversing mechanism involved.
Ist in einer Fokus-Position das Objekt scharf abgebildet, ist anhand dieser Fokus-Position die Objektentfernung zum scharfgestellten Objekt mittels des Auswertealgorithmus problemlos bestimmbar. Der Auswertealgorithmus wertet die Bildschärfe einer Fokus-Position bevorzugt anhand von abgebildeten Objektkanten aus. Insbesondere wird hierzu die Breite eines Hell-Dunkelübergangs in dem jeweiligen Bild ausgewertet, je schmaler die Breite desto schärfer ist das Objekt im Bild abgebildet. If the object is in focus position in a focus position, the focus position is the Object distance to the armed object can be easily determined by means of the evaluation algorithm. The evaluation algorithm preferably evaluates the focus of a focus position based on imaged object edges. In particular, for this purpose, the width of a light-dark transition in the respective image is evaluated, the narrower the width the sharper the object is shown in the image.
Zum Zwecke einer möglichst genauen Entfernungsbestimmung werden mehrere Bilder in verschiedenen Fokus-Positionen aufgenommen und jeweils die (Kanten)Schärfe mittels des Auswertealgorithmuses bestimmt. In einer bevorzugten Weiterbildung wird die Objektentfernung insbesondere anhand einer sich hieraus ergebenden Schärfekurve der Kamera berechnet, bei der ein Schärfekennwert, insbesondere die Breite des Hell-Dunkelübergangs, gegenüber der Fokus-Position aufgetragen ist. For the purpose of the most accurate determination of the distance, several images are recorded in different focus positions and the (edge) sharpness is determined in each case by means of the evaluation algorithm. In a preferred development, the object distance is calculated in particular on the basis of a resulting sharpness curve of the camera in which a sharpness parameter, in particular the width of the light-dark transition, is plotted against the focus position.
Die Schärfekurve wird bevorzugt mit einer mathematischen Funktion im Bereich der betrachteten Verschiebung angenähert. Zur Bestimmung der optimalen Fokus-Position wird vorzugsweise anhand der mathematischen Funktion ein lokaler Extremwert, insbesondere ein lokales Minimum bestimmt, also die minimale Breite des Hell-Dunkelübergangs. The sharpness curve is preferably approximated with a mathematical function in the range of the considered displacement. To determine the optimum focus position, a local extreme value, in particular a local minimum, ie the minimum width of the light-dark transition, is preferably determined on the basis of the mathematical function.
Als einfachste mathematische Funktion wird die Schärfekurve insbesondere mit einem Polynom angenähert. Bei einem kleinen Verschiebebereich um die optimale Fokus-Position, also um diejenige Fokus-Position, bei der im dazugehörigen Bild eine minimale Kantenbreite im Hell-Dunkelübergang festgestellt wurde, wird vorzugsweise ein Polynom beispielsweise zweiten Grades zur Annäherung verwendet. As the simplest mathematical function, the sharpness curve is approximated in particular by a polynomial. In the case of a small shift range around the optimum focus position, that is to say the focus position at which a minimal edge width in the light-dark transition has been determined in the associated image, a polynomial of, for example, second degree is preferably used for the approach.
In einer bevorzugten Ausgestaltung wird die Schärfekurve anhand der Schärfekennwerte aus mehreren aufeinanderfolgenden Bilder innerhalb eines Auswertezeitraums ermittelt. Der Auswertezeitraum beträgt dabei vorzugsweise lediglich einige 10ms, beispielsweise 20 bis 100 ms, um eine ausreichend schnelle Bestimmung der Objektentfernung zu gewährleisten. Innerhalb des Auswertezeitraums werden vorzugsweise lediglich wenige Bilder aufgenommen, beispielsweise weniger als 5, da sich hieraus in ausreichend guter Näherung die optimale Fokusposition ableiten lässt. In a preferred embodiment, the sharpness curve is determined on the basis of the sharpness parameters from a plurality of successive images within an evaluation period. The evaluation period is preferably only a few 10 ms, for example 20 to 100 ms, in order to ensure a sufficiently fast determination of the object distance. Within the evaluation period, preferably only a few images are taken, for example less than 5, since the optimum focus position can be derived from this in a sufficiently good approximation.
Zweckdienlicherweise erfolgt die Bestimmung der Objektentfernung kontinuierlich oder zumindest aufeinanderfolgend, so dass laufend oder zumindest mehrere aufeinanderfolgende Schärfekurven ermittelt werden und die jeweilige optimale Fokusposition bestimmt wird. The determination of the object distance is expediently carried out continuously or at least successively so that continuous or at least a plurality of successive sharpness curves are determined and the respective optimum focus position is determined.
Vorzugsweise ist ergänzend vorgesehen, dass sich aufeinanderfolgende Auswertezeiträume überlappen, wodurch eine verbesserte Taktfrequenz für die Bestimmung der Objektentfernung erreicht ist. Zumindest ein Bild des vorhergehenden Auswertezeitraums wird daher auch für den nachfolgenden Auswertezeitraum herangezogen. Preferably, it is additionally provided that successive evaluation periods overlap, whereby an improved clock frequency for the determination of the object distance is achieved. At least one image of the previous evaluation period is therefore also used for the subsequent evaluation period.
Für die tatsächliche Bestimmung der Schärfekurve sind unterschiedliche Verfahren bekannt. Bevorzugt wird jedoch eine Objektkante innerhalb der aufgenommenen Bilder hinsichtlich des Hell-Dunkelübergangs betrachtet. Dessen Breite wird als Schärfekennwert mit der zugehörigen Fokus-Position in einem Diagramm aufgetragen und die Schärfekurve an die Messpunkte angefittet. Relevant für die Bestimmung der Objektentfernung ist hierbei lediglich die Position des lokalen Minimums der Schärfekurve. Anhand der bekannten Objektivparameter kann aus dieser Position direkt auf die Entfernung der ausgewerteten Objektkante geschlossen werden. For the actual determination of the sharpness curve different methods are known. However, an object edge within the recorded images is preferably considered with regard to the light-dark transition. Its width is plotted as a sharpness parameter with the associated focus position in a diagram and the sharpness curve is fitted to the measuring points. Relevant for the determination of the object distance is here only the position of the local minimum of the sharpness curve. Based on the known lens parameters can be concluded from this position directly on the distance of the evaluated object edge.
In einer vorteilhaften Ausgestaltung wird die Fokus-Position kontinuierlich verstellt, insbesondere durch ein kontinuierliches Verfahren des Objektives entlang eines Verstellweges. Dies lässt sich konstruktiv mit hoher Genauigkeit umsetzen. Die Veränderung der Fokus-Position erfolgt daher auch während der jeweiligen Aufnahme eines Bildes. Dies stellt eine Art Filterung dar, die die Schärfekurve in Ihrer Position verschiebt. Diese Verschiebung wird bei der Bestimmung der optimalen Fokus-Position beziehungsweise der Entfernungsberechnung berücksichtigt. In an advantageous embodiment, the focus position is adjusted continuously, in particular by a continuous movement of the objective along an adjustment path. This can be implemented constructively with high accuracy. The change of the focus position is therefore also during the respective recording of an image. This is a type of filtering that shifts the sharpening curve in your position. This shift is taken into account when determining the optimum focus position or the distance calculation.
Da für die Bilder mit verschiedenen Fokus-Positionen in einer relativ schnellen Abfolge aufgenommen werden müssen, wird die Fokus-Position in einer vorteilhaften Weiterbildung entsprechend einer oszillierenden Bewegung variiert. Die Periode der Oszillation liegt dabei im Bereich von einigen 10ms, beispielsweise von 20–100ms. Since for the images with different focus positions must be recorded in a relatively fast sequence, the focus position is varied in an advantageous development according to an oscillating motion. The period of the oscillation is in the range of a few 10 ms, for example 20-100 ms.
Da bei Fahrerassistenzkameras mit kleinen Bildsensoren und Brennweiten gearbeitet wird, reichen typischerweise kleine Verschiebungen des Objektivs aus, um eine verlässliche Schärfekurve zu ermitteln. In einer besonders vorteilhaften Ausführung wird als Verstellweg eine Strecke kürzer oder gleich 50 µm gewählt. Bei einer entsprechenden Ausgestaltung der Optik, zum Beispiel wenn nur eine oder wenige der Linsen verschoben werden, kann der Verstellweg auch größer sein. As driver assistance cameras operate with small image sensors and focal lengths, typically small displacements of the lens are sufficient to establish a reliable sharpness curve. In a particularly advantageous embodiment, a distance shorter or equal to 50 microns is selected as adjustment. In a corresponding embodiment of the optics, for example, if only one or a few of the lenses are moved, the adjustment can also be greater.
Der Ablauf der Entfernungsbestimmung von Objekten kann unterschiedlich ausgestaltet werden. In einer möglichen Ausführung wird eine Objekterkennung des Objektes in den Bildern der Ermittlung der optimalen Fokusposition ausgeführt. Hierzu wird das Objekt in jedem der aufgenommenen Bilder mittels eines Objekterkennungsalgorithmus automatisch erkannt, und das Objekt über mehrere Bilder hinweg verfolgt. Dadurch können mehrere Objektkanten die zu einem gemeinsamen Objekt gehören gemeinsam im Zuge der Entfernungsbestimmung ausgewertet werden. Dadurch wird die Genauigkeit der Entfernungsbestimmung verbessert. Für die Fahrerassistenzfunktion ist der Objekterkennungsalgorithmus zweckmäßigerweise bereits in der Auswerteeinheit integriert, sodass kein zusätzlicher Rechenaufwand notwendig ist. The sequence of the distance determination of objects can be configured differently. In one possible embodiment, an object recognition of the object is carried out in the images of the determination of the optimum focus position. For this purpose, the object is automatically detected in each of the recorded images by means of an object recognition algorithm, and the object over several images followed. As a result, several object edges that belong to a common object can be evaluated together in the course of the distance determination. This improves the accuracy of the distance determination. For the driver assistance function, the object recognition algorithm is expediently already integrated in the evaluation unit, so that no additional calculation effort is necessary.
Alternativ werden in zweckdienlicher Ausgestaltung zunächst lediglich die Objektkanten aus den Bildern extrahiert. Anschließend werden die Objektkanten über mehrere Bilder hinweg verfolgt und die Schärfenkurvenbestimmung auf immer der identischen Kante durchgeführt. Es wird zu mehreren Objektkanten die optimale Fokusposition (FM) und damit die Entfernung der jeweiligen Objektkanten ermittelt. Diese Informationen werden anschließend für eine Objektbildung oder Objektabgrenzung, also insgesamt zur Objekterkennung zum Zwecke der Fahrerassistenzfunktion herangezogen. Alternatively, in an expedient embodiment, initially only the object edges are extracted from the images. Subsequently, the object edges are tracked over several images and the sharpness curve determination is carried out on the identical edge. The optimal focus position (F M ) and thus the distance of the respective object edges is determined for several object edges. This information is then used for object formation or object delineation, that is to say overall for object recognition for the purpose of the driver assistance function.
Nachfolgend wird ein Ausführungsbeispiel der Erfindung anhand einer Zeichnung näher erläutert. Es zeigen in schematischen und vereinfachten Darstellungen: An embodiment of the invention will be explained in more detail with reference to a drawing. In schematic and simplified representations:
Einander entsprechende Teile und Größen sind in allen Figuren stets mit den gleichen Bezugszeichen versehen. Corresponding parts and sizes are always provided with the same reference numerals in all figures.
In
Das Fahrerassistenzsystem
Bei der Kamera
Ein Objektiv
Das Sichtfeld der Kamera
Zur Ermittlung der Entfernung des Objekts
Die Kamera
Insgesamt ist daher mit dem Auswertealgorithmus
Zum Zwecke einer möglichst genauen Entfernungsbestimmung werden mehrere Bilder in verschiedenen Fokus-Positionen F aufgenommen und jeweils die Kantenschärfe mittels des Auswertealgorithmuses bestimmt. Anhand dieser Bildreihe wird die Objektentfernung anhand einer sich hieraus ergebenden Schärfekurve der Kamera
Wie in
Zur Bestimmung der Schärfekurve S werden innerhalb eines Auswertezeitraums N1, N2 und N3 Bilder
Wie in
In einem nicht näher dargestellten Speicherelement der Auswerteeinheit
Der Ablauf der Entfernungsbestimmung des Objektes
In dem in
Im nächsten Verfahrensschritt werden dann die extrahierten Kanten der einzelnen Bilder
In dem in
Im nachfolgenden Schritt werden die Kanten k1...kn in einem jeweiligen Bild
Erst im anschließenden Verfahrensschritt erfolgt dann die Bestimmung der Schärfekennwerte ∆ (O1), ∆ (O2)...∆ (On) anhand der Kanten eines jeweiligen Objekts O1...On. Determining the sharpness characteristic values Δ then only takes place in the subsequent process step (O 1), Δ (O 2) ... Δ (O n) based on the edges of a respective object O 1 ... O n.
Die Erfindung ist nicht auf die vorstehend beschriebenen Ausführungsbeispiele beschränkt. Vielmehr können auch andere Varianten der Erfindung von dem Fachmann hieraus abgeleitet werden ohne den Gegenstand der Erfindung zu verlassen. Insbesondere sind ferner alle im Zusammenhang mit den verschiedenen Ausführungsbeispielen beschriebenen Einzelmerkmale auch auf andere Weise miteinander kombinierbar, ohne den Gegenstand der Erfindung zu verlassen. The invention is not limited to the embodiments described above. On the contrary, other variants of the invention can be derived therefrom by the person skilled in the art without departing from the subject matter of the invention. In particular, furthermore, all individual features described in connection with the various exemplary embodiments can also be combined with one another in other ways, without departing from the subject matter of the invention.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 2 2
- Kraftfahrzeug motor vehicle
- 4 4
- Windschutzscheibe Windshield
- 6 6
- Kamera camera
- 8 8th
- Fernbereich remote area
- 10 10
- Objekt object
- 12 12
- Auswerteeinheit evaluation
- 14 14
- Fahrerassistenzsystem Driver assistance system
- 16 16
- Bildschirm screen
- 18 18
- Bilder images
- 20 20
- Objektiv lens
- 22 22
- Verstellweg adjustment
- ∆ Δ
- Breite width
- F F
- Fokus-Position Focus position
- FM F M
- optimale Fokus-Position optimal focus position
- A, B, C, D, A‘, B‘, C‘ A, B, C, D, A ', B', C '
- Belichtungszeitraum Exposure period
- N1, N2, N3 N 1 , N 2 , N 3
- Auswertezeitraum evaluation period
- M M
- Minimum minimum
- P P
- Polynom polynomial
- S S
- Schärfekurve focus curve
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102009031809 A1 [0008] DE 102009031809 A1 [0008]
- WO 2013/107561 A1 [0009] WO 2013/107561 A1 [0009]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310222304 DE102013222304A1 (en) | 2013-11-04 | 2013-11-04 | Method for determining object distances with a camera installed in a motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310222304 DE102013222304A1 (en) | 2013-11-04 | 2013-11-04 | Method for determining object distances with a camera installed in a motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013222304A1 true DE102013222304A1 (en) | 2015-05-07 |
Family
ID=52829705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201310222304 Withdrawn DE102013222304A1 (en) | 2013-11-04 | 2013-11-04 | Method for determining object distances with a camera installed in a motor vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013222304A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015112380A1 (en) * | 2015-07-29 | 2017-02-02 | Connaught Electronics Ltd. | Method for determining a distance from a camera to an object, driver assistance system and motor vehicle |
DE102018221133A1 (en) * | 2018-12-06 | 2020-06-10 | Zf Friedrichshafen Ag | Position and motion detection using the auto focus system |
DE102021202454A1 (en) | 2021-03-15 | 2022-09-15 | Zf Friedrichshafen Ag | Environment modeling based on camera data |
DE102022117341A1 (en) | 2022-07-12 | 2024-01-18 | Valeo Schalter Und Sensoren Gmbh | Method for determining a distance to an object in a field of view of a camera, computer program, control unit for a vehicle camera, camera and driver assistance system |
DE102022129697A1 (en) | 2022-11-10 | 2024-05-16 | Valeo Schalter Und Sensoren Gmbh | Method for determining a distance of an object in a vehicle environment to a vehicle based on images with different sharpness |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5231443A (en) * | 1991-12-16 | 1993-07-27 | The Research Foundation Of State University Of New York | Automatic ranging and automatic focusing |
DE10153113A1 (en) * | 2001-08-15 | 2003-03-13 | Aglaia Ges Fuer Bildverarbeitu | Distance determination method and apparatus |
US20080055425A1 (en) * | 2004-06-30 | 2008-03-06 | Koninklijke Philips Electronics, N.V. | Measuring Device |
US20080189036A1 (en) * | 2007-02-06 | 2008-08-07 | Honeywell International Inc. | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
US20090167930A1 (en) * | 2007-12-27 | 2009-07-02 | Ati Technologies Ulc | Method and apparatus with fast camera auto focus |
US20090195666A1 (en) * | 2008-02-06 | 2009-08-06 | Tao Chen | Multi-focus camera apparatus and image processing method and program used therein |
DE102009031809A1 (en) | 2009-07-03 | 2011-01-13 | Volkswagen Ag | Method for determining environmental data of car, involves generating three dimensional data by application of environmental data and path that are reclined during movement of motor vehicle |
US20120236122A1 (en) * | 2011-03-18 | 2012-09-20 | Any Co. Ltd. | Image processing device, method thereof, and moving body anti-collision device |
WO2013107561A1 (en) | 2012-01-18 | 2013-07-25 | Robert Bosch Gmbh | Obtaining of depth information with a mono camera installed in a vehicle |
US20130293704A1 (en) * | 2011-11-30 | 2013-11-07 | Panasonic Corporation | Imaging apparatus |
DE102012105436A1 (en) * | 2012-06-22 | 2013-12-24 | Conti Temic Microelectronic Gmbh | Camera system i.e. light field camera system, for use in e.g. speed assistant system of motor car to determine distance between car and e.g. object, has microlens arrangement formed and arranged in optical path of electromagnetic radiation |
-
2013
- 2013-11-04 DE DE201310222304 patent/DE102013222304A1/en not_active Withdrawn
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5231443A (en) * | 1991-12-16 | 1993-07-27 | The Research Foundation Of State University Of New York | Automatic ranging and automatic focusing |
DE10153113A1 (en) * | 2001-08-15 | 2003-03-13 | Aglaia Ges Fuer Bildverarbeitu | Distance determination method and apparatus |
US20080055425A1 (en) * | 2004-06-30 | 2008-03-06 | Koninklijke Philips Electronics, N.V. | Measuring Device |
US20080189036A1 (en) * | 2007-02-06 | 2008-08-07 | Honeywell International Inc. | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
US20090167930A1 (en) * | 2007-12-27 | 2009-07-02 | Ati Technologies Ulc | Method and apparatus with fast camera auto focus |
US20090195666A1 (en) * | 2008-02-06 | 2009-08-06 | Tao Chen | Multi-focus camera apparatus and image processing method and program used therein |
DE102009031809A1 (en) | 2009-07-03 | 2011-01-13 | Volkswagen Ag | Method for determining environmental data of car, involves generating three dimensional data by application of environmental data and path that are reclined during movement of motor vehicle |
US20120236122A1 (en) * | 2011-03-18 | 2012-09-20 | Any Co. Ltd. | Image processing device, method thereof, and moving body anti-collision device |
US20130293704A1 (en) * | 2011-11-30 | 2013-11-07 | Panasonic Corporation | Imaging apparatus |
WO2013107561A1 (en) | 2012-01-18 | 2013-07-25 | Robert Bosch Gmbh | Obtaining of depth information with a mono camera installed in a vehicle |
DE102012105436A1 (en) * | 2012-06-22 | 2013-12-24 | Conti Temic Microelectronic Gmbh | Camera system i.e. light field camera system, for use in e.g. speed assistant system of motor car to determine distance between car and e.g. object, has microlens arrangement formed and arranged in optical path of electromagnetic radiation |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015112380A1 (en) * | 2015-07-29 | 2017-02-02 | Connaught Electronics Ltd. | Method for determining a distance from a camera to an object, driver assistance system and motor vehicle |
DE102018221133A1 (en) * | 2018-12-06 | 2020-06-10 | Zf Friedrichshafen Ag | Position and motion detection using the auto focus system |
DE102021202454A1 (en) | 2021-03-15 | 2022-09-15 | Zf Friedrichshafen Ag | Environment modeling based on camera data |
DE102022117341A1 (en) | 2022-07-12 | 2024-01-18 | Valeo Schalter Und Sensoren Gmbh | Method for determining a distance to an object in a field of view of a camera, computer program, control unit for a vehicle camera, camera and driver assistance system |
DE102022129697A1 (en) | 2022-11-10 | 2024-05-16 | Valeo Schalter Und Sensoren Gmbh | Method for determining a distance of an object in a vehicle environment to a vehicle based on images with different sharpness |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1831718B1 (en) | Stereo camera for a motor vehicle | |
EP2558336B1 (en) | Method and device for assisting a driver while driving a vehicle by detecting weather-related visibility limitations | |
EP1504960B1 (en) | Device and method to improve vision in a vehicle | |
DE102008001679A1 (en) | Method and device for processing recorded image information from a vehicle | |
DE102010034139A1 (en) | Method for supporting a parking process of a motor vehicle, driver assistance system and motor vehicle | |
EP2033163A2 (en) | Image recording system and method for range finding using an image recording system | |
EP3392692A2 (en) | Camera system for a motor vehicle, mirror replacement system with such a camera system and driver assistance system comprising such a system | |
DE102016206493A1 (en) | Method and camera system for determining the distance of objects to a vehicle | |
DE102013222304A1 (en) | Method for determining object distances with a camera installed in a motor vehicle | |
DE102014209197A1 (en) | Apparatus and method for detecting precipitation for a motor vehicle | |
DE102007025147B4 (en) | Lane departure warning and / or lane departure warning system | |
DE102016011853A1 (en) | A method of generating three-dimensional information of an environment of a vehicle | |
DE102018204451A1 (en) | Method and device for auto-calibration of a vehicle camera system | |
DE102012023060A1 (en) | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram | |
DE102011014368A1 (en) | Method and device for an imaging driver assistance system | |
DE102013224954A1 (en) | Method and device for generating a warning by means of two images captured by cameras of a vehicle environment | |
DE102005004513A1 (en) | Motor vehicle windscreen surface condensation detecting method, involves concluding focus width on condensation when object is identified in picture data set and when object has high picture sharpness than in picture data set | |
EP2731831A1 (en) | Camera system for use in a vehicle and vehicle with such a camera system | |
DE102010015532B4 (en) | Method for determining the distance of an object moving relative to a camera arrangement | |
DE102012015282A1 (en) | Method for recognizing hidden state of image capture device e.g. charge coupled device camera of camera system used in motor car, involves comparing image cells of one image with image cells of other image | |
DE102013214369A1 (en) | Method and device for reproducing a surrounding area of a vehicle | |
DE102007058779A1 (en) | Device for producing image of partly moved scene in motor vehicle surrounding for video-based detection of objects e.g. guide posts, has video camera whose focusing is adjusted such that objects in close region are recorded in blurred way | |
DE102012200762A1 (en) | Method for signaling traffic condition in environment of vehicle, involves recording surrounding area of vehicle using sensor, and indicating recognized sensitive object on display arranged in rear view mirror housing of vehicle | |
DE102018004782A1 (en) | Method and device for detecting an environment, and vehicle with such a device | |
DE102011121473A1 (en) | A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R005 | Application deemed withdrawn due to failure to request examination |