DE102012204175A1 - Image processing method for driving assistance system of vehicle, involves calculating optical flux on camera images of preferred regions and/or preferred directions determined based on information of environment of vehicle - Google Patents
Image processing method for driving assistance system of vehicle, involves calculating optical flux on camera images of preferred regions and/or preferred directions determined based on information of environment of vehicle Download PDFInfo
- Publication number
- DE102012204175A1 DE102012204175A1 DE201210204175 DE102012204175A DE102012204175A1 DE 102012204175 A1 DE102012204175 A1 DE 102012204175A1 DE 201210204175 DE201210204175 DE 201210204175 DE 102012204175 A DE102012204175 A DE 102012204175A DE 102012204175 A1 DE102012204175 A1 DE 102012204175A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- environment
- information
- preferred
- assistance system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/095—Traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
Stand der TechnikState of the art
Die Erfindung betrifft ein Verfahren zur Bildverarbeitung für ein Fahrassistenzsystem und ein Fahrassistenzsystem. The invention relates to a method for image processing for a driver assistance system and a driver assistance system.
Aus der
Der Erfindung geht das Problem voraus, dass die Berechnung eines optischen Flussfeldes in Echtzeitsystemen sehr teuer, d.h. Laufzeitintensiv ist. Die Berechnung erhöht sich auch dann signifikant, wenn das Flussfeld nicht nur pixelgenau sondern auch sogenannter Subpixelfluss zu bestimmen ist, vor allem dort, wo nur sehr kleine Veränderungen wahrgenommen werden müssen, z.B. in der Nähe des FOE oder auch dort, wo ein sehr genauer Fluss von Vorteil ist, z.B. bei der Detektion von Fußgängern, da diese im Vergleich zu festen Strukturen, wie sie z.B. bei Fahrzeugen vorliegen, sehr viele Bewegungen in unterschiedlichen Richtungen haben, insbesondere bei Armen und Beinen. The invention anticipates the problem that the calculation of an optical flow field in real time systems is very expensive, i. Runtime is intensive. The calculation also increases significantly if the flow field is to be determined not only pixel-precise but also so-called sub-pixel flow, especially where only very small changes have to be detected, e.g. near the FOE or even where a very accurate flow is beneficial, e.g. in the detection of pedestrians, since these compared to solid structures, as e.g. present on vehicles, have very many movements in different directions, especially in the arms and legs.
Offenbarung der ErfindungDisclosure of the invention
Erfindungsgemäß wird ein Verfahren mit den Merkmalen nach dem Anspruch 1 vorgeschlagen und ein Fahrassistenzsystem gemäß Anspruch 10. Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben. According to the invention, a method with the features according to claim 1 is proposed and a driver assistance system according to
Dabei ist vorgesehen, dass eine Kamera eine Umgebung eines Fahrzeugs erfasst und anhand von Informationen über die Umgebung eines Fahrzeugs Vorzugsbereiche und/oder Vorzugsrichtungen ermittelt werden und ein optischer Fluss auf den Kamerabildern nur in den Vorzugsbereichen und/oder Vorzugsrichtungen berechnet wird, beziehungsweise mehr Rechenzeit für die Vorzugsbereiche und/oder Vorzugsrichtungen zur Verfügung gestellt wird.It is provided that a camera detects an environment of a vehicle and based on information about the environment of a vehicle preferred ranges and / or preferred directions are determined and an optical flow is calculated on the camera images only in the preferred areas and / or preferred directions, or more computing time for the preferred areas and / or preferred directions are provided.
Vorteile der ErfindungAdvantages of the invention
Es wird vorgeschlagen, die Aufmerksamkeit des Flussberechnungsmoduls anhand von Umweltinformationen zu steuern. In solchen Bereichen des Bildes soll verhältnismäßig mehr Rechenzeit in die Flussberechnung und damit in die Genauigkeit des Flussfeldes investiert werden, wo erwartet wird, dass dort mehr Informationen im Feld gebraucht werden.It is proposed to control the attention of the flow calculation module based on environmental information. In such areas of the image, relatively more computing time should be invested in the flow calculation and thus in the accuracy of the flow field, where it is expected that more information will be needed in the field.
Bei der Berechnung des Flusses wird üblicherweise für ein Pixel eine Umgebung des Pixel, beispielsweise dessen nächste Nachbarn, betrachtet und dem Pixel eine Signatur zugeordnet, die eine Umgebungsinformation codiert. Die Signatur dient dazu, den Weltpunkt, den das Pixel kodiert, im nächsten für das Flussfeld relevanten Bild wiederzufinden. Hierbei gilt, dass pro Signaturblock nur ein Vektor bestimmt werden kann. Die Signaturblöcke können disjunkt sein oder sich überlagern. Hierbei kann der optische Fluss in verschiedenen Dichten berechnet werden, wobei ein dichtester Fall derart definiert werden kann, dass für jedes Pixel des Bildes einzeln eine Signatur bestimmt wird, und ein weniger dichter Fall derart, dass weniger Pixel ausgewählt werden, beispielsweise jedes n-te, wobei n eine natürliche Zahl ist, wenn der Fluss nur pixelgenau berechnet werden soll. Für einen subpixelgenauen Fluss wird noch zwischen den Signaturblöcken interpoliert. Über das Bild wird also zu einem Netz von Pixeln jeweils die Signatur berechnet, wobei der Netzpunktabstand horizontal und vertikal gleich oder verschieden gewählt sein kann, je nach Zweckmäßigkeit. When calculating the flow, a pixel's environment, for example its nearest neighbor, is usually considered for a pixel, and a signature is assigned to the pixel that encodes environmental information. The signature serves to retrieve the world point that the pixel encodes in the next image relevant to the flow field. In this case, only one vector can be determined per signature block. The signature blocks can be disjoint or superimposed. Here, the optical flux can be calculated in different densities, with a closest case defined such that one signature is determined for each pixel of the image, and a less dense case such that fewer pixels are selected, for example every nth , where n is a natural number if the flow is to be calculated with pixel accuracy. For a subpixel-accurate flow, interpolation is still done between the signature blocks. The image is thus in each case the signature calculated for a network of pixels, wherein the network point distance can be selected horizontally and vertically the same or different, depending on the expediency.
Die Signatur zu jedem Pixel oder eine ähnliche Signatur wird darauf hin in einem Folgebild wiedergesucht. Bei der Berechnung des optischen Flusses auf Digitalbildern wird also ein Vektorfeld berechnet, welches die Bewegung eines Pixels zwischen zwei Zeitpunkten t und t-x, insbesondere zu den Zeitpunkten t und t-1 beschreibt. The signature for each pixel or a similar signature is then retrieved in a subsequent image. In the calculation of the optical flow on digital images, therefore, a vector field is calculated which describes the movement of a pixel between two times t and t-x, in particular at the times t and t-1.
Nach einer Ausführungsform der Erfindung können die Vorzugsbereiche und/oder Vorzugsrichtungen priorisiert berechnet werden. Es kann vorgesehen sein, dass beispielsweise nur Vorzugsrichtungen und/oder Vorzugsbereiche berechnet werden oder es kann vorgesehen sein, dass zunächst Vorzugsrichtungen und/oder Vorzugsbereiche berechnet werden und anschließend über das gesamte Bild ein Fluss berechnet wird, um Objekte zu detektieren, die sich außerhalb der Vorzugsbereiche oder Vorzugsrichtungen befinden. Dabei kann auch ein Abbruch der Berechnung des Flusses auf dem Gesamtbild vorgesehen sein, wenn ein echtzeitfähiges System beabsichtigt wird. Es kann auch vorgesehen sein, den Fluss auf dem Gesamtbild dann noch einmal zu berechnen, wenn noch Zeit verbleibt, bevor das nächste Bild ausgewertet werden muss. Es kann darüber hinaus auch vorgesehen sein, den Fluss nach Berechnung der Vorzugsbereiche und/oder Vorzugsrichtungen weniger dicht zu berechnen und/oder die Dichte an eine verbliebene Rechenzeit anzupassen.According to one embodiment of the invention, the preferred ranges and / or preferred directions can be calculated prioritized. It can be provided that, for example, only preferred directions and / or preferred ranges are calculated, or it can be provided that initially preferred directions and / or preferred ranges are calculated and then a flux is calculated over the entire image in order to detect objects that are outside the Preferred ranges or preferred directions are located. It can also be a Abort the calculation of the flow to be provided on the overall picture, if a real-time capable system is intended. It can also be provided to recalculate the flow on the overall image if there is still time left before the next image has to be evaluated. In addition, it may also be provided to calculate the flow less densely after calculating the preferred ranges and / or preferred directions and / or to adapt the density to a remaining computing time.
Es kann vorgesehen sein, dass der optische Fluss nur in den Vorzugsrichtungen und/oder Vorzugsbereichen in Bezug auf mehrere zurückliegende Bilder berechnet wird. Beispielsweise kann der optische Fluss in Vorzugsrichtungen und/oder Vorzugsbereichen zu drei Zeitpunkten t, t-1 und t-2 berechnet werden, bevor anschließend über das gesamte Bild ein Fluss zu den Zeitpunkten t und t-1 berechnet wird, um Objekte zu detektieren, die sich außerhalb der Vorzugsbereiche oder Vorzugsrichtungen befinden. Über wie viele Bilder hinweg das Feld berechnet wird, hängt insbesondere von den zur Verfügung stehenden Ressourcen ab. In der Regel wird der Fluss über zwei aufeinander folgende Bilder berechnet, wobei bei Systemen mit mehreren Belichtungszeiten berücksichtigt werden muss, dass die Bilder, über die ein Flussfeld berechnet wird, jeweils mit derselben Belichtungsstrategie aufgenommen worden sind.It can be provided that the optical flow is calculated only in the preferred directions and / or preferred ranges with respect to a plurality of past images. For example, the optical flow in preferred directions and / or preferential ranges can be calculated at three times t, t-1 and t-2, before subsequently calculating a flow at the times t and t-1 over the entire image in order to detect objects. which are outside the preferred areas or preferred directions. How many images the field is calculated on depends in particular on the available resources. In general, the flow is calculated over two successive images, and in systems with multiple exposure times, it must be taken into account that the images over which a flow field is calculated were each taken with the same exposure strategy.
Es kann vorgesehen sein, dass beispielsweise nur Vorzugsrichtungen und/oder Vorzugsbereiche Subpixelfluss-genau berechnet werden. Bei selbstbewegten Objekten und bei Objekten in der Nähe des FOE kann es beispielsweise notwendig sein, aus Subpixelfluss Informationen zu gewinnen. It may be provided that, for example, only preferred directions and / or preferred ranges are calculated with subpixel flux accuracy. For example, with self-moving objects and with objects near the FOE, it may be necessary to extract information from sub-pixel flow.
Nach einer Ausführungsform der Erfindung werden die Informationen über die Umgebung des Fahrzeugs anhand von Karten der Umgebung ermittelt. Derartige Umgebungskarten können beispielsweise über ein Navigationssystem und GPS-Daten verfügbar sein, welches auf einem maschinenlesbaren Speichermedium gespeichert sein kann, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer entfernbaren CD-Rom, DVD oder einem USB-Stick. Das Kartenmaterial kann zusätzlich oder alternativ dazu auf einer Computereinrichtung wie etwa auf einem Server zum Herunterladen bereitgestellt sein, z.B. über ein Datennetzwerk wie etwa das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung oder einer eigenen gelernten Karte entnommen sein.According to one embodiment of the invention, the information about the environment of the vehicle is determined by means of maps of the environment. Such environment maps may be available for example via a navigation system and GPS data which may be stored on a machine-readable storage medium, such as a permanent or rewritable storage medium or in association with a computer device or on a removable CD-ROM, DVD or USB stick , The map material may additionally or alternatively be provided for download on a computing device, such as a server, e.g. be taken over a data network such as the Internet or a communication connection such as a telephone line or a wireless connection or its own learned card.
Nach einer Ausführungsform der Erfindung wird auf den Kamerabildern eine Szenerie erkannt. Die Informationen über die Umgebung des Fahrzeugs werden anhand der Szenerie ermittelt. Derartige Szenerien können beispielsweise anhand von geometrischen Anordnungen und/oder charakteristischen Farben erkannt werden. Sie können Kreuzungsbereiche umfassen, wobei diese beispielsweise anhand von Ampeln oder Verkehrsschildern erkannt werden können und/oder Zebrastreifen wobei diese beispielsweise anhand von Fahrspurmarkierungen erkannt werden können. Derartige Szenerien können auch mehrspurige Straßen umfassen, welche beispielsweise anhand von Fahrbahnbegrenzungselementen und/oder Fahrspurmarkierungen erkannt werden können, oder Reihen geparkter Autos. Derartige Szenerien können auch Räume umfassen, beispielsweise eine Garage, was beispielsweise anhand des Verlaufs von Kanten, an denen die Garagenwände aneinander oder an die Garagendecke stoßen, ermittelt werden kann. Eine weitere Möglichkeit zur Erkennung von Szenerien wäre eine texturbasierte Erkennung gewisser Objekte von Interesse, so zum Beispiel Fahrzeugen oder Fußgänger. Ist für derartige Objekte noch Bewegungsinformation relevant, so zum Beispiel für ein seitliches Tracking oder für eine Skalierungsschätzung, so ist deren Flussfeld von Bedeutung. Durch ein texturbasiertes Verfahren erkannte Bildregionen, können dem Flussberechnungsmodul zurückgespeist werden, um dort einen exakteren Fluss zu berechnen. Es ist denkbar, einen ähnlichen Ansatz mit einem Stereo- oder mit einem Radarsystem vorzunehmen. Eine weitere Informationsquelle zur Interpretation von durch die Umwelt bereitgestellten Informationen, sind beispielsweise Verkehrsschilder, wie zum Beispiel Zebrastreifenschilder oder Schülerlotsen-Hinweisschilder.According to one embodiment of the invention, a scene is detected on the camera images. The information about the surroundings of the vehicle is determined from the scenery. Such scenes can be recognized, for example, by means of geometric arrangements and / or characteristic colors. They may include intersections, which can be detected, for example, by means of traffic lights or traffic signs and / or crosswalks, which can be recognized, for example, by means of lane markings. Such sceneries may also comprise multi-lane roads, which can be recognized, for example, by means of lane boundary elements and / or lane markings, or rows of parked cars. Such scenarios may also include rooms, such as a garage, which can be determined, for example, based on the course of edges at which the garage walls abut each other or to the garage ceiling. Another way to detect sceneries would be a texture-based recognition of certain objects of interest, such as vehicles or pedestrians. If motion information is still relevant for such objects, for example for a lateral tracking or for a scaling estimate, then its flow field is of importance. Image regions detected by a texture-based method may be fed back to the flow calculation module to calculate a more accurate flow there. It is conceivable to undertake a similar approach with a stereo or with a radar system. Another source of information for interpreting information provided by the environment is, for example, traffic signs, such as pedestrian signage or student pilot information signs.
Nach einer Ausführungsform werden die Informationen über die Umgebung des Fahrzeugs anhand eines Einsatzes des Fahrassistenzsystems als Spurassistent oder als Parkassistent ermittelt. Bei einem Einsatz des Fahrassistenzsystems als Spurassistent oder als Parkassistent kann das Verfahren fest parametriert angewendet werden. According to one embodiment, the information about the surroundings of the vehicle is determined by using the driver assistance system as a lane assistant or as a parking assistant. If the driver assistance system is used as a lane assistant or as a parking assistant, the method can be used with fixed parametrization.
Spurassistenten werden beispielsweise bei Autobahnfahrten eingesetzt, um den Fahrer auf längeren Strecken ohne starkes Verkehrsaufkommen bei der Spurhaltung zu entlasten (LKA, lane keeping assistant). Spurassistenten benötigen Informationen über den Verlauf der Fahrspur, in welcher sich das Fahrzeug befindet. Die Informationen werden dabei durch Bildmaterial und/oder durch Kartenmaterial bereitgestellt. Sobald ein Verlassen der Spur droht, wird dem Fahrer im Allgemeinen ein akustisches Signal übermittelt, so dass dessen Aufmerksamkeit auf das Halten der Spur gerichtet wird. Bei der Berechnung des optischen Flusses kann diese Richtung ressourcensparend als eine fest parametrisierte Vorzugsrichtung definiert werden.Lane assistants are used, for example, in highway driving to relieve the driver on longer journeys without heavy traffic during tracking (LKA, lane keeping assistant). Lane assistants require information about the course of the lane in which the vehicle is located. The information is provided by visual material and / or by map material. As soon as there is a threat of leaving the lane, an acoustic signal is generally transmitted to the driver, so that his attention is focused on holding the lane. When calculating the optical flow, this direction can be defined as resource-saving as a fixed parameterized preferred direction.
Bei dem Parkassistenten ist eine sehr genaue dreidimensionale Rekonstruktion der Umgebung gewünscht. Daher sind optimierte Modi für das Einparken in eine Parklücke, welche sich in eine Reihe hintereinander parkender Fahrzeuge befindet, oder für das Einparken in eine Reihe nebeneinander oder schräg nebeneinander geparkter Fahrzeuge oder in Garagen denkbar. Es wäre ebenfalls denkbar, neben den Vorzugsrichtungen das gesamte Flussberechnungsmodul umzuparametrisieren. Da in der Regel beim Einparken nur sehr langsame Geschwindigkeiten vorliegen, so dass sich die aufgenommene Umwelt zwischen zwei Bildern nur wenig ändert, besteht die Möglichkeit, hier anhand der Odometrie nur dann ein neues Flussfeld bereitzustellen, wenn das Fahrzeug eine gewisse Strecke, so zum Beispiel in der Größenordnung von 0,1 m zurückgelegt hat. Hierdurch steht für das Flussberechnungsmodul wesentlich mehr Zeit zur Verfügung, um ein einzelnes Flussfeld auszuwerten, welches in diesem Falle in einer höheren Genauigkeit vorläge. In the park assistant, a very accurate three-dimensional reconstruction of the environment is desired. Therefore, optimized modes for parking in a parking space, which is located in a series of consecutively parked vehicles, or for parking in a series of side by side or obliquely parked side by side vehicles or garages are conceivable. It would also be conceivable to reconfigure the entire flow calculation module in addition to the preferred directions. Since usually only very slow speeds are present when parking, so that the recorded environment changes only slightly between two images, it is possible to provide here only a new flow field using the odometry, if the vehicle has a certain distance, such as on the order of 0.1 m. As a result, considerably more time is available for the flow calculation module in order to evaluate a single flow field, which in this case would be available with a higher accuracy.
Nach einer Ausführungsform umfassen die Informationen über die Umgebung, dass das Fahrzeug sich in einem Raum befindet. Ein Vorzugsbereich umfasst in dieser Situation einen Bildrandbereich und ein optischer Fluss wird in dem Bildrandbereich berechnet. Dies ermöglicht eine bessere 3D-Rekonstruktion des Raums. In einem geschlossenen Raum wie beispielsweise in einer Garage werden eher statische Objekte vermutet und weniger dynamische, d.h. selbstbewegliche Objekte. Auf Basis dieser Informationen über die Umgebung kann Rechenzeit gespart werden, die durch eine Berechnung eines pixelgenauen oder subpixelgenauen optischen Flusses auf dem Vollbild entstehen würde. Stattdessen werden Raumrandbereiche, die für die 3D-Rekonstruktion des Raums nötig sind, exakt ermittelt.In one embodiment, the information about the environment includes the vehicle being in a room. A preferential area in this situation includes an image border area and an optical flux is calculated in the image border area. This allows a better 3D reconstruction of the room. In a closed room such as a garage, static objects are more likely to be suspected and less dynamic, i. E. self-moving objects. On the basis of this information about the environment, computing time can be saved, which would result from calculating a pixel-precise or subpixel-accurate optical flow on the full screen. Instead, room edge areas, which are necessary for the 3D reconstruction of the room, are determined exactly.
Nach einer Ausführungsform umfassen die Informationen über die Umgebung eine Existenz von querendem Verkehr. Eine Vorzugsrichtung umfasst in dieser Situation eine Richtung des querenden Verkehrs. In dem Fall, wenn querender Verkehr erwartet wird, wird ein optischer Fluss bevorzugt in der Bewegungsrichtung des querenden Verkehrs berechnet. Der querende Verkehr kann darüber hinaus auch einen Vorzugsbereich definieren, in dem die Informationen verarbeitet wird, bis zu welcher Höhe querende Objekte auf dem Bild erwartet werden. Somit wird effektiv ein Streifen in dem Bild berechnet, welcher dem potentiellen querenden Verkehr entspricht. Die Informationen über die Existenz des querenden Verkehrs können aus einer beliebigen Quelle stammen. In dem Fall, wenn querender Verkehr erwartet wird, kann beispielsweise zunächst die Vorzugsrichtung und/oder der Vorzugsbereich berechnet werden und, sobald ein gefährdetes Objekt ausgemacht werden, in der Nähe des gefährdeten Objekts eine genauere Berechnung, beispielsweise eine Subpixelflussberechnung ausgeführt werden. Danach kann gegebenenfalls noch eine Berechnung des Gesamtflusses, beispielsweise mit einer verringerten Genauigkeit erfolgen. In one embodiment, the information about the environment includes an existence of crossing traffic. A preferred direction in this situation comprises a direction of the crossing traffic. In the case when crossing traffic is expected, optical flow is preferably calculated in the direction of movement of the crossing traffic. The trailing traffic may also define a preference area in which the information is processed, up to which height traversing objects are expected on the image. Thus, effectively a band is calculated in the image corresponding to the potential crossing traffic. The information about the existence of the crossing traffic can come from any source. In the case when crossing traffic is expected, for example, first the preferred direction and / or the preferred range can be calculated and, as soon as an endangered object is identified, a more accurate calculation, for example a subpixel flux calculation, can be made in the vicinity of the vulnerable object. Thereafter, if necessary, a calculation of the total flow, for example, with a reduced accuracy.
Nach einer Ausführungsform der Erfindung können die Informationen über die Umgebung eine Existenz und eine Geschwindigkeit eines bewegten Objekts umfassen. Eine Vorzugsrichtung umfasst in dieser Situation eine prädizierte Trajektorie des bewegten Objekts. Verfahren zur Prädiktion von Trajektorien von bewegten Objekten, beispielsweise Fußgänger, Fahrradfahrer oder weitere Fahrzeuge, sind bekannt und umfassen z.B. die Anwendung von Kalman-Filtern. Für die Berechnung des optischen Flusses wird das Ergebnis derartiger Prädiktionen, d. h. den zukünftigen Ort des bewegten Objekts betreffend, verwendet. In dem dadurch definierten Vorzugsbereich kann der Fluss pixelgenau und/oder subpixelgenau berechnet werden. Werden mehrere Objekte auf dem Bild erkannt, so kann eine Priorität festgelegt werden, welche durch den Abstand des bewegten Objekts zum Fahrzeug und/oder durch die Wahrscheinlichkeit einer Kollision mit dem bewegten Objekt bestimmt sein kann. Sofern das Objekt klassifiziert worden ist, beispielsweise wenn bekannt ist, ob es sich um ein Fahrzeug, einen Fußgänger oder einen Radfahrer handelt, dann kann anhand dieser Information dem bewegten Objekt ein potentieller Bewegungsradius und somit ein Vorzugsbereich zugeordnet werden. Der Bewegungsradius kann so bestimmt sein, dass sich unter normalen Umständen das Objekt sich auf einem Folgebild nicht weiter als bis zu dem Radius bewegen sollte.According to one embodiment of the invention, the information about the environment may include an existence and a speed of a moving object. A preferred direction in this situation comprises a predicted trajectory of the moving object. Methods for predicting trajectories of moving objects, for example pedestrians, cyclists or other vehicles, are known and include e.g. the application of Kalman filters. For the calculation of the optical flow, the result of such predictions, i. H. concerning the future location of the moving object. In the preferred range defined thereby, the flux can be calculated with pixel precision and / or subpixel accuracy. If a plurality of objects are detected on the image, then a priority can be defined, which can be determined by the distance of the moving object to the vehicle and / or by the probability of a collision with the moving object. If the object has been classified, for example if it is known whether it is a vehicle, a pedestrian or a cyclist, then with reference to this information the moving object can be assigned a potential radius of movement and thus a preferential area. The radius of motion may be determined so that under normal circumstances the object should not move further than the radius on a subsequent image.
Weiter ist vorgesehen, dass auch anhand der Odometrie des Ego-Fahrzeugs gewisse Vorzugsrichtungen berechnet werden können, um den Rechenaufwand zu reduzieren. Die Eigenbewegung des Ego-Fahrzeugs erzeugt für ein Objekt, dessen Abstand und Größe zum Fahrzeug bekannt ist, einen optischen Fluss auf den Bildern der Umgebung. Anhand der Eigenbewegung des Ego-Fahrzeugs kann beispielsweise erkannt werden, dass eine Spurhaltung erfolgt oder dass eine Einparksituation vorliegt. It is further provided that certain preferred directions can also be calculated on the basis of the odometry of the ego vehicle in order to reduce the computational effort. The self-motion of the ego vehicle generates an optical flow on the images of the environment for an object whose distance and size to the vehicle is known. On the basis of the proper motion of the ego vehicle, it can be recognized, for example, that tracking is taking place or that a parking situation is present.
Erfindungsgemäß wird weiterhin ein Computerprogramm vorgeschlagen, gemäß dem eines der hierin beschriebenen Verfahren durchgeführt wird, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei dem Computerprogramm kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrassistenzsystems oder eines Subsystems hiervon in einem Fahrzeug handeln oder um eine Applikation für Fahrassistenzfunktionen, welche auf einem Smartphone ausführbar ist. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer entfernbaren CD-Rom, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung wie etwa auf einem Server zum Herunterladen bereitgestellt werden, z.B. über ein Datennetzwerk wie das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung. According to the invention, a computer program is also proposed according to which one of the methods described herein is performed when the computer program is executed on a programmable computer device. The computer program can be, for example, a module for implementing a driver assistance system or a subsystem thereof in a vehicle or an application for driver assistance functions that can be executed on a smartphone. The computer program can be stored on a machine-readable storage medium, such as on a permanent or rewritable storage medium or in Assignment to a computer device or on a removable CD-Rom, DVD or USB stick. Additionally or alternatively, the computer program may be provided for download on a computing device such as a server, eg via a data network such as the Internet or a communication link such as a telephone line or a wireless link.
Erfindungsgemäß ist außerdem ein Fahrassistenzsystem zur Ausführung eines der beschriebenen Verfahren vorgesehen, aufweisend
- – eine Kamera zur Erfassung einer Fahrzeugumgebung,
- – ein Modul zur Ermittlung von Informationen über die Umgebung des Fahrzeugs,
- – ein Modul zur Ermittlung von Vorzugsbereichen und/oder Vorzugsrichtungen aus den Informationen über die Umgebung des Fahrzeugs und
- – ein Modul zur Berechnung eines optischen Flusses in den Vorzugsbereichen und/oder Vorzugsrichtungen.
- A camera for detecting a vehicle environment,
- A module for determining information about the surroundings of the vehicle,
- A module for determining preferred ranges and / or preferred directions from the information about the surroundings of the vehicle and
- A module for calculating an optical flow in the preferred ranges and / or preferred directions.
Bevorzugt ist die Kamera zur Erfassung der Fahrzeugumgebung als ein Teil eines Videosystems ausgebildet, welches Bilder einer Umgebung des Fahrzeugs aufnimmt. Die Kamera kann eine Monokularkamera oder eine in einem Stereokamerasystem verwendete Kamera sein. Das Fahrassistenzsystem kann weitere Sensoren zur Aufnahme der Fahrzeugumgebung aufweisen, insbesondere Ultraschallsensoren, Radarsensoren und/oder LIDAR-Sensoren und Fusionsmodule aufweisen, welche Daten der verschiedenen Systeme geeignet zusammenfügen.Preferably, the camera for detecting the vehicle environment is formed as a part of a video system, which receives images of an environment of the vehicle. The camera may be a monocular camera or a camera used in a stereo camera system. The driver assistance system can have further sensors for recording the vehicle surroundings, in particular ultrasound sensors, radar sensors and / or LIDAR sensors and fusion modules which suitably combine data of the various systems.
Das Fahrassistenzsystem kann zum Datenaustausch mit weiteren Fahrassistenzsystemen, insbesondere mit einem Kollisionsvermeidungsassistenten, einem Einparkassistenten, einem Spurhalterassistenten eingerichtet sein.The driver assistance system can be set up for data exchange with further driver assistance systems, in particular with a collision avoidance assistant, a parking assistant, a lane keeping assistant.
Weitere Ausführungsbeispiele und Vorteile der Erfindung werden nachfolgend mit Bezug auf die Zeichnung beschrieben.Further embodiments and advantages of the invention will be described below with reference to the drawing.
Kurze Beschreibung der ZeichnungenBrief description of the drawings
Es zeigenShow it
Ausführungsformen der ErfindungEmbodiments of the invention
Das Fahrassistenzsystem umfasst hierzu zumindest eine Kamera
Die Datenverarbeitungseinrichtung
Aus den Daten der Kamera
Die Datenverarbeitungseinrichtung
Die Datenverarbeitungseinrichtung
Es kann vorgesehen sein, dass das Modul
Wenn sich eine Ansammlung von Flussvektoren, d.h. ein segmentierter zusammenhängender Bereich, deutlich anders bewegt als das umgebende, insbesondere von einer Eigenbewegung des Fahrzeugs bereinigte Feld, dann kann hieraus auf ein sich selbst bewegtes Objekt geschlossen werden. Da bei der Berechnung des eigenbewegungsbereinigten Flussfeldes auch eine Oberflächenannahme gemacht wird, stechen auch statische und gleichzeitig erhabene Objekte aus dem Flussfeld heraus. Somit ist eine Unterscheidung von selbstbewegten Objekten von statischen Objekten in der Regel möglich.When a collection of flow vectors, i. a segmented contiguous area, clearly different than the surrounding field, in particular cleared by a self-motion of the vehicle field, then it can be concluded that a self-moving object. Since a surface assumption is also made when calculating the self-motion-corrected flow field, static and at the same time elevated objects also stick out of the flow field. Thus, a distinction of self-moving objects of static objects is usually possible.
Objekte, welche von Modul
Das Fahrassistenzsystem hat beispielsweise anhand einer Auswertung des Kamerabildes
Auf dem Zebrastreifen befindet sich ein bewegtes Objekt
Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.The invention is not limited to the embodiments described herein and the aspects highlighted therein. Rather, within the scope given by the claims a variety of modifications are possible, which are within the scope of expert action.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 2256690 A1 [0002] EP 2256690 A1 [0002]
- DE 102004046101 A1 [0003] DE 102004046101 A1 [0003]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201210204175 DE102012204175A1 (en) | 2012-03-16 | 2012-03-16 | Image processing method for driving assistance system of vehicle, involves calculating optical flux on camera images of preferred regions and/or preferred directions determined based on information of environment of vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201210204175 DE102012204175A1 (en) | 2012-03-16 | 2012-03-16 | Image processing method for driving assistance system of vehicle, involves calculating optical flux on camera images of preferred regions and/or preferred directions determined based on information of environment of vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102012204175A1 true DE102012204175A1 (en) | 2013-09-19 |
Family
ID=49043968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201210204175 Ceased DE102012204175A1 (en) | 2012-03-16 | 2012-03-16 | Image processing method for driving assistance system of vehicle, involves calculating optical flux on camera images of preferred regions and/or preferred directions determined based on information of environment of vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102012204175A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013224539A1 (en) * | 2013-11-29 | 2015-06-03 | Bayerische Motoren Werke Aktiengesellschaft | Method, device, computer program and computer program product for image data transmission |
DE102016012345A1 (en) | 2016-10-14 | 2017-05-04 | Daimler Ag | Method for recognizing objects |
DE102016218949A1 (en) * | 2016-09-30 | 2018-04-05 | Conti Temic Microelectronic Gmbh | Camera apparatus and method for object detection in a surrounding area of a motor vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004046101A1 (en) | 2004-09-23 | 2006-09-21 | Daimlerchrysler Ag | Method for early detection of motor vehicle collision involves estimation of collision danger on the basis of determined time to collision and introducing collision reducing measures with exceeding of predetermined collision danger |
EP2256690A1 (en) | 2009-05-29 | 2010-12-01 | Honda Research Institute Europe GmbH | Object motion detection system based on combining 3D warping techniques and a proper object motion detection |
-
2012
- 2012-03-16 DE DE201210204175 patent/DE102012204175A1/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004046101A1 (en) | 2004-09-23 | 2006-09-21 | Daimlerchrysler Ag | Method for early detection of motor vehicle collision involves estimation of collision danger on the basis of determined time to collision and introducing collision reducing measures with exceeding of predetermined collision danger |
EP2256690A1 (en) | 2009-05-29 | 2010-12-01 | Honda Research Institute Europe GmbH | Object motion detection system based on combining 3D warping techniques and a proper object motion detection |
Non-Patent Citations (1)
Title |
---|
Ducrocq, Y.; Bahrami, S.; Duvieubourg, L.; Cabestaing, F.:"A visual attention focusing system using an active stereoscopic vision sensor"; IEEE; Image Processing Theory Tools and Applications (IPTA), 2010 2nd International Conference on; pp.511-516, 7-10 July 2010; doi: 10.1109/IPTA.2010.5586790 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013224539A1 (en) * | 2013-11-29 | 2015-06-03 | Bayerische Motoren Werke Aktiengesellschaft | Method, device, computer program and computer program product for image data transmission |
US10576891B2 (en) | 2013-11-29 | 2020-03-03 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus, computer program and computer program product for transmitting image data |
DE102016218949A1 (en) * | 2016-09-30 | 2018-04-05 | Conti Temic Microelectronic Gmbh | Camera apparatus and method for object detection in a surrounding area of a motor vehicle |
DE102016012345A1 (en) | 2016-10-14 | 2017-05-04 | Daimler Ag | Method for recognizing objects |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102010006828B4 (en) | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle | |
DE69635569T2 (en) | Device for determining the local position of a car on a road | |
DE102017105661A1 (en) | VEHICLE LANE POSITION LIMIT | |
DE102020110458A1 (en) | VEHICLE PATH FORECAST | |
DE102019125303A1 (en) | CLEANING THE VEHICLE SENSOR | |
DE102017100199A1 (en) | PEDESTRIAN RECOGNITION WITH TICKET CARDS | |
EP2116958B1 (en) | Method and device for calculating the drive path in the area in front of a vehicle | |
DE102004057188A1 (en) | Vehicle driving support device | |
DE102014114939A1 (en) | Image and card-based registration of vehicles at intersections | |
WO2015120981A1 (en) | Method for determining the absolute position of a mobile unit, and mobile unit | |
WO2013029722A2 (en) | Method for representing surroundings | |
DE102015225900B3 (en) | Method and device for camera-based traffic sign recognition in a motor vehicle | |
EP2033165B1 (en) | Method for picking up a traffic space | |
EP2023265A1 (en) | Method for recognising an object | |
DE102012213344A1 (en) | Method for driver assistance on board of motor vehicle, particularly for traffic sign recognition, involves determining direction change of motor vehicle, selecting camera image as function of direction change, and determining traffic sign | |
DE102008041679A1 (en) | Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature | |
DE102012208288A1 (en) | Method for representing vehicle environment on display, involves detecting camera around vehicle, and determining environmental information from image of camera, where determined environmental information is stored and outputted on display | |
DE112021006402T5 (en) | Estimating automatic exposure values of a camera by prioritizing an object of interest based on contextual input from 3D maps | |
DE102013012930A1 (en) | Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle | |
DE102020212978A1 (en) | VEHICLE AND METHOD OF CONTROLLING IT | |
EP3781906B1 (en) | Method and device for determining a highly precise position of a vehicle | |
DE102012204175A1 (en) | Image processing method for driving assistance system of vehicle, involves calculating optical flux on camera images of preferred regions and/or preferred directions determined based on information of environment of vehicle | |
CN108154119B (en) | Automatic driving processing method and device based on self-adaptive tracking frame segmentation | |
DE102016213377B4 (en) | Method for clearance height detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |
Effective date: 20131106 |