DE102013210607A1 - Method and apparatus for detecting raised environment objects - Google Patents
Method and apparatus for detecting raised environment objects Download PDFInfo
- Publication number
- DE102013210607A1 DE102013210607A1 DE102013210607.6A DE102013210607A DE102013210607A1 DE 102013210607 A1 DE102013210607 A1 DE 102013210607A1 DE 102013210607 A DE102013210607 A DE 102013210607A DE 102013210607 A1 DE102013210607 A1 DE 102013210607A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- environment object
- environment
- rectified
- reference plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Es wird eine Vorrichtung und ein Verfahren zur Erkennung erhabener Umgebungsobjekte vorgeschlagen. Dabei wird ein erstes Bild, enthaltend ein Umgebungsobjekt aus einer ersten Perspektive erzeugt, ein zweites Bild, enthaltend das Umgebungsobjekt aus einer zweiten Perspektive erzeugt und das erste Bild sowie das zweite Bild hinsichtlich einer gemeinsamen Bezugsebene entzerrt. Anschließend wird das Umgebungsobjekt in dem ersten entzerrten Bild und in dem zweiten entzerrten Bild identifiziert und das Umgebungsobjekt als erhaben gegenüber der Bezugsebene erkannt, indem eine Abweichung zwischen der Darstellung des Umgebungsobjektes im ersten entzerrten Bild gegenüber der Darstellung des Umgebungsobjektes im zweiten entzerrten Bild festgestellt wird.A device and a method for recognizing raised environmental objects is proposed. A first image containing a surrounding object is generated from a first perspective, a second image containing the surrounding object is generated from a second perspective and the first image and the second image are rectified with respect to a common reference plane. The surrounding object is then identified in the first rectified image and in the second rectified image, and the surrounding object is identified as being raised in relation to the reference plane, in that a deviation between the representation of the surrounding object in the first rectified image and the representation of the surrounding object in the second rectified image is determined.
Description
Stand der TechnikState of the art
Die vorliegende Erfindung betrifft ein Verfahren zur Erkennung erhabener Umgebungsobjekte für Fahrerassistenzsysteme. Insbesondere betrifft die vorliegende Erfindung eine Möglichkeit, bei Verwendung zu anderen Zwecken vorgesehener Hardware (insbesondere Kameras) eine zuverlässige und kostengünstige Erkennung von Umgebungsobjekten durchzuführen.The present invention relates to a method for detecting elevated environment objects for driver assistance systems. In particular, the present invention relates to a possibility, when using hardware intended for other purposes (in particular cameras), to carry out a reliable and cost-effective recognition of environmental objects.
Durch eine inverse perspektivische Zuordnung (inverse perspective mapping, IPM) ist es möglich, das Bild einer Kamera in eine neue Ansicht (z.B. ein Top-View-Bild, auch "Vogelperspektive" genannt) zu transformieren. Aus der Synthese der z.B. in
Offenbarung der ErfindungDisclosure of the invention
Erfindungsgemäß wird ein Verfahren zur Erkennung erhabener Umgebungsobjekte vorgeschlagen. Ein erhabenes Umgebungsobjekt ist beispielsweise eine Struktur, welche aus einer überwiegend ebenen Fläche hervorsteht. Hierzu wird ein erstes Bild, enthaltend ein Umgebungsobjekt, aus einer ersten Perspektive erzeugt. Beispielsweise kann hierzu das Bild eines Kamerasystems eines Fahrzeugs verwendet werden. Als zweiter Schritt wird ein zweites Bild, enthaltend dasselbe Umgebungsobjekt, aus einer zweiten Perspektive erzeugt. Auch hierzu kann ein Kamerasystem desselben Fortbewegungsmittels verwendet werden. Anschließend werden sowohl das erste Bild als auch das zweite Bild hinsichtlich einer gemeinsamen Bezugsebene entzerrt, wozu intrinsische und extrinsische Parameter nötig sind, um eine gemeinsame Bezugsebene zu definieren. Mit anderen Worten wird eine Korrektur der unterschiedlichen Perspektiven vorgenommen, wobei die Bezugsebene mit einer dritten, nicht mit der ersten oder der zweiten Perspektive identischen Perspektive zusammenfallen kann. Beispielsweise können seitliche Ansichten auf das Umgebungsobjekt in eine Vogelperspektive entzerrt bzw. transformiert werden. Anschließend wird das Umgebungsobjekt in dem ersten entzerrten Bild und in dem zweiten entzerrten Bild identifiziert. Dies kann beispielsweise anhand bekannter Bilderkennungsalgorithmen erfolgen, welche eine Verwandtschaft in zwei unterschiedlichen Bildern erkennen. Zusätzlich können auch abstraktere Features wie Kanten oder Histogramme enthaltener Merkmale verwendet werden, um die Übereinstimmung (das „Matching“) durchführen zu können. Hierzu können auch weitere Informationen verwendet werden, welche beispielsweise durch zusätzliche Sensoren (z.B. Abstandsensorik) erhältlich sind. Je besser der Kontrast der aufgenommenen, entzerrten Bilder, desto einfacher und sicherer ist auch das Identifizieren des Umgebungsobjektes. Anschließend wird das Umgebungsobjekt als erhaben gegenüber der Bezugsebene erkannt, indem aufgrund einer Abweichung zwischen der Darstellung des Umgebungsobjektes im ersten entzerrten Bild gegenüber der Darstellung des Umgebungsobjektes im zweiten entzerrten Bild erkannt wird, dass das Umgebungsobjekt bei der Entzerrung die Annahme einer flachen Ebene entsprechend der ersten bzw. der zweiten Perspektive verletzt. Mit anderen Worten wird in den entzerrten Bildern zunächst das Umgebungsobjekt identifiziert und anschließend seine jeweilige Darstellung miteinander verglichen. Aus den Unterschieden der Darstellung wird dann das Umgebungsobjekt als erhaben erkannt. Auf diese Weise kann beispielsweise eine Kollisionsrelevanz für ein Fortbewegungsmittel erkannt werden, welches das Verfahren durchführt. Beispielsweise kann hierzu eine Position des Ego-Fahrzeuges bestimmt werden und zusätzlich eine Geschwindigkeitsschätzung erfolgen, wenn Informationen über die Eigenbewegung des Fahrzeugs zusätzlich verfügbar sind.According to the invention, a method is proposed for detecting elevated environmental objects. A raised environment object is, for example, a structure that protrudes from a predominantly flat surface. For this purpose, a first image containing an environment object is generated from a first perspective. For example, the image of a camera system of a vehicle can be used for this purpose. As a second step, a second image containing the same environment object is generated from a second perspective. For this purpose, a camera system of the same means of locomotion can be used. Subsequently, both the first image and the second image are equalized with respect to a common reference plane, which requires intrinsic and extrinsic parameters to define a common reference plane. In other words, a correction of the different perspectives is made, wherein the reference plane can coincide with a third, not identical with the first or the second perspective perspective. For example, side views of the environment object can be equalized or transformed into a bird's-eye view. Subsequently, the environment object is identified in the first equalized image and in the second equalized image. This can be done, for example, using known image recognition algorithms, which recognize a relationship in two different images. In addition, more abstract features such as edges or histograms of included features can be used to match ("matching"). For this purpose, further information can also be used, which are obtainable for example by additional sensors (for example distance sensors). The better the contrast of recorded, rectified images, the easier and safer it is to identify the surrounding object. Subsequently, the environment object is recognized as raised with respect to the reference plane, by recognizing that the environment object in the equalization assumes the assumption of a flat plane corresponding to the first one due to a deviation between the representation of the environment object in the first equalized image versus the representation of the environment object in the second equalized image or the second perspective violated. In other words, the environment object is first identified in the rectified images, and then its respective representation is compared with one another. From the differences of the presentation, the environment object is then recognized as sublime. In this way, for example, a collision relevance for a means of locomotion can be recognized, which performs the method. For example, for this purpose, a position of the ego vehicle can be determined and, in addition, a speed estimate can be made if information about the intrinsic movement of the vehicle is additionally available.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.The dependent claims show preferred developments of the invention.
Bevorzugt können das Erzeugen des ersten Bildes mittels eines ersten optischen Sensors und das Erzeugen des zweiten Bildes mittels eines zweiten optischen Sensors erfolgen. Beispielsweise kann für andere Zwecke vorgesehenes Kamera-Equipment eines Fortbewegungsmittels (z.B. Rückfahrkamera, Seitenblickassistenten, Einparkhilfe) zurückgegriffen werden, so dass die vorliegende Erfindung ohne zusätzliche Hardware auskommt.The generation of the first image by means of a first optical sensor and the generation of the second image by means of a second optical sensor can preferably take place. For example, other means of locomotion camera equipment (e.g., rear view camera, side view assist, parking assistance) may be used so that the present invention can do without additional hardware.
Weiter bevorzugt kann das Entzerren ein Durchführen einer inversen perspektivischen Zuordnung auf Grundlage des ersten Bildes und des zweiten Bildes umfassen. Die inverse perspektivische Zuordnung (Englisch inverse perspective mapping, IPM) ist ein Verfahren, mittels welchem beispielsweise Seitenansichten eines Kamerabildes in eine Vogelperspektive umgerechnet werden können. Zu den Details des IPM-Verfahrens wird auf die einschlägige Fachliteratur verwiesen. Wird für die neue Bezugsebene nach der Entzerrung beispielsweise die Fahrbahnoberfläche verwendet, werden Bildpunkte, die bereits auf der Fahrbahnoberfläche befindliche Muster (z.B. Fahrbahnmarkierungen) repräsentieren, sehr exakt und realitätsnah auch in der neuen Bezugsebene dargestellt. Für Gegenstände, die aus der Fahrbahnebene hervorstehen, trifft dies nicht zu. Nach der Transformation ergibt sich ein sogenannter „Schattenwurf“ derjenigen Objekte, die nicht in der Fahrbahnebene liegen. Da der Schattenwurf von der Perspektive des jeweiligen Bildes (bzw. des bei seiner Aufnahme verwendeten Kamerasystems) abhängt, kann aus dem Unterschied zwischen Objekten zweier Bilder darauf geschlossen werden, dass das jeweilige Objekt die Annahme einer flachen Bildebene (Fahrbahnebene) verletzt und aus dieser hervorsteht. Auf diese Weise kann vorhandene Hardware zur Erkennung von Umgebungsobjekten verwendet werden, indem zusätzliche Software-seitige Funktionalität vorgesehen wird.More preferably, the equalizing may include performing an inverse perspective assignment based on the first image and the second image. The inverse perspective mapping (English inverse perspective mapping, IPM) is a method by which, for example, side views of a camera image can be converted into a bird's eye view. For the details of the IPM procedure, reference is made to the relevant literature. For example, if the road surface is used for the new reference plane after equalization, pixels representing patterns already on the road surface (eg lane markings) are displayed very accurately and close to reality even in the new reference plane. This is not the case for objects that protrude from the road level. After the transformation results in a so-called "shadow cast" of those objects that are not in the road level. Since the shadow is dependent on the perspective of the respective image (or the camera system used in its recording), it can be concluded from the difference between objects of two images that the respective object violates the assumption of a flat image plane (road plane) and protrudes therefrom , In this way, existing hardware can be used to detect environment objects by providing additional software-side functionality.
Weiter bevorzugt kann im Schritt des Erkennens eine Annahme anschließen, welche als Manhattanwelt-Annahme (Englisch: „Manhattan world assumption“) bezeichnet wird. Der Grundgedanke dieser Annahme besteht darin, dass menschengemachte Objekte häufig im Wesentlichen rechtwinklig aus der Bodenebene hervorstehen. Beispiele für solche Strukturen sind beispielsweise Straßenlaternen, Säulen in einem Parkhaus, Mauerwerk etc. Da der Winkel, in welchem das Objekt aus der Bodenebene hervorsteht, in Verbindung mit den Perspektiven des ersten Bildes und des zweiten Bildes die Abweichung der Darstellung des Objektes in den Bildern bestimmt, kann aufgrund der Kenntnis der ersten Perspektive und der zweiten Perspektive eine Identifikation des jeweiligen Objektes vereinfacht bzw. schneller erfolgen. Insbesondere besteht die Möglichkeit, eine unabhängig von der Manhattan Welt-Annahme durchgeführte Identifikation des Objektes unter Annahme der Manhattan Welt-Annahme zu verifizieren und den Schritt des Identifizierens und/oder des Erkennens noch sicherer durchführen zu können.More preferably, in the step of recognizing, an assumption may follow, which is referred to as the Manhattan world assumption. The basic idea of this assumption is that man-made objects often protrude substantially at a right angle from the ground plane. Examples of such structures are, for example, street lamps, pillars in a parking garage, masonry, etc. Since the angle at which the object protrudes from the ground level, in conjunction with the perspectives of the first image and the second image, the deviation of the representation of the object in the images determined, based on the knowledge of the first perspective and the second perspective, an identification of the respective object can be simplified or faster. In particular, it is possible to verify an identification of the object carried out independently of the Manhattan world assumption, assuming the Manhattan world assumption, and to be able to carry out the step of identifying and / or recognizing even more reliably.
Weiter bevorzugt kann das erfindungsgemäße Verfahren den Schritt eines Modifizierens einer Beleuchtung des Umgebungsobjektes umfassen. Mit anderen Worten kann das Umgebungsobjekt bzw. die Umgebung an sich durch ein Leuchtmittel zu einem ersten Zeitpunkt künstlich erhellt werden und zu einem zweiten Zeitpunkt in einer anderen Weise, mit einer anderen Intensität oder gar nicht künstlich angestrahlt werden. Insbesondere können Lichtmuster auf das Umgebungsobjekt projiziert werden, mittels welcher eine besonders zuverlässige Identifikation des Umgebungsobjektes im ersten Bild und im zweiten Bild ermöglicht wird.More preferably, the method of the invention may include the step of modifying a lighting of the surrounding object. In other words, the environment object or the environment per se can be artificially illuminated by a light source at a first time and be artificially illuminated at a second time in another way, with a different intensity or not at all. In particular, light patterns can be projected onto the environment object, by means of which a particularly reliable identification of the environment object in the first image and in the second image is made possible.
Bevorzugt kann die Beleuchtung im unsichtbaren infraroten Frequenzbereich modifiziert werden, während eine Änderung der Beleuchtung im sichtbaren Frequenzbereich bevorzugt nicht oder nur unwesentlich erfolgt. Auf diese Weise kann eine Irritation von Personen in der Umgebung sowie (bei automatischer Auslösung des Verfahrens) des Anwenders des erfindungsgemäßen Verfahrens verhindert werden.Preferably, the illumination in the invisible infrared frequency range can be modified, while a change in the illumination in the visible frequency range is preferably not or only insignificantly. In this way, irritation of persons in the environment as well as (with automatic triggering of the method) of the user of the method according to the invention can be prevented.
Bevorzugt kann im Schritt des Erkennens weiter ein Fußpunkt des Umgebungsobjektes identifiziert werden. Als Fußpunkt sei im Rahmen der vorliegenden Erfindung derjenige Bereich des Umgebungsobjektes verstanden, welcher mit der Bezugsebene (z.B. der Bodenebene) zusammenfällt. Hierzu kann ein im ersten entzerrten Bild und im zweiten entzerrten Bild übereinstimmender Abschnitt des jeweiligen Umgebungsobjektes identifiziert und als Fußpunkt des Umgebungsobjektes angenommen werden. Auf Basis des Fußpunktes kann beispielsweise eine Abstandsberechnung des Umgebungsobjektes von den Mitteln zur Bilderzeugung bzw. von einem mit den besagten Mitteln ausgestatteten Fahrzeug durchgeführt werden. Mit Kenntnis der Eigenbewegung einer das Verfahren ausführenden Instanz kann aufgrund der bestimmten Position auch eine Bewegungs- und Geschwindigkeitsschätzung des Fußpunktes bzw. des gesamten Umgebungsobjektes erfolgen.Preferably, in the step of recognizing, a foot point of the surrounding object can be further identified. In the context of the present invention, the term footing is to be understood as that region of the surrounding object which coincides with the reference plane (for example the ground plane). For this purpose, a section of the respective surrounding object matching in the first rectified image and in the second rectified image can be identified and adopted as the base point of the surrounding object. On the basis of the foot point, for example, a distance calculation of the surrounding object can be carried out by the means for image generation or by a vehicle equipped with the said means. With knowledge of the proper motion of an instance executing the method, a movement and speed estimation of the foot point or of the entire environment object can also take place on the basis of the determined position.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird eine Vorrichtung zur Erkennung erhabener Umgebungsobjekte vorgeschlagen. Die Vorrichtung umfasst Mittel zum Empfangen eines ersten Bildes und eines zweiten Bildes. Zusätzlich umfasst die Vorrichtung eine Verarbeitungseinheit, welche eingerichtet ist, das erste Bild und das zweite Bild hinsichtlich einer gemeinsamen Schutzebene zu entzerren. Weiter ist die Verarbeitungseinheit eingerichtet, ein Umgebungsobjekt in dem ersten entzerrten Bild und im zweiten entzerrten Bild zu identifizieren und das Umgebungsobjekt aufgrund einer Abweichung zwischen der Darstellung des Umgebungsobjektes im ersten entzerrten Bild gegenüber der Darstellung des Umgebungsobjektes im zweiten entzerrten Bild als erhaben gegenüber der gemeinsamen Bezugsebene zu erkennen. Die von der Verarbeitungseinheit der erfindungsgemäßen Vorrichtung durchgeführten Schritte korrespondieren zu denen des vorstehend beschriebenen Verfahrens, so dass auf eine Wiederholung der Erläuterungen verzichtet werden kann. Selbiges gilt für die Vorteile und möglichen Ausgestaltungen, die als bevorzugte Verbesserungen und Konkretisierungen der erfindungsgemäßen Vorrichtung verstanden werden dürfen.In accordance with another aspect of the present invention, a device for detecting raised ambient objects is proposed. The apparatus comprises means for receiving a first image and a second image. In addition, the device comprises a processing unit which is set up to equalize the first image and the second image with respect to a common protection plane. Further, the processing unit is configured to identify an environment object in the first equalized image and the second equalized image and the environment object due to a deviation between the representation of the environment object in the first equalized image versus the representation of the environment object in the second equalized image as raised from the common reference plane to recognize. The steps performed by the processing unit of the device according to the invention correspond to those of the method described above, so that a repetition of the explanations can be dispensed with. The same applies to the advantages and possible embodiments, which may be understood as preferred improvements and concretizations of the device according to the invention.
Kurze Beschreibung der Zeichnungen Brief description of the drawings
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:Hereinafter, embodiments of the invention will be described in detail with reference to the accompanying drawings. In the drawings:
Ausführungsformen der ErfindungEmbodiments of the invention
In
Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird.Although the aspects and advantageous embodiments of the invention have been described in detail with reference to the embodiments explained in connection with the accompanying drawings, modifications and combinations of features of the illustrated embodiments are possible for the skilled person, without departing from the scope of the present invention, the scope of protection the appended claims are defined.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013210607.6A DE102013210607B4 (en) | 2013-06-07 | 2013-06-07 | Method and apparatus for detecting raised environment objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013210607.6A DE102013210607B4 (en) | 2013-06-07 | 2013-06-07 | Method and apparatus for detecting raised environment objects |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102013210607A1 true DE102013210607A1 (en) | 2014-12-11 |
DE102013210607B4 DE102013210607B4 (en) | 2018-03-01 |
Family
ID=52009074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013210607.6A Active DE102013210607B4 (en) | 2013-06-07 | 2013-06-07 | Method and apparatus for detecting raised environment objects |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013210607B4 (en) |
-
2013
- 2013-06-07 DE DE102013210607.6A patent/DE102013210607B4/en active Active
Also Published As
Publication number | Publication date |
---|---|
DE102013210607B4 (en) | 2018-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014107158B4 (en) | Improved top-down imaging in a front curb visualization system | |
DE102014107156B4 (en) | System and method for providing improved perspective imaging in a front curb visualization system | |
DE102009005505B4 (en) | Method and device for generating an image of the surroundings of a motor vehicle | |
DE102014115399B4 (en) | Device and method for parking assistance | |
DE102016123887A1 (en) | VIRTUAL SENSOR DATA GENERATION FOR WHEEL STOP DETECTION | |
DE102017100198A1 (en) | FIXING GENERATION FOR MACHINE LEARNING | |
DE102015111907B4 (en) | Algorithm to extend the detection range for an AVM stop line detection | |
DE112017001545T5 (en) | VIRTUAL OVERLAY SYSTEM AND PROCESS FOR COVERED OBJECTS | |
DE102016215115A1 (en) | Device and method for detecting road users in an environment of an ego vehicle | |
EP2546778A2 (en) | Method for evaluating an object detection device of a motor vehicle | |
DE102015206546A1 (en) | Road marking recognition device | |
DE102013012930A1 (en) | Method for determining a current distance and / or a current speed of a target object from a reference point in a camera image, camera system and motor vehicle | |
AT518940B1 (en) | A method and apparatus for measuring a distance between a first vehicle and a second vehicle immediately ahead of the first vehicle | |
EP3520023A1 (en) | Detection and validation of objects from sequential images from a camera | |
EP3815044B1 (en) | Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus | |
DE102017106152A1 (en) | Determine an angle of a trailer with optimized template | |
DE102015223500B4 (en) | Method and device for testing the functionality of an outside light device of a vehicle | |
DE102013215408A1 (en) | A vehicle display system and method for displaying a vehicle environment | |
DE102016208369A1 (en) | Method for determining data representing part of the environment below the vehicle | |
EP3721371A1 (en) | Method for position determination for a vehicle, controller and vehicle | |
DE102016114693A1 (en) | A method for assisting a driver of a motor vehicle when driving the motor vehicle, driver assistance system and motor vehicle | |
DE102015006569A1 (en) | Method for image-based recognition of the road type | |
DE102013204935A1 (en) | Method and device for taking a picture of a pulsed lighting object | |
DE102013210607B4 (en) | Method and apparatus for detecting raised environment objects | |
DE102017206974A1 (en) | Method for the indirect detection of a covered road user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |