DE102009052868A1 - Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs - Google Patents
Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs Download PDFInfo
- Publication number
- DE102009052868A1 DE102009052868A1 DE102009052868A DE102009052868A DE102009052868A1 DE 102009052868 A1 DE102009052868 A1 DE 102009052868A1 DE 102009052868 A DE102009052868 A DE 102009052868A DE 102009052868 A DE102009052868 A DE 102009052868A DE 102009052868 A1 DE102009052868 A1 DE 102009052868A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- image
- image area
- distance
- overall
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 239000003086 colorant Substances 0.000 title abstract 2
- 230000005540 biological transmission Effects 0.000 claims description 4
- 235000019646 color tone Nutrition 0.000 claims 1
- 230000001133 acceleration Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/31—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/24—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/302—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/50—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs, wobei mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst werden und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet werden. Erfindungsgemäß wird ein Gesamtbild (G) der Umgebung des Fahrzeugs anhand einer Anzeigeeinheit (1) optisch ausgegeben und Bildbereiche (B1, B2) werden auf dem Gesamtbild (G) in Abhängigkeit mindestens eines Bildbereichsabstands mindestens einer Bildbereichsgrenze zu dem Fahrzeug in zumindest zwei unterschiedlichen Farbtönen dargestellt.
Description
- Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs, wobei mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst werden und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet werden.
- Aus der
DE 10 2008 017 834 A1 ist ein Verfahren zur Bestimmung von Korrespondenzen von Bildpunkten in mindestens zwei stereoskopisch aufgenommenen Bildern bekannt, bei dem für jedes Pixel (= Bildpunkt) eines der Bilder eine Berechnung der Kosten einer Unähnlichkeit anhand von Intensitäten des Pixels und eines als potentiell korrespondierend betrachteten Pixels des anderen Bildes durchgeführt wird. Entlang einer Anzahl von eindimensionalen Pfaden, die im Pixel münden, erfolgt eine Akkumulierung der Kosten, wobei aus den als potentiell korrespondierend betrachteten Pixeln des anderen Bildes dasjenige zur Erstellung einer Disparitätskarte ausgewählt wird, bei dem eine globale Energie minimal ist, die zumindest die Kosten der Unähnlichkeit umfasst. Das Bild wird zur Bestimmung der Korrespondenz in Bildausschnitte der Größe (n + 1) × (n + 1) unterteilt, wobei die in jedem der eindimensionalen Pfade akkumulierten Kosten für jede n-te Zeile und jede n-te Spalte gespeichert werden, wobei jeweils einer der Bildausschnitte geladen wird. Die für einen Rand des Bildausschnitts gespeicherten akkumulierten Kosten werden geladen, wobei die in jedem der eindimensionalen Pfade akkumulierten Kosten für ein Inneres des Bildausschnitts neu berechnet werden. - Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs anzugeben.
- Die Aufgabe wird erfindungsgemäß durch ein Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
- Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
- Bei dem Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs werden mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet.
- Erfindungsgemäß wird ein Gesamtbild der Umgebung des Fahrzeugs anhand einer Anzeigeeinheit optisch ausgegeben und Bildbereiche werden auf dem Gesamtbild in Abhängigkeit mindestens eines Bildbereichsabstands mindestens einer Bildbereichsgrenze zu dem Fahrzeug in zumindest zwei unterschiedlichen Farbtönen dargestellt.
- Das erfindungsgemäße Verfahren bietet einem Fahrer des Fahrzeugs eine Unterstützungsfunktion bei der Einschätzung des Abstands zu entgegenkommenden Fahrzeugen, so dass der Fahrer in einfacher und schneller Weise entscheiden kann, ob er ein vor ihm befindliches Fahrzeug mit ausreichendem Sicherabstand zu dem entgegenkommenden Fahrzeug überholen kann. Gleichzeitig ist es dem Fahrer allein freigestellt, ob er den Überholvorgang ausführen möchte. Somit bleibt der Entscheidungsspielraum beim Fahrer des Fahrzeugs. Aufgrund der Möglichkeit des schnellen Erkennens des Abstands zu dem entgegenkommenden Fahrzeug und der Färbung der Bildbereiche, welche insbesondere in Abhängigkeit von einer Eigengeschwindigkeit des Fahrzeugs und einer Geschwindigkeit des entgegenkommenden Fahrzeugs erfolgt, wird die Sicherheit der Fahrzeuginsassen und anderer Verkehrsteilnehmer im Straßenverkehr erhöht. Darüber hinaus wird der Fahrzeugführer vor sicherheitskritischen Fahrsituationen gewarnt und beim Führen des Fahrzeugs entlastet.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
- Dabei zeigt:
-
1 schematisch ein Gesamtbild einer Umgebung eines Fahrzeugs. - In der einzigen
1 ist ein Gesamtbild G einer Umgebung eines Fahrzeugs dargestellt, wobei das Gesamtbild G insbesondere mittels einer im Frontbereich des Fahrzeugs angeordneten Kamera erfasst und im Innenraum des Fahrzeugs anhand einer Anzeigeeinheit1 optisch ausgegeben wird. Die Anzeigeeinheit1 ist dabei im Blickfeld eines Fahrers des Fahrzeugs angeordnet und Bestandteil eines oder mehrerer nicht näher dargestellter Fahrerassistenzsysteme. Bei den Fahrerassistenzsystemen handelt es sich insbesondere um ein so genanntes Überholassistenzsystem, eine Einparkhilfe und/oder ein Verkehrszeichenerkennungssystem. - Das Gesamtbild G ist in einen ersten Bildbereich B1 und einen zweiten Bildbereich B2 unterteilt. Die Bildbereiche B1, B2 sind anhand einer Grenzlinie GL voneinander getrennt, wobei die Grenzlinie GL in einem Abstand zu dem Fahrzeug angeordnet wird, welcher einem Abstandsgrenzwert AG entspricht. Die Grenzlinie GL wird dabei im dargestellten Ausführungsbeispiel von einer oberen Bildbereichsgrenze des zweiten Bildbereichs B2 und einer unteren Bildbereichsgrenze des ersten Bildbereichs B1 gebildet. Das heißt, die Bildbereiche B1, B2 werden auf dem Gesamtbild G in Abhängigkeit eines Bildbereichsabstands, d. h. einer Entfernung zu dem Fahrzeug, in zumindest zwei unterschiedlichen Farbtönen dargestellt.
- Zur Erzeugung der Unterteilung des Gesamtbilds G in die zwei Bereiche B1, B2 werden jeweilige Objektabstände d1 bis d9 von Objekten O1 bis O9 in der Umgebung zu dem Fahrzeug ermittelt. Bei den Objekten O1 bis O9 handelt es sich beispielsweise um Fußgänger, Radfahrer, Fahrzeuge, Tiere, ortsfeste Objekte, wie beispielsweise Randbebauungen und Pflanzen, sowie andere Verkehrsteilnehmer.
- Zur Ermittlung dieser Objektabstände d1 bis d9 sind an dem Fahrzeug in nicht dargestellter Weise zumindest zwei Kameras angeordnet, welche die vor und/oder seitlich neben dem Fahrzeug befindliche Umgebung erfassen. Die Kameras sind dabei insbesondere in einem Abstand, der so genannten Basisbreite, zueinander angeordnet, welcher größer als ein Meter ist. Mittels der Kameras erfasste Bilder der Umgebung des Fahrzeugs werden in bekannter Weise mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet, aus welchen die Objektabstände d1 bis d9 zu den Objekten O1 bis O9 ermittelt werden.
- Dabei wird aus einem Abstand korrespondierender Bildpunkte der Bilder zueinander, der so genannten Disparität, und dem bekannten Abstand der Kameras, d. h. der Basisbreite, der Objektabstand d1 bis d9 eines Objekts O1 bis O9, welches die Bildpunkte aufweist, zu den Kameras bestimmt. Nach diesem Algorithmus werden Disparitäten für alle Bildpunkte der Bilder ermittelt und die Disparitätskarte und/oder Tiefenkarte erzeugt. Die Disparitätskarte und/oder Tiefenkarte stellen mittels Disparitätsbildpunkten und/oder Tiefenbildpunkten eine dreidimensionale Repräsentation aller erfassten Objekte O1 bis O9 in ihrem Kontext dar. Auf diese Weise ist die Entfernung und räumliche Lage der erfassten Objekte O1 bis O9 im Verhältnis zu den Kameras ermittelbar.
- Die Erzeugung der Disparitätskarte und/oder Tiefenkarte erfolgt beispielsweise anhand eines so genannten, aus ”H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814” bekannten Semi-Global-Matching-Algorithmus, wobei die mittels der Kamera erfassten Bilder abgetastet und Kosten entsprechend der Ähnlichkeit der Bildpunkte horizontal, vertikal und diagonal akkumuliert werden. Die Kostenberechnung basiert dabei auf einer Berechnung der auf die einzelnen Bildpunkte der Bilder bezogenen Transinformation. Dabei werden insbesondere aus Gründen der Rechenzeiteffizienz und einer Robustheit gegen Dekalibrierungen der Kameras nicht-lineare Bewertungsfunktionen, bevorzugt ein so genannter Census-Operator, verwendet. Dieser Census-Operator zeichnet sich unter anderem durch eine hohe Robustheit gegenüber Kalibrier-, Rektifizier- und Belichtungsfehlern sowie seine Effizienz bei der Implementierung in Stereo-Systeme aus.
- Zur Unterteilung des Gesamtbilds G in die Bildbereiche B1, B2 ist weiterhin der Abstandsgrenzwert AG vorgegeben.
- Dabei sind alle Objekte O1 bis O9, deren Objektabstände d1 bis d9 größer als der Abstandsgrenzwert AG sind, dem ersten Bildbereich B1 und alle Objekte O1 bis O9, deren Objektabstände d1 bis d9 kleiner als der Abstandsgrenzwert AG sind, dem zweiten Bildbereich B2 zugeordnet.
- Die ermittelten Objektabstände d1 und d2 der Objekte O1 bis O2, bei welchen es sich um ein dem Fahrzeug auf einer Gegenfahrbahn entgegenkommendes Fahrzeug und um einen Baum handelt, sind größer als der Abstandsgrenzwert AG, so dass sich diese im ersten Bildbereich B1 hinter der Grenzlinie GL befinden.
- Die ermittelten Objektabstände d3 bis d9 der Objekte O3 bis O9 sind kleiner als der Abstandsgrenzwert AG, so dass sich diese im zweiten Bildbereich B1 vor der Grenzlinie GL befinden.
- Bei dem Objekt O3 handelt es sich um ein auf der Gegenfahrbahn dem Fahrzeug entgegenkommendes Fahrzeug und das Objekt O4 ist ein in gleicher Richtung fahrendes Fahrzeug. Die Objekte O5 bis O9 sind ortsfeste Objekte, im dargestellten Ausführungsbeispiel Bäume. Bei dem Objekt O9 handelt es sich um ein in gleicher Richtung fahrendes Fahrzeug, welches sich aufgrund eines Überholvorgangs neben dem Fahrzeug befindet.
- Zur Realisierung des als Überholassistenzsystem ausgebildeten Fahrerassistenzsystems werden die Bildbereiche B1, B2 erfindungsgemäß in unterschiedlichen Farbtönen dargestellt, so dass der Fahrer des Fahrzeugs durch einen kurzen Blick auf die Anzeigeeinheit
1 erkennt, ob ein Objektabstand d1, d3 zu einem entgegenkommenden Fahrzeug, wie dem Objekt O1 oder O3, ausreichend ist, um einen Überholvorgang des eines oder mehrerer Fahrzeuge, wie den Objekten O4, O9 sicher durchzuführen und abzuschließen. - Vorzugsweise ist dem ersten Bildbereich B1 ein erster Farbton, insbesondere der Farbton Grün, und dem zweiten Bildbereich B2, in welchem sich die Objekte O3 bis O9 in einem geringeren Abstand zu dem Fahrzeug befinden, ein zweiter Farbton, insbesondere der Farbton Rot, zugeordnet. Daraus folgend ist für den Fahrer des Fahrzeugs in einfacher und schneller Weise ersichtlich, ob eines der Objekte O1 bis O9 eine Gefahr für ihn darstellt.
- Im dargestellten Ausführungsbeispiel befindet sich das entgegenkommende Fahrzeug (= Objekt O3) im zweiten Bildbereich B2 und ist somit auf der Anzeigeeinheit
1 mit dem Farbton Rot dargestellt. Dies zeigt dem Fahrer, dass dieser seinen aktuellen Überholvorgang des Objekts O9 abbrechen und hinter dem Objekt O4 einscheren sollte, so dass eine Kollision mit dem entgegenkommenden Fahrzeug (= Objekt O3) oder andere gefährliche Situationen vermieden werden. - Um festzulegen, welche der Objekte O1 bis O9 sich im ersten Bildbereich B1 oder zweiten Bildbereich B2 befinden, wird der Abstandsgrenzwert AG, beispielsweise mit einem Betrag von 400 m, fest vorgegeben und es wird von einer fest vorgegebenen eigenen Beschleunigung des Fahrzeugs und einer konstanten, fest vorgegebenen Geschwindigkeit des entgegenkommenden Fahrzeugs (= Objekt O3), beispielsweise 120 km/h, ausgegangen.
- In einer besonders vorteilhaften Ausgestaltung der Erfindung werden der Abstandsgrenzwert AG und somit die Grenzlinie GL in Abhängigkeit von einer Eigengeschwindigkeit und/oder einer Eigenbeschleunigung des Fahrzeugs und/oder einer realen, erfassten Geschwindigkeit des entgegenkommenden Fahrzeugs (= Objekt O3) vorgegeben. Das heißt, der Abstandsgrenzwert AG ist je nach einer aktuellen Verkehrssituation flexibel vorgebbar.
- Zur Ermittlung der Eigengeschwindigkeit wird insbesondere ein Signal des Geschwindigkeitsmessers des Fahrzeugs und zur Ermittlung der Beschleunigung ein Signal eines Beschleunigungssensors, welcher beispielsweise Bestandteil eines Elektronischen Stabilitätsprogramms ist, verwendet. Zur Ermittlung der Geschwindigkeit des entgegenkommenden Fahrzeugs (= Objekt O3) sind vorzugsweise Radarsensoren vorgesehen, welche z. B. Bestandteil eines so genannten Abstandsradars sind.
- Bei einer Fahrt eines Fahrzeugs hinter einem als Lastkraftwagen, Omnibus, Landmaschine oder als anderes Fahrzeug mit großen Abmessungen ausgebildeten Fahrzeug ist eine Erfassung der vor dem eigenen Fahrzeug befindlichen Umgebung mittels der Kameras sehr schwierig oder nicht möglich. Um dem Fahrer des Fahrzeugs dennoch das Gesamtbild G mit den farblich markierten Bereichen B1, B2 auszugeben, weist das Fahrzeug eine nicht dargestellte Übertragungseinheit auf, anhand welcher das Gesamtbild G mit den farblich markierten Bereichen B1 und B2 von vor dem eigenen Fahrzeug befindlichen weiteren Fahrzeugen, wie z. B. den Lastkraftwagen, Omnibussen oder Landmaschinen, empfangen werden oder an hinter dem Fahrzeug befindliche Fahrzeuge übermittelt werden. Bei der Übertragungseinheit handelt es sich beispielsweise um eine Funk-Übertragungseinheit.
-
- 1
- Anzeigeeinheit
- AG
- Abstandsgrenzwert
- B1
- Erster Bildbereich
- B2
- Zweiter Bildbereich
- d1 bis d9
- Objektabstand
- G
- Gesamtbild
- GL
- Grenzlinie
- O1 bis O9
- Objekt
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - DE 102008017834 A1 [0002]
- Zitierte Nicht-Patentliteratur
-
- - H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814 [0017]
Claims (8)
- Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs, wobei mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst werden und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet werden, dadurch gekennzeichnet, dass ein Gesamtbild (G) der Umgebung des Fahrzeugs anhand einer Anzeigeeinheit (
1 ) optisch ausgegeben wird und Bildbereiche (B1, B2) auf dem Gesamtbild (G) in Abhängigkeit mindestens eines Bildbereichsabstands mindestens einer Bildbereichsgrenze zu dem Fahrzeug in zumindest zwei unterschiedlichen Farbtönen dargestellt werden. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus der Disparitätskarte und/oder Tiefenkarte Objektabstände (d1 bis d9) von Objekten (O1 bis O9) in der Umgebung des Fahrzeugs zu dem Fahrzeug ermittelt werden, wobei die Objekte (O1 bis O9) in Abhängigkeit der Objektabstände (d1 bis d9) den Bildbereichen (B1, B2) zugeordnet werden.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zumindest ein Abstandsgrenzwert (AG) vorgegeben ist, wobei ein erster Bildbereich (B1) des Gesamtbilds (G), dessen Bildbereichsabstand größer als der Abstandgrenzwert (AG) ist, in einem ersten Farbton dargestellt wird und ein zweiter Bildbereich (B2) des Gesamtbilds (G), dessen Bildbereichsabstand kleiner als der Abstandgrenzwert (AG) ist, in einem zweiten Farbton dargestellt wird.
- Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der erste Farbton Grün und der zweite Farbton Rot ist.
- Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass der Abstandsgrenzwert (AG) fest vorgegeben wird.
- Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass der Abstandsgrenzwert (AG) in Abhängigkeit von einer Eigengeschwindigkeit des Fahrzeugs und/oder einer Geschwindigkeit von entgegenkommenden Objekten (O1, O3) vorgegebenen wird.
- Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Geschwindigkeit der entgegenkommenden Objekte (O1, O3) fest vorgegeben oder mittels zumindest eines Sensors ermittelt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Gesamtbild (G) mit den farblich markierten Bereichen mittels einer Übertragungseinheit an weitere Fahrzeuge übermittelt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009052868A DE102009052868A1 (de) | 2009-11-13 | 2009-11-13 | Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009052868A DE102009052868A1 (de) | 2009-11-13 | 2009-11-13 | Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102009052868A1 true DE102009052868A1 (de) | 2010-06-17 |
Family
ID=42168929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009052868A Withdrawn DE102009052868A1 (de) | 2009-11-13 | 2009-11-13 | Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102009052868A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010063403A1 (de) * | 2010-12-17 | 2012-06-21 | Bayerische Motoren Werke Aktiengesellschaft | Stereokamerasystem für ein Fahrerassistenzsystem in einem Kraftfahrzeug |
CN103171489A (zh) * | 2011-12-20 | 2013-06-26 | 奥迪股份公司 | 用于驱控机动车的指示装置的方法 |
EP2448244A4 (de) * | 2010-07-07 | 2013-08-14 | Panasonic Corp | Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und entsprechendes programm |
CN105313782A (zh) * | 2014-07-28 | 2016-02-10 | 现代摩比斯株式会社 | 车辆行驶辅助系统及其方法 |
CN108725318A (zh) * | 2018-07-28 | 2018-11-02 | 惠州华阳通用电子有限公司 | 汽车安全预警方法、装置及计算机可读存储介质 |
CN110796099A (zh) * | 2019-10-31 | 2020-02-14 | 广东泓胜科技股份有限公司 | 一种车辆超限检测方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008017834A1 (de) | 2008-04-08 | 2008-10-30 | Daimler Ag | Verfahren zur Bildverarbeitung von Stereobildern |
-
2009
- 2009-11-13 DE DE102009052868A patent/DE102009052868A1/de not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008017834A1 (de) | 2008-04-08 | 2008-10-30 | Daimler Ag | Verfahren zur Bildverarbeitung von Stereobildern |
Non-Patent Citations (1)
Title |
---|
H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) - Volume 2, pp. 807-814 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2448244A4 (de) * | 2010-07-07 | 2013-08-14 | Panasonic Corp | Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und entsprechendes programm |
DE102010063403A1 (de) * | 2010-12-17 | 2012-06-21 | Bayerische Motoren Werke Aktiengesellschaft | Stereokamerasystem für ein Fahrerassistenzsystem in einem Kraftfahrzeug |
CN103171489A (zh) * | 2011-12-20 | 2013-06-26 | 奥迪股份公司 | 用于驱控机动车的指示装置的方法 |
EP2607171A3 (de) * | 2011-12-20 | 2013-11-13 | Audi Ag | Verfahren zur Ansteuerung einer Anzeigeeinrichtung eines Kraftfahrzeugs, und Kraftfahrzeug mit einer so angesteuerten Anzeigeeinrichtung |
US9221384B2 (en) | 2011-12-20 | 2015-12-29 | Audi Ag | Method for controlling a display device of a motor vehicle |
CN103171489B (zh) * | 2011-12-20 | 2016-05-25 | 奥迪股份公司 | 用于驱控机动车的指示装置的方法 |
CN105313782A (zh) * | 2014-07-28 | 2016-02-10 | 现代摩比斯株式会社 | 车辆行驶辅助系统及其方法 |
CN105313782B (zh) * | 2014-07-28 | 2018-01-23 | 现代摩比斯株式会社 | 车辆行驶辅助系统及其方法 |
US9940527B2 (en) | 2014-07-28 | 2018-04-10 | Hyundai Mobis Co., Ltd. | Driving assist system for vehicle and method thereof |
CN108725318A (zh) * | 2018-07-28 | 2018-11-02 | 惠州华阳通用电子有限公司 | 汽车安全预警方法、装置及计算机可读存储介质 |
CN108725318B (zh) * | 2018-07-28 | 2020-11-24 | 惠州华阳通用电子有限公司 | 汽车安全预警方法、装置及计算机可读存储介质 |
CN110796099A (zh) * | 2019-10-31 | 2020-02-14 | 广东泓胜科技股份有限公司 | 一种车辆超限检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013209415B4 (de) | Dynamische Hinweisüberlagerung mit Bildbeschneidung | |
EP3053133B1 (de) | Verfahren und vorrichtung zur anzeige der umgebung eines fahrzeugs und fahrerassistenzsystem | |
EP2289044B1 (de) | Bilddatenvisualisierung | |
DE102017100198A1 (de) | Fixierungserzeugung für maschinenlernen | |
DE112018007485T5 (de) | Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens | |
DE102011111440A1 (de) | Verfahren zur Umgebungsrepräsentation | |
EP3044727B1 (de) | Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten | |
DE102013226476B4 (de) | Bildverarbeitungsverfahren und -system eines rundumsicht-überwachungssystems | |
DE102015115012A1 (de) | Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE112017001410T5 (de) | Informationsverarbeitungsvorrichtung | |
WO2010025792A1 (de) | Verfahren und vorrichtung zur überwachung einer umgebung eines fahrzeuges | |
DE102018212655A1 (de) | Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern | |
DE102009052868A1 (de) | Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs | |
DE102012000459A1 (de) | Verfahren zur Objektdetektion | |
DE102009022278A1 (de) | Verfahren zur Ermittlung eines hindernisfreien Raums | |
DE102012023060A1 (de) | Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug | |
DE102015000794A1 (de) | Verfahren zum Anzeigen einer Umgebung eines Fahrzeugs und Rundumsicht-Anzeigevorrichtung für ein Fahrzeug | |
DE102020004215A1 (de) | Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug | |
DE102019211459B4 (de) | Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren | |
DE102016107421A1 (de) | Verfahren zur Anzeige von mit einer Erfassungseinrichtung nicht erfassbaren Umgebungsbereichen in der Umgebung eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug | |
DE102019209473A1 (de) | Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene | |
DE102018114912A1 (de) | Verfahren zum Klassifizieren einer Farbe einer Fahrbahnmarkierung mittels eines statistischen Fahrbahnmarkierungsbestimmungsmodells, elektronische Recheneinrichtung sowie Fahrerassistenzsystem | |
DE102018202753A1 (de) | Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt | |
DE102014214711A1 (de) | Verfahren zum Betrieb eines Assistenzsystems eines Kraftfahrzeugs sowie Assistenzsystem | |
EP2136333A2 (de) | Bilddatenverarbeitungsverfahren |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OAV | Publication of unexamined application with consent of applicant | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |