DE102009052868A1 - Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs - Google Patents

Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs Download PDF

Info

Publication number
DE102009052868A1
DE102009052868A1 DE102009052868A DE102009052868A DE102009052868A1 DE 102009052868 A1 DE102009052868 A1 DE 102009052868A1 DE 102009052868 A DE102009052868 A DE 102009052868A DE 102009052868 A DE102009052868 A DE 102009052868A DE 102009052868 A1 DE102009052868 A1 DE 102009052868A1
Authority
DE
Germany
Prior art keywords
vehicle
image
image area
distance
overall
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009052868A
Other languages
English (en)
Inventor
Stefan Dipl.-Ing. Hahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102009052868A priority Critical patent/DE102009052868A1/de
Publication of DE102009052868A1 publication Critical patent/DE102009052868A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs, wobei mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst werden und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet werden. Erfindungsgemäß wird ein Gesamtbild (G) der Umgebung des Fahrzeugs anhand einer Anzeigeeinheit (1) optisch ausgegeben und Bildbereiche (B1, B2) werden auf dem Gesamtbild (G) in Abhängigkeit mindestens eines Bildbereichsabstands mindestens einer Bildbereichsgrenze zu dem Fahrzeug in zumindest zwei unterschiedlichen Farbtönen dargestellt.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs, wobei mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst werden und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet werden.
  • Aus der DE 10 2008 017 834 A1 ist ein Verfahren zur Bestimmung von Korrespondenzen von Bildpunkten in mindestens zwei stereoskopisch aufgenommenen Bildern bekannt, bei dem für jedes Pixel (= Bildpunkt) eines der Bilder eine Berechnung der Kosten einer Unähnlichkeit anhand von Intensitäten des Pixels und eines als potentiell korrespondierend betrachteten Pixels des anderen Bildes durchgeführt wird. Entlang einer Anzahl von eindimensionalen Pfaden, die im Pixel münden, erfolgt eine Akkumulierung der Kosten, wobei aus den als potentiell korrespondierend betrachteten Pixeln des anderen Bildes dasjenige zur Erstellung einer Disparitätskarte ausgewählt wird, bei dem eine globale Energie minimal ist, die zumindest die Kosten der Unähnlichkeit umfasst. Das Bild wird zur Bestimmung der Korrespondenz in Bildausschnitte der Größe (n + 1) × (n + 1) unterteilt, wobei die in jedem der eindimensionalen Pfade akkumulierten Kosten für jede n-te Zeile und jede n-te Spalte gespeichert werden, wobei jeweils einer der Bildausschnitte geladen wird. Die für einen Rand des Bildausschnitts gespeicherten akkumulierten Kosten werden geladen, wobei die in jedem der eindimensionalen Pfade akkumulierten Kosten für ein Inneres des Bildausschnitts neu berechnet werden.
  • Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs anzugeben.
  • Die Aufgabe wird erfindungsgemäß durch ein Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Bei dem Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs werden mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet.
  • Erfindungsgemäß wird ein Gesamtbild der Umgebung des Fahrzeugs anhand einer Anzeigeeinheit optisch ausgegeben und Bildbereiche werden auf dem Gesamtbild in Abhängigkeit mindestens eines Bildbereichsabstands mindestens einer Bildbereichsgrenze zu dem Fahrzeug in zumindest zwei unterschiedlichen Farbtönen dargestellt.
  • Das erfindungsgemäße Verfahren bietet einem Fahrer des Fahrzeugs eine Unterstützungsfunktion bei der Einschätzung des Abstands zu entgegenkommenden Fahrzeugen, so dass der Fahrer in einfacher und schneller Weise entscheiden kann, ob er ein vor ihm befindliches Fahrzeug mit ausreichendem Sicherabstand zu dem entgegenkommenden Fahrzeug überholen kann. Gleichzeitig ist es dem Fahrer allein freigestellt, ob er den Überholvorgang ausführen möchte. Somit bleibt der Entscheidungsspielraum beim Fahrer des Fahrzeugs. Aufgrund der Möglichkeit des schnellen Erkennens des Abstands zu dem entgegenkommenden Fahrzeug und der Färbung der Bildbereiche, welche insbesondere in Abhängigkeit von einer Eigengeschwindigkeit des Fahrzeugs und einer Geschwindigkeit des entgegenkommenden Fahrzeugs erfolgt, wird die Sicherheit der Fahrzeuginsassen und anderer Verkehrsteilnehmer im Straßenverkehr erhöht. Darüber hinaus wird der Fahrzeugführer vor sicherheitskritischen Fahrsituationen gewarnt und beim Führen des Fahrzeugs entlastet.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
  • Dabei zeigt:
  • 1 schematisch ein Gesamtbild einer Umgebung eines Fahrzeugs.
  • In der einzigen 1 ist ein Gesamtbild G einer Umgebung eines Fahrzeugs dargestellt, wobei das Gesamtbild G insbesondere mittels einer im Frontbereich des Fahrzeugs angeordneten Kamera erfasst und im Innenraum des Fahrzeugs anhand einer Anzeigeeinheit 1 optisch ausgegeben wird. Die Anzeigeeinheit 1 ist dabei im Blickfeld eines Fahrers des Fahrzeugs angeordnet und Bestandteil eines oder mehrerer nicht näher dargestellter Fahrerassistenzsysteme. Bei den Fahrerassistenzsystemen handelt es sich insbesondere um ein so genanntes Überholassistenzsystem, eine Einparkhilfe und/oder ein Verkehrszeichenerkennungssystem.
  • Das Gesamtbild G ist in einen ersten Bildbereich B1 und einen zweiten Bildbereich B2 unterteilt. Die Bildbereiche B1, B2 sind anhand einer Grenzlinie GL voneinander getrennt, wobei die Grenzlinie GL in einem Abstand zu dem Fahrzeug angeordnet wird, welcher einem Abstandsgrenzwert AG entspricht. Die Grenzlinie GL wird dabei im dargestellten Ausführungsbeispiel von einer oberen Bildbereichsgrenze des zweiten Bildbereichs B2 und einer unteren Bildbereichsgrenze des ersten Bildbereichs B1 gebildet. Das heißt, die Bildbereiche B1, B2 werden auf dem Gesamtbild G in Abhängigkeit eines Bildbereichsabstands, d. h. einer Entfernung zu dem Fahrzeug, in zumindest zwei unterschiedlichen Farbtönen dargestellt.
  • Zur Erzeugung der Unterteilung des Gesamtbilds G in die zwei Bereiche B1, B2 werden jeweilige Objektabstände d1 bis d9 von Objekten O1 bis O9 in der Umgebung zu dem Fahrzeug ermittelt. Bei den Objekten O1 bis O9 handelt es sich beispielsweise um Fußgänger, Radfahrer, Fahrzeuge, Tiere, ortsfeste Objekte, wie beispielsweise Randbebauungen und Pflanzen, sowie andere Verkehrsteilnehmer.
  • Zur Ermittlung dieser Objektabstände d1 bis d9 sind an dem Fahrzeug in nicht dargestellter Weise zumindest zwei Kameras angeordnet, welche die vor und/oder seitlich neben dem Fahrzeug befindliche Umgebung erfassen. Die Kameras sind dabei insbesondere in einem Abstand, der so genannten Basisbreite, zueinander angeordnet, welcher größer als ein Meter ist. Mittels der Kameras erfasste Bilder der Umgebung des Fahrzeugs werden in bekannter Weise mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet, aus welchen die Objektabstände d1 bis d9 zu den Objekten O1 bis O9 ermittelt werden.
  • Dabei wird aus einem Abstand korrespondierender Bildpunkte der Bilder zueinander, der so genannten Disparität, und dem bekannten Abstand der Kameras, d. h. der Basisbreite, der Objektabstand d1 bis d9 eines Objekts O1 bis O9, welches die Bildpunkte aufweist, zu den Kameras bestimmt. Nach diesem Algorithmus werden Disparitäten für alle Bildpunkte der Bilder ermittelt und die Disparitätskarte und/oder Tiefenkarte erzeugt. Die Disparitätskarte und/oder Tiefenkarte stellen mittels Disparitätsbildpunkten und/oder Tiefenbildpunkten eine dreidimensionale Repräsentation aller erfassten Objekte O1 bis O9 in ihrem Kontext dar. Auf diese Weise ist die Entfernung und räumliche Lage der erfassten Objekte O1 bis O9 im Verhältnis zu den Kameras ermittelbar.
  • Die Erzeugung der Disparitätskarte und/oder Tiefenkarte erfolgt beispielsweise anhand eines so genannten, aus ”H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814” bekannten Semi-Global-Matching-Algorithmus, wobei die mittels der Kamera erfassten Bilder abgetastet und Kosten entsprechend der Ähnlichkeit der Bildpunkte horizontal, vertikal und diagonal akkumuliert werden. Die Kostenberechnung basiert dabei auf einer Berechnung der auf die einzelnen Bildpunkte der Bilder bezogenen Transinformation. Dabei werden insbesondere aus Gründen der Rechenzeiteffizienz und einer Robustheit gegen Dekalibrierungen der Kameras nicht-lineare Bewertungsfunktionen, bevorzugt ein so genannter Census-Operator, verwendet. Dieser Census-Operator zeichnet sich unter anderem durch eine hohe Robustheit gegenüber Kalibrier-, Rektifizier- und Belichtungsfehlern sowie seine Effizienz bei der Implementierung in Stereo-Systeme aus.
  • Zur Unterteilung des Gesamtbilds G in die Bildbereiche B1, B2 ist weiterhin der Abstandsgrenzwert AG vorgegeben.
  • Dabei sind alle Objekte O1 bis O9, deren Objektabstände d1 bis d9 größer als der Abstandsgrenzwert AG sind, dem ersten Bildbereich B1 und alle Objekte O1 bis O9, deren Objektabstände d1 bis d9 kleiner als der Abstandsgrenzwert AG sind, dem zweiten Bildbereich B2 zugeordnet.
  • Die ermittelten Objektabstände d1 und d2 der Objekte O1 bis O2, bei welchen es sich um ein dem Fahrzeug auf einer Gegenfahrbahn entgegenkommendes Fahrzeug und um einen Baum handelt, sind größer als der Abstandsgrenzwert AG, so dass sich diese im ersten Bildbereich B1 hinter der Grenzlinie GL befinden.
  • Die ermittelten Objektabstände d3 bis d9 der Objekte O3 bis O9 sind kleiner als der Abstandsgrenzwert AG, so dass sich diese im zweiten Bildbereich B1 vor der Grenzlinie GL befinden.
  • Bei dem Objekt O3 handelt es sich um ein auf der Gegenfahrbahn dem Fahrzeug entgegenkommendes Fahrzeug und das Objekt O4 ist ein in gleicher Richtung fahrendes Fahrzeug. Die Objekte O5 bis O9 sind ortsfeste Objekte, im dargestellten Ausführungsbeispiel Bäume. Bei dem Objekt O9 handelt es sich um ein in gleicher Richtung fahrendes Fahrzeug, welches sich aufgrund eines Überholvorgangs neben dem Fahrzeug befindet.
  • Zur Realisierung des als Überholassistenzsystem ausgebildeten Fahrerassistenzsystems werden die Bildbereiche B1, B2 erfindungsgemäß in unterschiedlichen Farbtönen dargestellt, so dass der Fahrer des Fahrzeugs durch einen kurzen Blick auf die Anzeigeeinheit 1 erkennt, ob ein Objektabstand d1, d3 zu einem entgegenkommenden Fahrzeug, wie dem Objekt O1 oder O3, ausreichend ist, um einen Überholvorgang des eines oder mehrerer Fahrzeuge, wie den Objekten O4, O9 sicher durchzuführen und abzuschließen.
  • Vorzugsweise ist dem ersten Bildbereich B1 ein erster Farbton, insbesondere der Farbton Grün, und dem zweiten Bildbereich B2, in welchem sich die Objekte O3 bis O9 in einem geringeren Abstand zu dem Fahrzeug befinden, ein zweiter Farbton, insbesondere der Farbton Rot, zugeordnet. Daraus folgend ist für den Fahrer des Fahrzeugs in einfacher und schneller Weise ersichtlich, ob eines der Objekte O1 bis O9 eine Gefahr für ihn darstellt.
  • Im dargestellten Ausführungsbeispiel befindet sich das entgegenkommende Fahrzeug (= Objekt O3) im zweiten Bildbereich B2 und ist somit auf der Anzeigeeinheit 1 mit dem Farbton Rot dargestellt. Dies zeigt dem Fahrer, dass dieser seinen aktuellen Überholvorgang des Objekts O9 abbrechen und hinter dem Objekt O4 einscheren sollte, so dass eine Kollision mit dem entgegenkommenden Fahrzeug (= Objekt O3) oder andere gefährliche Situationen vermieden werden.
  • Um festzulegen, welche der Objekte O1 bis O9 sich im ersten Bildbereich B1 oder zweiten Bildbereich B2 befinden, wird der Abstandsgrenzwert AG, beispielsweise mit einem Betrag von 400 m, fest vorgegeben und es wird von einer fest vorgegebenen eigenen Beschleunigung des Fahrzeugs und einer konstanten, fest vorgegebenen Geschwindigkeit des entgegenkommenden Fahrzeugs (= Objekt O3), beispielsweise 120 km/h, ausgegangen.
  • In einer besonders vorteilhaften Ausgestaltung der Erfindung werden der Abstandsgrenzwert AG und somit die Grenzlinie GL in Abhängigkeit von einer Eigengeschwindigkeit und/oder einer Eigenbeschleunigung des Fahrzeugs und/oder einer realen, erfassten Geschwindigkeit des entgegenkommenden Fahrzeugs (= Objekt O3) vorgegeben. Das heißt, der Abstandsgrenzwert AG ist je nach einer aktuellen Verkehrssituation flexibel vorgebbar.
  • Zur Ermittlung der Eigengeschwindigkeit wird insbesondere ein Signal des Geschwindigkeitsmessers des Fahrzeugs und zur Ermittlung der Beschleunigung ein Signal eines Beschleunigungssensors, welcher beispielsweise Bestandteil eines Elektronischen Stabilitätsprogramms ist, verwendet. Zur Ermittlung der Geschwindigkeit des entgegenkommenden Fahrzeugs (= Objekt O3) sind vorzugsweise Radarsensoren vorgesehen, welche z. B. Bestandteil eines so genannten Abstandsradars sind.
  • Bei einer Fahrt eines Fahrzeugs hinter einem als Lastkraftwagen, Omnibus, Landmaschine oder als anderes Fahrzeug mit großen Abmessungen ausgebildeten Fahrzeug ist eine Erfassung der vor dem eigenen Fahrzeug befindlichen Umgebung mittels der Kameras sehr schwierig oder nicht möglich. Um dem Fahrer des Fahrzeugs dennoch das Gesamtbild G mit den farblich markierten Bereichen B1, B2 auszugeben, weist das Fahrzeug eine nicht dargestellte Übertragungseinheit auf, anhand welcher das Gesamtbild G mit den farblich markierten Bereichen B1 und B2 von vor dem eigenen Fahrzeug befindlichen weiteren Fahrzeugen, wie z. B. den Lastkraftwagen, Omnibussen oder Landmaschinen, empfangen werden oder an hinter dem Fahrzeug befindliche Fahrzeuge übermittelt werden. Bei der Übertragungseinheit handelt es sich beispielsweise um eine Funk-Übertragungseinheit.
  • 1
    Anzeigeeinheit
    AG
    Abstandsgrenzwert
    B1
    Erster Bildbereich
    B2
    Zweiter Bildbereich
    d1 bis d9
    Objektabstand
    G
    Gesamtbild
    GL
    Grenzlinie
    O1 bis O9
    Objekt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 102008017834 A1 [0002]
  • Zitierte Nicht-Patentliteratur
    • - H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814 [0017]

Claims (8)

  1. Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs, wobei mittels zumindest zweier Kameras Bilder einer Umgebung des Fahrzeugs erfasst werden und mittels einer Bildverarbeitungseinheit stereoskopisch zu einer Disparitätskarte und/oder Tiefenkarte verarbeitet werden, dadurch gekennzeichnet, dass ein Gesamtbild (G) der Umgebung des Fahrzeugs anhand einer Anzeigeeinheit (1) optisch ausgegeben wird und Bildbereiche (B1, B2) auf dem Gesamtbild (G) in Abhängigkeit mindestens eines Bildbereichsabstands mindestens einer Bildbereichsgrenze zu dem Fahrzeug in zumindest zwei unterschiedlichen Farbtönen dargestellt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus der Disparitätskarte und/oder Tiefenkarte Objektabstände (d1 bis d9) von Objekten (O1 bis O9) in der Umgebung des Fahrzeugs zu dem Fahrzeug ermittelt werden, wobei die Objekte (O1 bis O9) in Abhängigkeit der Objektabstände (d1 bis d9) den Bildbereichen (B1, B2) zugeordnet werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zumindest ein Abstandsgrenzwert (AG) vorgegeben ist, wobei ein erster Bildbereich (B1) des Gesamtbilds (G), dessen Bildbereichsabstand größer als der Abstandgrenzwert (AG) ist, in einem ersten Farbton dargestellt wird und ein zweiter Bildbereich (B2) des Gesamtbilds (G), dessen Bildbereichsabstand kleiner als der Abstandgrenzwert (AG) ist, in einem zweiten Farbton dargestellt wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der erste Farbton Grün und der zweite Farbton Rot ist.
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass der Abstandsgrenzwert (AG) fest vorgegeben wird.
  6. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass der Abstandsgrenzwert (AG) in Abhängigkeit von einer Eigengeschwindigkeit des Fahrzeugs und/oder einer Geschwindigkeit von entgegenkommenden Objekten (O1, O3) vorgegebenen wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Geschwindigkeit der entgegenkommenden Objekte (O1, O3) fest vorgegeben oder mittels zumindest eines Sensors ermittelt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Gesamtbild (G) mit den farblich markierten Bereichen mittels einer Übertragungseinheit an weitere Fahrzeuge übermittelt wird.
DE102009052868A 2009-11-13 2009-11-13 Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs Withdrawn DE102009052868A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009052868A DE102009052868A1 (de) 2009-11-13 2009-11-13 Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009052868A DE102009052868A1 (de) 2009-11-13 2009-11-13 Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102009052868A1 true DE102009052868A1 (de) 2010-06-17

Family

ID=42168929

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009052868A Withdrawn DE102009052868A1 (de) 2009-11-13 2009-11-13 Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102009052868A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010063403A1 (de) * 2010-12-17 2012-06-21 Bayerische Motoren Werke Aktiengesellschaft Stereokamerasystem für ein Fahrerassistenzsystem in einem Kraftfahrzeug
CN103171489A (zh) * 2011-12-20 2013-06-26 奥迪股份公司 用于驱控机动车的指示装置的方法
CN105313782A (zh) * 2014-07-28 2016-02-10 现代摩比斯株式会社 车辆行驶辅助系统及其方法
CN108725318A (zh) * 2018-07-28 2018-11-02 惠州华阳通用电子有限公司 汽车安全预警方法、装置及计算机可读存储介质
CN110796099A (zh) * 2019-10-31 2020-02-14 广东泓胜科技股份有限公司 一种车辆超限检测方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008017834A1 (de) 2008-04-08 2008-10-30 Daimler Ag Verfahren zur Bildverarbeitung von Stereobildern

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008017834A1 (de) 2008-04-08 2008-10-30 Daimler Ag Verfahren zur Bildverarbeitung von Stereobildern

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) - Volume 2, pp. 807-814

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010063403A1 (de) * 2010-12-17 2012-06-21 Bayerische Motoren Werke Aktiengesellschaft Stereokamerasystem für ein Fahrerassistenzsystem in einem Kraftfahrzeug
CN103171489A (zh) * 2011-12-20 2013-06-26 奥迪股份公司 用于驱控机动车的指示装置的方法
EP2607171A3 (de) * 2011-12-20 2013-11-13 Audi Ag Verfahren zur Ansteuerung einer Anzeigeeinrichtung eines Kraftfahrzeugs, und Kraftfahrzeug mit einer so angesteuerten Anzeigeeinrichtung
US9221384B2 (en) 2011-12-20 2015-12-29 Audi Ag Method for controlling a display device of a motor vehicle
CN103171489B (zh) * 2011-12-20 2016-05-25 奥迪股份公司 用于驱控机动车的指示装置的方法
CN105313782A (zh) * 2014-07-28 2016-02-10 现代摩比斯株式会社 车辆行驶辅助系统及其方法
CN105313782B (zh) * 2014-07-28 2018-01-23 现代摩比斯株式会社 车辆行驶辅助系统及其方法
US9940527B2 (en) 2014-07-28 2018-04-10 Hyundai Mobis Co., Ltd. Driving assist system for vehicle and method thereof
CN108725318A (zh) * 2018-07-28 2018-11-02 惠州华阳通用电子有限公司 汽车安全预警方法、装置及计算机可读存储介质
CN108725318B (zh) * 2018-07-28 2020-11-24 惠州华阳通用电子有限公司 汽车安全预警方法、装置及计算机可读存储介质
CN110796099A (zh) * 2019-10-31 2020-02-14 广东泓胜科技股份有限公司 一种车辆超限检测方法及装置

Similar Documents

Publication Publication Date Title
DE102013209415B4 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
EP3053133B1 (de) Verfahren und vorrichtung zur anzeige der umgebung eines fahrzeugs und fahrerassistenzsystem
DE102017100198A1 (de) Fixierungserzeugung für maschinenlernen
EP2289044B1 (de) Bilddatenvisualisierung
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102013226476B4 (de) Bildverarbeitungsverfahren und -system eines rundumsicht-überwachungssystems
DE112017001410T5 (de) Informationsverarbeitungsvorrichtung
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102008046544A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102012000459A1 (de) Verfahren zur Objektdetektion
DE112016000689T5 (de) Kameraparametereinstellvorrichtung
DE102009052868A1 (de) Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs
DE102009022278A1 (de) Verfahren zur Ermittlung eines hindernisfreien Raums
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102020004215A1 (de) Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug
DE102016107421A1 (de) Verfahren zur Anzeige von mit einer Erfassungseinrichtung nicht erfassbaren Umgebungsbereichen in der Umgebung eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102019209473A1 (de) Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene
DE102018114912A1 (de) Verfahren zum Klassifizieren einer Farbe einer Fahrbahnmarkierung mittels eines statistischen Fahrbahnmarkierungsbestimmungsmodells, elektronische Recheneinrichtung sowie Fahrerassistenzsystem
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
DE112017007812T5 (de) Fahrzeugperipheriebildanzeigevorrichtung und Fahrzeugperipheriebildanzeigeverfahren
DE102009043705A1 (de) Verfahren und Kamerasystem zur Erzeugung von Bildern zur Übermittlung an eine externe Steuereinheit
DE102010042821A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee