DE10392601B4 - Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb - Google Patents

Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb Download PDF

Info

Publication number
DE10392601B4
DE10392601B4 DE10392601.1A DE10392601A DE10392601B4 DE 10392601 B4 DE10392601 B4 DE 10392601B4 DE 10392601 A DE10392601 A DE 10392601A DE 10392601 B4 DE10392601 B4 DE 10392601B4
Authority
DE
Germany
Prior art keywords
transport
operating
distance
objects
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10392601.1A
Other languages
English (en)
Other versions
DE10392601D2 (de
Inventor
Christian Lang
Rolf Adomat
Joachim Massen
Helmut Riedel
Thomas Fechner
Marcus Brunn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Application granted granted Critical
Publication of DE10392601B4 publication Critical patent/DE10392601B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T8/00Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
    • B60T8/17Using electrical or electronic regulation means to control braking
    • B60T8/1755Brake regulation specially adapted to control the stability of the vehicle, e.g. taking into account yaw rate or transverse acceleration in a curve
    • B60T8/17557Brake regulation specially adapted to control the stability of the vehicle, e.g. taking into account yaw rate or transverse acceleration in a curve specially adapted for lane departure prevention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R2021/01306Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over monitoring vehicle inclination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/085Lane monitoring; Lane Keeping Systems using several actuators; Coordination of the lane keeping system with other control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/089Lane monitoring; Lane Keeping Systems using optical detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/10Automatic or semi-automatic parking aid systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor

Abstract

Verkehrsmittel mit einer Umfelderfassungseinrichtung, dadurch gekennzeichnet, dass zumindest eine 3D-Entfernungsbildkamera vorgesehen ist, welche neben Grauwert- oder Farbbilddaten auch Entfernungsdaten zur Detektion von Objekten im Umfeld des Verkehrsmittels bereitstellt, wobei Pixel der 3D-Entfernungsbildkamera die Eigenschaft aufweisen, sowohl die Entfernungsinformation als auch die zum selben Pixel gehörende Grauwert- oder Farbinformation simultan oder nahezu simultan bereitstellen zu können, wobei die Umfelderfassungseinrichtung derart ausgebildet ist, dass bei einer Klassifikation von detektierten Objekten sowohl die aus 3D-Daten der 3D-Entfernungsbildkamera bestimmbare Position und Ausdehnung der Objekte als auch die zugehörigen Grauwert- oder Farbdaten der Objekte genutzt werden.

Description

  • Die vorliegende Erfindung betrifft ein Verkehrsmittel mit einer 3D-Entfernungsbildkamera und ein Verfahren zum Aufbau und Betreiben der 3D-Entfernungsbildkamera in Verkehrsmitteln, insbesondere Kraftfahrzeugen, beispielsweise zur Fahrregelung und für sicherheitsrelevante Reaktionen des Verkehrsmittels.
  • DE 101 17 650 A1 zeigt eine Vorrichtung zum Verbringen eines Fahrzeugs in eine Zielposition mittels einer im Fahrzeug angeordneten Umgebungserfassungseinrichtung. Die Umgebungserfassungseinrichtung kann als Laserscanner, mehrere zusammenwirkende Laser oder eine Stereobildverarbeitung und Entfernungsbildkameras ausgeführt sein.
  • DE 100 25 678 A1 zeigt ein kamerabasiertes PreCrash-Erkennungssystem mit einem üblichen Vorgehen zur Objektdetektion in Fahrzeugen. In einem Kamerabild, welches insbesondere reine zweidimensionale Bildinformationen ohne Entfernungsauflösung enthält, werden Verkehrsteilnehmer und Hindernisse detektiert. Anschließend werden die Regionen, in denen die Objekte detektiert werden, mittels eines entfernungsmessenden Sensors bezüglich ihrer Entfernung vom Beobachter vermessen. Alternativ kann aus einer Monobildkamera die Entfernung zu einem Objekt geschätzt werden kann. Dies ist jedoch erst in einem zweiten Verarbeitungsschritt möglich, erfordert eine komplexe Bildauswertung und den Einsatz leistungsfähiger Prozessoren, um den hohen Rechenaufwand in Echtzeit durchzuführen.
  • DE 100 22 454 A1 zeigt einen Bildaufnehmer zur dreidimensionalen Erfassung von Objekten und Szenen. Hierzu wird eine Detektoreinheit vorgeschlagen, die eine Vielzahl von photoempfindlichen Pixelelementen aufweist, um Signale zu erzeugen, die Informationen über einzelne Bildpunkte erhalten. Dazu können Photonic Mixer Devices (PMD-Sensoren) verwendet werden. Bekannt ist beispielsweise ein 1D-PMD-Laserradar mit einem PMD-Pixel, bei dem der Abstand eines Zielpunkts in einer 3D-Szene über eine Phasenauswertung einer elektromagnetischen Welle bzw. über die Phasenlaufzeit bestimmt wird.
  • Insbesondere ist das erfindungsgemäße Verfahren bzw. die erfindungsgemäße Vorrichtung geeignet zur Anwendung in Kraftfahrzeugen als Bremsassistent, Schadensreduzierungssystem, Closing Velocity-Sensorik, vorzugsweise als Aufprallerkennung im Frontbereich, der Seite und/oder am Heck, Unfallvermeidung, Fußgängerschutz, Stop-and-Go- bzw. Stauassistent, Einparkhilfe, beispielsweise Parklückenvermessung, Parkassistent und/oder autonomes Einparken. Weiterhin kann die Erfindung vorteilhaft eingesetzt werden zur Totwinkelüberwachung, als Spurverlassungswarnsystem, Spurwechselassistent, insbesondere mit Totwinkelüberwachung und/oder Spurlageerkennung, Spurhalteassistent, Überschlags- und/oder Nickwinkelerkennung. Ferner kann mit Vorteil ein Einsatz der Erfindung bei Night Vision, zur Straßenzustandserkennung, als Türstopper, zur Verkehrszeichenerkennung, als Lichtsensor, Wettersensor, Befahrbarkeitssensor und/oder zur Andockhilfe oder Rückfahrhilfe vorgesehen sein.
  • Bei den unterschiedlichen Einsatzmöglichkeiten der Erfindung müssen jeweils die nachfolgenden wesentlichen Anforderungen bzw. Zwecke zumindest teilweise erfüllt sein.
  • Beim Bremsassistent soll die Vorkonditionierung des Bremssystems bei Erkennung einer Gefahrensituation zur Reduzierung der Systemreaktionszeit erfolgen, z.B. durch Aufbau des Bremsdruckes im hydraulischen System und/oder Anlegen der Bremsbeläge.
  • Beim Schadensreduzierungssystem soll der Eingriff des Systems bei Erkennung einer nicht mehr abwendbaren Kollision erfolgen. Beispielsweise die Abbremsung des Fahrzeugs zur Reduzierung des Schadens und der Verletzungsgefahr und/oder die Aktivierung von Rückhaltesystemen. Des Weiteren kann der Beladungszustand des Fahrzeuges und die Fahrbahnbeschaffenheit für die Klassifizierung einer nicht mehr abwendbaren Kollision herangezogen werden, so dass sich der Reaktions- bzw. Eingriffszeitpunkt des Systems dynamisch anpasst.
  • Bei der Closing Velocity-Sensorik soll die Front-, Seiten- oder Heckaufprallerkennung, insbesondere die Messung der Annäherungsgeschwindigkeit und des Auftreffzeitpunktes eines Objektes zur Einleitung geeigneter Schutzmaßnahmen und/oder Anpassung von Crashparametern zur genaueren Klassifizierung des möglichen Unfallgeschehens und/oder Konditionierung der vorhandenen Sicherheitssysteme und/oder Betätigung der reversiblen Rückhaltesysteme erfolgen.
  • Bei Systemen zur Unfallvermeidung ist die Nutzung der 3D-Information der Umgebung gewollt, um durch Eingriffe in die Längs und Querregelung des Fahrzeugs Unfälle durch Abbremsen oder durch Ausweichmanöver möglichst zu vermeiden oder in ihren Auswirkungen zu reduzieren.
  • Beim Fußgängerschutz soll die Detektion drohender Kollisionen mit Fußgängern erfolgen, um Maßnahmen zur Vermeidung schwerwiegender Verletzungen zu treffen. Ferner vorzugsweise auch eine Detektion zum Schutz aller schwächeren Verkehrsteilnehmer erfolgen, wie z.B. Radfahrer oder Motorradfahrer.
  • Beim Einsatz als Stop-and-Go- bzw. Stauassistent soll ein PMD-basierender S&G-Stauassistent dazu dienen, den Fahrer speziell in einem Verkehrsstau zu entlasten. Er soll ferner einen möglichst automatischen Folgebetrieb im niedrigsten Geschwindigkeitsbereich ermöglichen.
  • Bei Nutzung der Erfindung als Einparkhilfe liegt der Zweck in der Parklückenvermessung, insbesondere der Vermessung der Länge, Breite und gegebenenfalls Höhe einer Parklücke und Meldung einer potentiellen Einparkmöglichkeit an den Fahrer. Beim Parkassistent erfolgt die Vermessung der Parklücke und der eigenen Relativposition, um dem Fahrer eine Empfehlung für einen optimalen Einparkvorgang zu geben. Beim autonomen Einparken erfolgt ein selbständiges Einparken des Fahrzeuges durch eine entsprechende Sensorik in Verbindung mit einer Längs- und Querregelung des Fahrzeuges.
  • Bei der Totwinkelüberwachung ist die Anzeige von Fahrzeugen im toten Winkel bei Erkennen einer Spurwechselabsicht erforderlich (ISO/TC204/WG14/PWI14.5 Side Obstacle).
  • Beim Spurverlassungswarnsystem wird ein System zum Erkennen eines unbeabsichtigten Verlassens der Fahrspur benötigt. Beispielsweise durch Vermessung der Ablage bzw. des Versatzes des Fahrzeuges zur Fahrspur und nachfolgender Warnung (akustisch, haptisch, kinestatisch) an den Fahrer gemäß Vorschriften (ISO/TC204/WG14/NP17361 - Lane Departure Warning System).
  • Als Einsatz als Spurwechselassistent soll die Totwinkelüberwachung und/oder Spurlageerkennung durch Überwachung des toten Winkels und des rückwärtigen Annäherungsbereiches zur Unterstützung des Fahrers beim Spurwechsel erfolgen. Die Spurwechselabsicht wird mit Hilfe der Spurlageerkennung ermittelt und/oder gegebenenfalls aus einer Blinkerbetätigung.
  • Beim Spurhalteassistent wird ein System zur aktiven Unterstützung des Fahrers bei der Spurhaltung mit moderatem Lenkeingriff benötigt.
  • Bei der Überschlagserkennung soll die Berechnung der Lage des Fahrzeugs aus der Topographie der Umgebung und damit Erkennung oder Prognostizierung eines Überschlages erfolgen.
  • Bei der Nickwinkelerkennung soll der Nickwinkel zur Fahrwerksregulierung, Lichtweitenregulierung oder zur Beurteilung der Justierung des Sensors selbst ermittelt werden.
  • Bei der Night Vision ist ein Erkennen von relevanten Objekten, insbesondere von Hindernissen in der Fahrspur im Dunkeln erforderlich, unter Umständen verbunden mit einer Warnfunktion.
  • Bei der Straßenzustandserkennung soll eine Erkennung von Bodenunebenheiten, Schwellen möglich sein, insbesondere auch in Tempo-30-Zonen.
  • Beim Einsatz als Türstopper soll eine Erkennung von Objekten im Öffnungsbereich von Türen, Heckklappen, Laderampen etc. erfolgen, um deren Bewegungsbereich zu begrenzen und daraus resultierende Beschädigungen zu vermeiden.
  • Bei der Verkehrszeichenerkennung soll eine verbesserte Detektion von Verkehrszeichen durch die Unterscheidung von Hintergrund und/oder die Erkennung von Fahrbahnmarkierungen oder -begrenzungen (z.B. Pylonen) möglich sein, insbesondere in Baustellenbereichen.
  • Beim Lichtsensor soll die Nutzung der Umgebungsinformation zur Beurteilung der Beleuchtungsanforderungen, z.B. aufgrund einer Beurteilung der Gefahrensituation, insbesondere bei Erkennung von Tunneleingängen, Parkhäusern etc. erfolgen.
  • Beim Einsatz der Erfindung als Wettersensor soll die gleichzeitige Erkennung der Beleuchtungssituation und evtl. vorhandener Niederschläge erfolgen. Die Klassifikation der Niederschläge nach Regen, Hagel oder Schnee aufgrund der Größe, Flugbahn etc. soll ebenso möglich sein wie die Abschätzung der Seitenwindverhältnisse aufgrund der Flugbahn der Niederschläge.
  • Als Befahrbarkeitssensor soll die Erkennung und Beurteilung der Befahrbarkeit eines Umgebungsabschnittes auf Basis der 3D- Information erfolgen, insbesondere die Beurteilung der Durchfahrtsmöglichkeit nach Breite oder Höhe. Weiter soll eine Beurteilung der Bodenunebenheiten im Vergleich mit der vorhandenen Bodenfreiheit des Fahrzeugs möglich sein.
  • Der Einsatz der Erfindung als Andockhilfe soll ein genaues Anhalten an Servicestationen, z.B. zur automatischen Betankung, Drive-In-Restaurants und für gewerbliche Fahrzeuge an Laderampen ermöglichen.
  • Schließlich sollen das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung optional auch als Rückfahrhilfe zur Unterstützung des Fahrers bei Rückwärtsfahrt, zur Erkennung von Objekten bzw. Hindernissen und zur Warnung bzw. Eingriff in die Fahrzeugregelung einsetzbar sein.
  • Aus dem Stand der Technik ist es bereits bekannt, dass die Detektion von Objekten im Umfeld von Verkehrsmitteln, insbesondere Kraftfahrzeugen, mit Hilfe von Radar, Lidar, Laserscannern, Triangulationssystemen, Ultraschall oder 2D-Kameras erfolgen kann. Einzig mit Hilfe von Stereokameras ist es derzeit möglich, hochaufgelöste Entfernungsbilder in Echtzeit zu gewinnen. 3D-Kameras, die nach dem Laserlaufzeit-Verfahren arbeiten, befinden sich derzeit noch im Entwicklungsstadium. Sie werden zwar vereinzelt in Industrieanwendungen eingesetzt, haben bisher aber noch keine Verwendung in der Fahrzeugtechnik gefunden.
  • Derartige 3D-Kamerasysteme sind beispielsweise auf Basis photoempfindlicher Elemente denkbar, bei denen durch eine Beleuchtungsquelle, bspw. eine Infrarot-Quelle modulierte Lichtwellen emittiert und die Reflexionen aus dem Umfeld erfasst werden, wobei durch Autokorrelation zwischen ausgesendeter und empfangener Welle die Entfernung zu Objekten im Umfeld und damit die Entfernungsinformation erforderlichenfalls pixelgenau abgeleitet werden kann. Diese Sensoren sind als PMD aus der WO 98/ 10 255 A1 grundsätzlich bekannt.
  • Die anderen aufgeführten Verfahren haben den Nachteil, dass sie entweder nicht echtzeitfähig sind oder aber nur die Entfernungsprofile einzelner Schnittebenen im Raum wiedergeben können, so dass nicht die komplette, beobachtete Szene als 3D-Information zur Verfügung steht. Die Folge davon ist eine mangelnde Robustheit der Objektdetektion bzw. der Entfernungsinformation. Im Hinblick auf Sicherheitsanwendungen ist dies nicht tolerierbar, so dass nach besseren Lösungen gesucht werden muss. Insbesondere Anwendungen, die den fließenden Verkehr beobachten und auswerten, sind auf eine robuste Objektdetektion angewiesen. Es muss auf Basis der Sensorinformation unterschieden werden können, welche Art von Objekt sich im Umfeld des eigenen Kfz befindet, um entsprechende Maßnahmen zur Vermeidung von Kollisionen treffen zu können.
  • Existierende Systeme zur Darstellung der Funktion nutzen in der Regel Daten von gewöhnlichen Kameras die einen Bildverarbeitungsalgorithmus durchlaufen haben und/oder Daten von entfernungsmessenden Systemen. Für sicherheitsrelevante Funktionen wird es notwendig sein, nicht nur die relative Lage von Objekten im Raum bestimmen zu können, d.h. die Entfernung und Richtung zum Fahrzeug. Es wird ebenso nötig sein, zur Beurteilung der Relevanz eine Objektklassifizierung vornehmen zu können. Während die relative Lage im Raum von entfernungsmessenden Sensoriken erfasst wird, erhält man die Objektklassifikation aus der Bildauswertung von Kamerasystemen, die die dazu notwendige laterale Auflösung bieten. Für eine Interpretation der Daten wird es im Anschluss allerdings notwendig, die Ergebnisse der beiden Sensorsysteme zu fusionieren. Diese Datenfusion stellt einen beträchtlichen Mehraufwand und ein gewisses Restrisiko in der Auswertung dar.
  • Beim Spurverlassungswarnsystem oder Spurhalteassistent sind beispielsweise Systeme, die vor dem unbeabsichtigten Verlassen der Fahrspur warnen, bereits im Gebrauch. Sie nutzen die Bildinformation einer Kamera, um den Straßenverlauf zu erfassen und zu verfolgen. Zur Ermittlung der Spurlage wurden auch schon Infrarot-Scanner entwickelt, die den seitlichen Bereich neben dem Fahrzeug nach weißen Linien abtasten.
  • Gemeinsam ist diesen Systemen, dass sie ausschließlich auf die weiße Fahrbahnmarkierung reagieren. Sollte diese aus Altersgründen einen schlechten Kontrast aufweisen oder gar nicht vorhanden sein, würde die Verfügbarkeit derartiger Systeme deutlich eingeschränkt. Sind die Markierungen aufgrund von Verschmutzungen bzw. wetterbedingt (Wasser/Schnee) verdeckt oder gar nicht vorhanden, wird die Verfügbarkeit derartiger Systeme deutlich eingeschränkt.
  • Bei der Night Vision werden bisher Infrarotkameras (2D) zur Verbesserung der Darstellung, d.h. des Kontrastes des vom Fahrer in der Nacht beobachteten Bildes genutzt.
  • Es ist die Aufgabe der vorliegenden Erfindung, die obigen Nachteile zu vermeiden und ein geeignetes Verkehrsmittel bzw. Verfahren zu schaffen.
  • Zur Lösung der Aufgabe wird erfindungsgemäß vorgeschlagen, zur Gewinnung von Informationen über das Umfeld des Verkehrsmittels eine oder mehrere 3D-Kameras am Verkehrsmittel, insbesondere Fahrzeug, anzubringen bzw. durch ein Verkehrsmittel mit einer oder mehreren von derartigen 3D-Kameras. Die Kamera ist dabei insbesondere als 3D-Entfernungsbildkamera ausgebildet. Weiterbildungen und besondere Einsatzmöglichkeiten der Erfindung sind in der nachfolgenden Beschreibung aufgeführt.
  • Die Erfindung hat viele Vorteile. Beispielsweise ist der Schritt der oben beschriebenen Datenfusion bei den Daten einer 3D-Entfernungsbildkamera nicht mehr notwendig. Die Zuordnung der Entfernungs- und der Bilddaten existiert bereits für jedes Pixel.
  • Maßgeblich für den Großteil der angeführten Applikationen sind die Fähigkeiten des 3D-Sensors bzw. der Kamera, die Detektion von Objekten wesentlich zu verbessern durch die Abhebung vom Hintergrund in der 3D Sicht. Ferner kann man die Klassifikation deutlich zu verbessern durch die erhöhte Anzahl und Qualität der Merkmale, die dafür zur Verfügung stehen. Es wird möglich sein, die Befahrbarkeit der Umgebung zu beurteilen aufgrund der Bodenverhältnisse. Oder von zur Verfügung stehenden Durchfahrtsmöglichkeiten entsprechend ihrer Breite und Höhe. Dies wird möglich, da mit einem 3D-Sensor eine wesentlich höhere Genauigkeit bei der Bestimmung der Position und Ausdehnung von Objekten erreichbar ist. Es wird erfindungsgemäß möglich, kleinere Objekte aufzulösen und getrennt zu detektieren, laterale Geschwindigkeitsmessungen mit erhöhter Genauigkeit durchzuführen und sie damit in die Beurteilung der Gesamtsituation mit einzubeziehen, z.B. bei Ausweichmöglichkeiten, drohenden Kollisionen etc.
  • Grundsätzlich können die genannten Applikationen aber natürlich unter Inkaufnahme der beschriebenen Nachteile grundsätzlich auch mit einer konventionellen 2D-Kamera oder einem herkömmlichen 3D-System mittels Stereokamera oder Kamera und Entfernungsmessern realisiert werden.
  • Die Einbauorte bzw. Erfassungsbereiche der Kamera in dem Verkehrsmittel sollen dabei insbesondere an die zu lösenden Wahrnehmungsaufgaben angepasst sein. In der nachfolgenden Tabelle sind bevorzugte Einbauorte bzw. Erfassungsbereiche der 3D-Kameras für die verschiedenen Einsatzgebiete der vorliegenden Erfindung beispielhaft anhand eines Kraftfahrzeuges dargestellt. In Klammern gesetzte Nummern geben dabei weniger wichtige, aber dennoch mögliche Bereiche bzw. Einbauorte an.
    Einsatzgebiet Erfassungsbereich bzw. Ort
    Bremsassistent 1
    Schadensreduzierungssystem 1
    Closing Velocity-Sensorik 1,3
    Fußgängerschutz 1, (4)
    Stop-and-Go/ Stauassistent 1
    Einparkhilfe 1,2,4
    Totwinkelüberwachung 3
    Spurverlassungswarnsystem 1, (3)
    Spurwechselassistent 1,3,4
    Spurhalteassistent 1, (3)
    Überschlagserkennung 1,3
    Nickwinkelerkennung 1
    Night Vision 1
    Straßenzustandserkennung 1
    Türstopper 3, 4, (1)
    Verkehrszeichenerkennung 1
    Lichtsensor 1
    Wettersensor 1
    Befahrbarkeitssensor 1
  • In 1 sind die entsprechenden Erfassungsbereiche und damit bevorzugten Einbauorte der 3D-Kameras in einem Kraftfahrzeug gemäß der obigen Tabelle dargestellt.
  • Die 3D-Kamera zeichnet sich dadurch aus, dass sie sowohl ein Grauwertbild liefert als auch ein Entfernungsbild. Mit Hilfe einer 3D-Kamera wird die benötigte Robustheit der Entfernungsmessung und Objektdetektion erreicht.
  • Das Gesichtsfeld der Kamera kann mit geeigneten Optiken der Aufgabenstellung angepasst werden. Gleichermaßen lässt sich die Auflösung der Kamera über die Anzahl und Verteilung der Pixel des verwendeten 3D-Bildaufnehmers anpassen, so dass eine angemessene Aufnahme von Voxelinformation der beobachteten Szene ermöglicht wird.
  • Für spezielle Aufgabenstellungen, die eine Beobachtung der Fahrbahn erfordern, kann die 3D-Kamera auch senkrecht oder nahezu senkrecht nach unten ausgerichtet sein.
  • Wesentlicher Vorteil einer 3D-Kamera im Vergleich zu anderen Systemen ist die Eigenschaft der Pixel des Bildaufnehmers, sowohl die Entfernungsinformation als auch die zum selben Pixel gehörende Grauwertinformation simultan oder nahezu simultan bereitstellen zu können.
  • Dies ermöglicht eine Szenenauswertung, die auf zwei voneinander unabhängigen Bildinformationen beruht. Beide Bildinformationen können erst einmal unabhängig voneinander verarbeitet werden (dies betrifft beispielsweise die Verfahren zur Filterung, der Kantendetektion sowie der Mustererkennung), Danach lässt sich in einem weiteren Plausibilisierungsschritt, der Datenfusion, die Robustheit der Objekterkennung wesentlich steigern.
  • Die von der Kamera gewonnenen Daten werden in einer Bildauswerteeinheit weiterverarbeitet. Entfernungsdaten, Grauwertdaten, Farbdaten und Objektdaten werden für Eingriffe in das Fahrzeug (Bremse, Lenkung, Gas, Getriebe, Sicherheitssysteme etc.) verwendet.
  • Maßgeblich für den Großteil der angeführten Applikationen sind die Fähigkeiten des 3D-Sensors die Detektion von Objekten wesentlich zu verbessern durch die Abhebung vom Hintergrund in der 3D Sicht, die Klassifikation deutlich zu verbessern durch die erhöhte Anzahl und Qualität der Merkmale, die dafür zur Verfügung stehen, d.h. eine Merkmalsextraktion und Objektdetektion anhand der 3D-Bilddaten vorzunehmen. Es wird insbesondere möglich sein, die Befahrbarkeit der Umgebung zu beurteilen aufgrund des Straßenzustandes oder von zur Verfügung stehenden Durchfahrtsmöglichkeiten entsprechen ihrer Breite und Höhe. Dies wird möglich, da mit einem 3D-Sensor eine wesentlich höhere Genauigkeit bei der Bestimmung der Position und Ausdehnung von Objekten erreichbar ist. Darüber hinaus können Objektschwerpunkte aus den 3D-Daten gebildet werden.
  • Es wird möglich, kleinere Objekte aufzulösen und getrennt zu detektieren, laterale Geschwindigkeitsmessungen mit erhöhter Genauigkeit durchzuführen und sie damit in die Beurteilung der Gesamtsituation mit einzubeziehen, z.B. bei der Beurteilung von Ausweichmöglichkeiten, drohenden Kollisionen etc. Mit der feineren Auflösung wird eine Extraktion von „Minimum Distance“ Informationen aus den 3D-Bildern als Steuergröße für die Fahrzeugeingriffe möglich. Auf Basis der 3D-Bilddaten, gestützt durch die entsprechende, mit deckungsgleichen Pixeln ermittelte Grauwertinformation, kann eine Freiraumanalyse durchgeführt werden. Eine Bewegungsdetektion kann auf Basis der 3D-Bilder mehrachsig in allen Raumrichtungen ausgeführt werden.
  • Grundsätzlich können die genannten Applikationen aber natürlich unter Inkaufnahme der beschriebenen Nachteile grundsätzlich auch mit einer konventionellen 2D-Kamera oder einem herkömmlichen 3D-System mittels Stereokamera oder Kamera und Entfernungsmessern realisiert werden.
  • Beim Fußgängerschutzerfolgt erfolgt beispielsweise die Nutzung der 3D-Information zur Verbesserung der Klassifikation, der Abschätzung von Größe und Gewicht, der Position und des Bewegungsvektors und zur Unterscheidung von Tieren.
  • Bei Stop-and-Go bzw. beim Stauassistenten erfolgt eine wesentliche Verbesserung der Positionsbestimmung und des Bewegungsvektors, der Ausdehnung, von Durchfahrtsbreiten und Höhen, Differenzierung von kleineren Objekten, Erfassung der genauen Oberfläche von vorausfahrenden Fahrzeugen, insbesondere bei herausragenden Gegenständen wie Stangen oder hoch liegenden LKW's, die Zuordnung von Hindernissen oder Fahrzeugen zur Fahrspur durch gleichzeitige Detektion der Fahrbahnmarkierungen, Unterscheidung von relevanten Objekten (Fußgänger) von nicht relevanten Objekten (Tieren), Erkennung und Korrektur des Nickwinkeleinflusses zur Vermeidung von Fehlreaktionen
  • Bei der Einparkhilfe, also insbesondere der Parklückenvermessung, dem Parkassistenten und/oder dem autonomen Einparken kann die Nutzung der 3D- Information für eine umfassendere Beurteilung erfolgen, z.B. nicht nur gemäß der Länge, sondern auch der Breite und Höhe der Parklücke. Außerdem besteht die Möglichkeit der Erkennung von kleineren Hindernissen.
  • Bei der Totwinkelüberwachung erfolgt eine Erkennung von relevanten Objekten. Ihre Klassifizierung sowie die Bestimmung der Position und des Bewegungsvektors ist wesentlich präziser möglich als mit einer 2D-Sensorik.
  • Beim Spurverlassungswarnsystem liegt die Idee darin, die zusätzliche 3D-Information zu nutzen, um den Fahrbahnverlauf zu detektieren oder auf Plausibilität zu überprüfen. Entsprechend nutzbare Daten könnten z.B. Leitplanken darstellen, Leitpfosten, Fahrbahnränder wie Randsteine, Bewuchs, Böschungen, Gräben oder die Ebenheit bzw. Beschaffenheit der Fahrbahn selbst. So lässt sich durch eine Auswertung der Topographie der Fahrzeugumgebung unter Umständen schon auf den einzig möglichen Verlauf der Fahrbahn schließen. Die 3D-Information bereits einer einzigen Zeile ermöglicht über die Zeit die Erstellung eines „Höhenprofils“. Unter der Annahme, dass die Fahrbahn eben ist, der Rand hingegen versenkt (Straßengraben) oder erhöht (z.B. Leitplanken, Pfosten, Bewuchs), kann die Fahrbahn erkannt werden. Nutzung von speziellen Fahrbahnmarkierungen bzw. Begrenzungen, insbesondere in Baustellenbereichen (Pylone).
  • Für den Einsatz der Erfindung beim Spurwechselassistenten gelten die oben zur Totwinkelüberwachung und/oder dem Spurverlassungswarnsystem getroffenen Aussagen.
  • Beim Spurhalteassistent kann auf der Basis derselben Informationen wie beim Spurverlassungswarnsystem das Fahrzeug aktiv in der Spur quergeführt werden. Dies lässt sich erweitern auf Durchfahrtssituationen, wo dem Fahrer eine aktive Führungsunterstützung geboten werden kann, z.B. zwischen Mauern in engen Durchfahrten, in Garagen oder in Mautstationen, um das Fahrzeug automatisch durchzuführen bzw. vor zu engen Passagen zu warnen.
  • Bei der Nickwinkelerkennung ermöglicht ein 3D-Bildsensor die Bestimmung der Distanz zwischen Sensor und Fahrbahn auf dem Sehstrahl. Dabei wird das Dreieck aus Sensor-Höhe, Sehstrahl und Fahrbahn zur Winkelberechnung verwendet. Diese Bestimmung wird vorzugsweise im Nahbereich durchgeführt, wo Fahrbahnneigungen noch wenig Einfluss auf den resultierenden Winkel haben.
  • Damit lassen sich Fehlreaktionen bekannter Systeme auf vertikale Straßenkrümmungen oder hoch liegende Hindernisse (Brücken) ausschließen.
  • Bei der Night Vision stellt die 3D-Information ein wichtiges Hilfsmittel zur Beurteilung der Relevanz eines Objektes dar. Der Sensor ist damit selbst in der Lage, die Relevanz und die damit verbundene Gefahr abzuschätzen und eine angemessene Warnstrategie einzuleiten.
  • Die besonderen Vorteile der Erfindung liegen in der Bereitstellung einer robusten Szeneninformation. Die 2D-Bildinformation wird simultan mit der 3D-Szeneninformation gewonnen. Dadurch wir der Aufwand an Nachverarbeitung und Auswertung minimiert und die Szenendaten stehen in Echtzeit zur Verfügung.
  • Durch die Verwendung einer 3D-Kamera wird die Klassifikation von Objekten innerhalb der Szene auch auf Basis von Entfernungsinformation möglich. Bisherige Systemansätze auf Basis von Radar, Lidar oder Ultraschall vermögen dies nicht zu leisten.
  • Der Einsatz einer 3D-Kamera kann für verschiedene Entfernungsbereiche erfolgen. Bildausschnitte können durch Verwendung von Zoom-Objektiven den jeweiligen Erfordernissen angepasst werden. Somit sind auch variable Gesichtsfelder bei der Objektdetektion möglich.
  • Empfindlichkeit und Auflösung können den Erfordernissen in unterschiedlichen Gesichtsfeldern angepasst werden durch eine entsprechend gewählte Pixelarchitektur.
  • Im Gegensatz zu Stereoansätzen ist es mit 3D-Entfernungsbildka-meras möglich, zwischen wahren und scheinbaren Objekten zu unterscheiden. Scheinbare Objekte sind z.B. Straßenmarkierungen, Reflektoren auf der Straße u.ä.. Sie werden z.B. von Bildverarbeitungsalgorithmen als Objekte detektiert, obwohl es sich nicht um räumlich ausgedehnte Objekte handelt. Entfernungsbildkameras sind in der Lage, dies einfach zu erkennen.
  • Beim Spurverlassungswarnsystem besteht der Vorteil der Umgebungserfassung mittels einer 3D-Entfernungsbildkamera nicht nur im wesentlich verringerten Aufwand in der Datenauswertung, sondern vor allem in der stark erhöhten lateralen Auflösung in der Entfernungsmessung. Diese gestattet es, die Umgebung im Rechner deutlich feiner zu modellieren, kleinere Lücken zu entdecken, um Objekte zu unterscheiden, die laterale Lage und evtl. Geschwindigkeit genauer zu erfassen, die Ausdehnung der Objekte genauer vermessen zu können und/oder eine Durchfahrtsmöglichkeit zu erkennen. Redundanz bei Kombination mit konventioneller 2D-Grauwert Kamera ist beispielsweise erforderlich für Sicherheitssysteme. Außerdem ergibt sich eine höhere Verfügbarkeit, auch wenn keine Markierungen sichtbar sind.
  • Für den Spurhalteassistent gelten diese Vorteile entsprechend. Der Spurhalteassistent kann ferner das Fahrzeug auch durch Baustellenbereiche leiten, wenn die entsprechenden Leitobjekte z.B. die Pylonen erkannt werden.
  • Mit den 3D-Entfernungsbildkameras erhält man bei der Überschlagserkennung nicht nur eine unabhängige Sensorik zur Bestimmung der eigenen Lage und damit zur Ergänzung der Neigungssensorik, sondern eine bestehende Überschlagsgefahr lässt sich vielmehr schon prädiktiv erfassen, z.B. beim Verlassen der Fahrbahn über eine Böschung oder beim Fahren über einen Abhang, wenn Trägheitssensoren noch lange nicht ansprechen. Man gewinnt damit einen Zeitvorteil zum Betätigen reversibler Rückhaltesysteme gegenüber der bisher verwendeten Sensorik.
  • Bei der Nickwinkelerkennung erfolgt mit Vorteil eine Einsparung konventioneller dedizierter Nickwinkel-Sensorik.
  • Bei der Night Vision ermöglicht es die Intelligenz des Sensors, d.h. die Vorbeurteilung oder Klassifikation des Hindernisses verbunden mit einer entsprechenden Warnstrategie, den Fahrer maßgeblich zu entlasten, bzw. ihn angemessen auf ein auftauchendes Hindernis vorzubereiten. Gegebenenfalls können die Informationen an ein vorhandenes Sicherheitssystem z.B. das Rückhaltesystem oder die Bremsenkonditionierung weitergeleitet werden.
  • Bei der Straßenzustandserkennung kann bei Klassifikation von Bodenunebenheiten, z.B. bei Schwellen in Tempo 30 Zonen, die Geschwindigkeit automatisch angepasst werden. Dadurch können Beschädigungen des Fahrzeugs, z.B. durch Schlaglöcher ö.ä., vermieden werden. 2 zeigt dazu ein entsprechendes Struktogramm, wie aus den Graubilddaten und Entfernungsdaten jeweils Muster extrahiert, beide Muster miteinander plausibilisiert, aus der zeitlichen Abfolge der Daten Objekte verifiziert und über eine Entscheidungsmatrix geeignete Maßnahmen eingeleitet, bspw. das Fahrwerk oder die Geschwindigkeit angepasst und ggfs. eine Warnung an den Fahrer ausgegeben werden.
  • Beim Türstopper dient die Erfindungsgemäße 3D-Kamera bzw. das erfindungsgemäße Verfahren zur Vermeidung von Beschädigungen am Fahrzeug oder von Verletzungen. Speziell häufige Auffahrunfälle von Radfahrern auf sich öffnende Türen ließen sich damit vermeiden, gegebenenfalls in Verbindung mit einer Totwinkelüberwachung.
  • Beim Lichtsensor erfolgt die Nutzung der Umgebungsinformation zur Beurteilung der Beleuchtungsanforderungen, z.B. aufgrund einer Beurteilung der Gefahrensituation, insbesondere bei Erkennung von Tunneleingängen, Parkhäusern etc.
  • Anstelle von 3D-Kameras werden gegenwärtig Radar-, Lidar- oder Triangulationssysteme eingesetzt. Zwar kann mit diesen Systemen prinzipiell auch eine vollständige 3D-Szene erfasst werden, doch wird hierfür eine Abtastvorrichtung benötigt, mit der die Strahlkeulen über die Szene hinweggeführt werden müssen. Eine Echtzeitfähigkeit ist mit Scansystemen nur sehr schwer zu erzielen. Dies gilt auch für Laserscanner.

Claims (24)

  1. Verkehrsmittel mit einer Umfelderfassungseinrichtung, dadurch gekennzeichnet, dass zumindest eine 3D-Entfernungsbildkamera vorgesehen ist, welche neben Grauwert- oder Farbbilddaten auch Entfernungsdaten zur Detektion von Objekten im Umfeld des Verkehrsmittels bereitstellt, wobei Pixel der 3D-Entfernungsbildkamera die Eigenschaft aufweisen, sowohl die Entfernungsinformation als auch die zum selben Pixel gehörende Grauwert- oder Farbinformation simultan oder nahezu simultan bereitstellen zu können, wobei die Umfelderfassungseinrichtung derart ausgebildet ist, dass bei einer Klassifikation von detektierten Objekten sowohl die aus 3D-Daten der 3D-Entfernungsbildkamera bestimmbare Position und Ausdehnung der Objekte als auch die zugehörigen Grauwert- oder Farbdaten der Objekte genutzt werden.
  2. Verkehrsmittel nach Anspruch 1, dadurch gekennzeichnet, dass bei einer Klassifikation von detektierten Objekten die aus den 3D-Daten bestimmbare Gestalt der Objekte genutzt wird.
  3. Verkehrsmittel nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei der 3D-Entfernungsbildkamera jedem Grau- bzw. Farbbildpixel ein Entfernungswert zugeordnet wird.
  4. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass aus den Bild- und Entfernungsdaten Objekten im Umfeld des Verkehrsmittels detektiert werden und bei Erkennen einer Gefahrensituation das Bremssystem des Verkehrsmittels vorkonditioniert wird, indem der Bremsdruck im Bremssystem aufgebaut und/oder die Bremsbelege angelegt werden.
  5. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass bei Erkennung einer nicht mehr abwendbaren Kollision mit einem Objekt zur Schadensreduzierung eine Abbremsung des Fahrzeugs und/oder die Aktivierung von Rückhaltesystemen eingeleitet wird.
  6. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Annäherungsgeschwindigkeit und der Auftreffzeitpunktes eines Objektes erfasst werden.
  7. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass Ausweichmanöver zur Vermeidung von Unfällen oder zur Reduzierung in ihren Auswirkungen eingeleitet werden.
  8. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass Fußgänger, Radfahrer oder Motorradfahrer im Umfeld des Verkehrsmittels detektiert und bei einer nicht mehr abwendbaren Kollision Maßnahmen zur Vermeidung schwerwiegender Verletzungen aktiviert werden.
  9. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass zumindest in einem niedrigsten Geschwindigkeitsbereich das Verkehrsmittel einem voranfahrenden Verkehrsmittel folgt und einen Stop-and-Go- bzw. Stauassistent-Betrieb ermöglicht.
  10. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass zur Einparkhilfe die Parklücke vermessen wird, insbesondere der Vermessung der Länge, Breite und gegebenenfalls Höhe einer Parklücke, und eine Meldung einer potentiellen Einparkmöglichkeit an den Fahrer erfolgt.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass eine Vermessung der Parklücke und der eigenen Relativposition erfolgt und dem Fahrer eine Empfehlung für einen optimalen Einparkvorgang gegeben wird oder ein selbständiges Einparken durch eine entsprechende Längs- und Querregelung des Fahrzeuges erfolgt.
  12. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass eine Anzeige von Fahrzeugen im toten Winkel bei Erkennen einer Spurwechselabsicht erfolgt.
  13. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass aus den Grauwert- oder Farbbilddaten in Verbindung mit den Entfernungsdaten eine Fahrspur des Fahrzeuges erkannt wird, und a) ein Spurhalten angenommen und zur aktiven Unterstützung des Fahrers bei der Spurhaltung ein höchstens moderater Lenkeingriff erfolgt, b) darüber hinaus gehend anhand des Spurverlaufs ein unbeabsichtigtes Verlassen der Fahrspur erkannt wird und eine Warnung an den Fahrer erfolgt, c) bei Erkennen einer Spurwechselabsicht bspw. anhand der Spurlage, Lenkstellung und/oder aus einer Blinkerbetätigung erfolgt eine Totwinkelüberwachung und/oder Spurlageerkennung durch Überwachung des toten Winkels und des rückwärtigen Annäherungsbereiches zur Unterstützung des Fahrers beim Spurwechsel.
  14. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass aus den Grauwert- oder Farbbilddaten in Verbindung mit den Entfernungsdaten die Lage des Verkehrsmittels in Bezug zu seiner Umgebung ermittelt und daraus der Neigungswinkel zu der Längs- und/oder Quer- und/oder Vertikalachse des Verkehrsmittels abgeleitet wird.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass aus den Neigungswinkeln ein drohender Überschlag erkannt wird und am Fahrzeug entsprechende Schutzmaßnahmen eingeleitet werden, beispielsweise Rückhaltesysteme oder Überrollbügel aktiviert oder Schiebedächer geschlossen werden.
  16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass aus den Neigungswinkeln der Nickwinkel erkannt wird.
  17. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass aus den Grauwert- oder Farbbilddaten in Verbindung mit den Entfernungsdaten der Straßenzustand erkannt wird, insbesondere Bodenunebenheiten und Bodenschwellen erkannt werden und eine Warnung oder ein Fahrzeugeingriff erfolgt.
  18. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass Objekte erkannt werden, die sich im Öffnungsbereich von Türen, Heckklappen, Laderampen und ähnlichen beweglichen Teilen am Verkehrsmittel befinden bzw. sich darauf zu bewegen und der Bewegungsbereich der beweglichen Teile begrenzt wird, um Beschädigungen bzw. Verletzungen zu vermeiden.
  19. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass aus den Grauwert- oder Farbbilddaten in Verbindung mit den Entfernungsdaten Verkehrszeichen und/oder Fahrbahnbegrenzungszeichen durch die Unterscheidung von Hintergrund erkannt und interpretiert werden.
  20. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass der 3D-Entfernungssensor als Wettersensor genutzt und aus Grauwert-, Farbbilddaten und/oder Entfernungsdaten das Wetter, insbesondere die Beleuchtungssituation und evtl. vorhandener Niederschläge erkannt wird.
  21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass eine Klassifikation der Niederschläge nach Regen, Hagel oder Schnee aufgrund der Größe und Flugbahn erfolgt.
  22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass eine Abschätzung der Seitenwindverhältnisse aufgrund der Flugbahn der Niederschläge erfolgt.
  23. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Befahrbarkeit eines Umgebungsabschnittes auf Basis der 3D- Information und vorgegebener Parameter des Verkehrsmittels erfolgt, insbesondere die Beurteilung der Durchfahrtsmöglichkeit nach Breite oder Höhe oder eine Beurteilung der Bodenunebenheiten im Vergleich mit der vorhandenen Bodenfreiheit des Fahrzeugs möglich ist.
  24. Verfahren zum Betreiben eines Verkehrsmittels nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass als Andockhilfe vorgegebene Andockpunkte erkannt und das Fahrzeug automatisch an den Andockpunkt gefahren wird, um beispielsweise ein genaues Anhalten an Servicestationen, zur automatischen Betankung, Drive-In-Restaurants und für gewerbliche Fahrzeuge an Laderampen ermöglichen.
DE10392601.1A 2002-08-09 2003-08-08 Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb Expired - Lifetime DE10392601B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10237814.2 2002-08-09
DE10237814 2002-08-09
PCT/DE2003/002685 WO2004021546A2 (de) 2002-08-09 2003-08-08 Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb

Publications (1)

Publication Number Publication Date
DE10392601B4 true DE10392601B4 (de) 2023-01-19

Family

ID=31968977

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10392601T Expired - Lifetime DE10392601D2 (de) 2002-08-09 2003-08-08 Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb
DE10392601.1A Expired - Lifetime DE10392601B4 (de) 2002-08-09 2003-08-08 Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE10392601T Expired - Lifetime DE10392601D2 (de) 2002-08-09 2003-08-08 Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb

Country Status (3)

Country Link
AU (1) AU2003263131A1 (de)
DE (2) DE10392601D2 (de)
WO (1) WO2004021546A2 (de)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10303578B4 (de) * 2003-01-30 2015-08-13 SMR Patents S.à.r.l. Gefahrenerkennungssystem für Fahrzeuge mit mindestens einer seitlichen und rückwärtigen Umgebungserfassung
DE102004045813B4 (de) * 2004-09-22 2017-09-28 Robert Bosch Gmbh System und Verfahren für ein vorrausschauendes Detektieren einer Unfallgefahrensituation
JP2006264416A (ja) 2005-03-22 2006-10-05 Takata Corp 対象物検知システム、保護システム、車両
DE102005028995A1 (de) * 2005-06-21 2007-01-04 Continental Teves Ag & Co. Ohg Verfahren zur Fahrdynamikregelung und Fahrdynamikregler für motorisierte Einspurfahrzeuge
WO2008051910A2 (en) 2006-10-24 2008-05-02 Donnelly Corporation Display device for exterior mirror
DE102005039895A1 (de) * 2005-08-23 2007-03-01 Siemens Ag System für Spurverlassenswarnung und/oder Spurhaltefunktion
DE102005045017A1 (de) * 2005-09-21 2007-03-22 Robert Bosch Gmbh Verfahren und Fahrerassistenzsystem zur sensorbasierten Anfahrtsteuerung eines Kraftfahrzeugs
WO2007036553A1 (de) * 2005-09-30 2007-04-05 Siemens Aktiengesellschaft Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE102006006377A1 (de) * 2006-02-11 2007-08-16 Continental Teves Ag & Co. Ohg Vorrichtung zur Lenkung eines Kraftfahrzeugs beim Einparken
DE102006010662A1 (de) * 2006-03-08 2007-09-13 Valeo Schalter Und Sensoren Gmbh Spurwechselwarnsystem
DE102006018075A1 (de) * 2006-04-11 2007-10-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen wenigstens eines Teils eines Fahrzeugumfeldes eines Fahrzeugs und System hierfür
GB2441560B (en) * 2006-07-27 2011-07-13 Autoliv Dev A vehicle safety system
DE102006036423A1 (de) * 2006-08-04 2008-02-07 Bayerische Motoren Werke Ag Verfahren zur Ermittlung einer geeigneten Parklücke
JP4613906B2 (ja) * 2006-12-14 2011-01-19 トヨタ自動車株式会社 車両用周辺監視装置
DE102006060892A1 (de) * 2006-12-22 2008-06-26 Adc Automotive Distance Control Systems Gmbh Verfahren und Vorrichtung zur Spurhalteunterstützung für ein Fahrzeug
DE102007004349A1 (de) 2007-01-29 2008-07-31 Robert Bosch Gmbh Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE102007017293A1 (de) * 2007-04-12 2008-10-16 Continental Automotive Gmbh Fahrspurdetektion mit Schwarz-Weiß-Kamera und Farbkamera
EP1988488A1 (de) 2007-05-03 2008-11-05 Sony Deutschland Gmbh Verfahren zur Erkennung beweglicher Objekte im toten Winkel eines Fahrzeugs und Vorrichtung zur Erkennung des toten Winkels
DE102007039377B4 (de) * 2007-08-21 2011-11-10 Audi Ag Verfahren zur automatischen Längsführung eines Kraftfahrzeugs mittels eines längsführenden Fahrerassistenzsystems mit Stop&Go-Funktion
DE102008050316B4 (de) 2008-10-02 2015-06-25 Daimler Ag Verfahren und Vorrichtung zur dynamischen Fixierung eines Fahrzeuginsassen
CN102460536B (zh) 2009-06-12 2016-06-22 矿山安全股份公司 可移动物体接近告警系统
DE102009040003A1 (de) * 2009-09-03 2011-03-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Klassifizieren eines Objektes im Totwinkelbereich eines Kraftfahrzeugs und Fahrerassistenzeinrichtung
EP2316705B1 (de) 2009-10-28 2012-06-20 Honda Research Institute Europe GmbH Verhaltensbasiertes Lernen visuellen Verhaltens aus realen Verkehrssituationen für Fahrerunterstützungssystem
AU2009356536B2 (en) 2009-12-11 2014-06-26 Safemine Ag Collision warning apparatus and method for operating the same
DE102010010475A1 (de) 2010-03-06 2010-10-21 Daimler Ag Verfahren zur dynamischen Fixierung eines Fahrzeuginsassen
DE102010020135A1 (de) * 2010-05-11 2011-11-17 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Fahrerassistenzvorrichtung und Fahrerassistenzverfahren
CA2802122C (en) 2010-06-10 2016-05-31 Safemine Ag Method and control unit for controlling a display of a proximity warning system
AU2011264358B2 (en) 2010-06-10 2015-10-29 Safemine Ag Method and control unit for controlling a display
EP2484566A1 (de) 2011-02-08 2012-08-08 Volvo Car Corporation Bremshilfesystem
DE102011013486A1 (de) * 2011-03-10 2012-04-19 Audi Ag Fahrerassistenzsystem für ein Fahrzeug und Verfahren zum Vermeiden einer Kollision eines Fahrzeugs mit einem Objekt
DE102011056671A1 (de) * 2011-12-20 2013-06-20 Conti Temic Microelectronic Gmbh Bestimmung eines Höhenprofils einer Fahrzeugumgebung mittels einer 3D-Kamera
DE102012101085A1 (de) 2012-02-10 2013-08-14 Conti Temic Microelectronic Gmbh Bestimmung einer Beschaffenheit einer Fahrbahnoberfläche mittels einer 3D-Kamera
CN103448652B (zh) * 2012-06-04 2016-06-15 宏达国际电子股份有限公司 行车警示方法及其电子装置
DE102012213568A1 (de) * 2012-08-01 2014-02-06 Robert Bosch Gmbh Sicherheitseinrichtung für kraftfahrzeuge
DE102012107392B3 (de) * 2012-08-13 2013-12-12 Chui-Min Chiu Rundum Sicherung für ein Kraftfahrzeug
US9625569B2 (en) 2012-12-17 2017-04-18 pmdtechnologies ag Time-of-flight camera with motion detection
CN103043021A (zh) * 2013-01-04 2013-04-17 浙江海康集团有限公司 一种集成五路视频检测的全方位汽车主动安全系统
US9110169B2 (en) 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
DE102013223367A1 (de) 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
US9384662B2 (en) * 2014-04-17 2016-07-05 Ford Global Technologies, Llc Parking assistance for a vehicle
DE102015207938A1 (de) 2015-04-29 2016-11-03 Robert Bosch Gmbh Verfahren zur Steuerung einer Leuchtintensität von Bremslichtern
CN104890571B (zh) * 2015-05-27 2017-11-14 奇瑞汽车股份有限公司 行车提示方法及系统
US20160368336A1 (en) 2015-06-19 2016-12-22 Paccar Inc Use of laser scanner for autonomous truck operation
DE102015120534A1 (de) * 2015-11-26 2017-06-01 Valeo Schalter Und Sensoren Gmbh Anordnung wenigstens eines optischen Empfängers einer Sende- und Empfangseinrichtung einer nach einem Lichtimpulslaufzeitverfahren arbeitenden optischen Messvorrichtung
CN105620489B (zh) * 2015-12-23 2019-04-19 深圳佑驾创新科技有限公司 驾驶辅助系统及车辆实时预警提醒方法
DE202017004252U1 (de) 2017-05-06 2017-11-10 Dustin Kulka System zur Vermeidung von Unfällen im Straßenverkehr
CN108313038A (zh) * 2018-02-07 2018-07-24 北京新能源汽车股份有限公司 防踩错紧急制动方法、装置及设备
TWI668146B (zh) * 2018-03-30 2019-08-11 帷享科技股份有限公司 Vehicle side safety distance display system
CN108896087B (zh) * 2018-05-03 2019-08-06 安徽江淮汽车集团股份有限公司 一种并线辅助系统的测试方法及装置
CN111332239A (zh) * 2019-09-17 2020-06-26 厦门乐创智联科技有限公司 一种倒车防碰撞预警系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4439298A1 (de) 1994-11-07 1996-06-13 Rudolf Prof Dr Ing Schwarte 3D-Kamera nach Laufzeitverfahren
WO1998010255A1 (de) 1996-09-05 1998-03-12 Rudolf Schwarte Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
DE10022454A1 (de) 2000-05-09 2001-11-22 Daimler Chrysler Ag Bildaufnehmer und Bildaufnahmeverfahren, insbesondere zur dreidimensionalen Erfassung von Objekten und Szenen
DE10025678A1 (de) 2000-05-24 2001-12-20 Daimler Chrysler Ag Kamerabasiertes Precrash-Erkennungssystem
DE10117650A1 (de) 2001-04-09 2002-10-10 Daimler Chrysler Ag Verfahren und Vorrichtung zum Verbringen eines Kraftfahrzeuges in eine Zielposition
WO2002083470A1 (de) 2001-04-12 2002-10-24 Robert Bosch Gmbh Verfahren zur kollisionsverhinderung bei kraftfahrzeugen
DE10118903A1 (de) 2001-04-18 2002-11-14 Bosch Gmbh Robert Mehrzweck-Fahrerassistenzsystem für ein Kraftfahrzeug
DE10149768A1 (de) 2001-10-09 2003-04-17 Ibeo Automobile Sensor Gmbh Sichtweitenbestimmung

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3148435A1 (de) * 1981-12-08 1983-07-21 Battelle-Institut E.V., 6000 Frankfurt "verfahren und vorrichtung zur messung der windgeschwindigkeit"
SE467553B (sv) * 1990-11-30 1992-08-03 Sten Loefving Optisk metod att detektera och klassificera nederboerd genom detektering av spritt resp bakaatspritt ljus fraan en ljusstraale
US5162861A (en) * 1991-04-01 1992-11-10 Tamburino Louis A Laser imaging and ranging system using one camera
DE19507957C1 (de) * 1995-03-07 1996-09-12 Daimler Benz Ag Fahrzeug mit optischer Abtasteinrichtung für einen seitlichen Fahrbahnbereich
EP0913751B1 (de) * 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
DE19833207A1 (de) * 1998-07-23 2000-02-17 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
US6078849A (en) * 1998-12-11 2000-06-20 Lockheed Martin Corporation Vision based precision docking of vehicles
WO2000073818A1 (de) * 1999-05-26 2000-12-07 Robert Bosch Gmbh Objektdetektionssystem
DE19962491A1 (de) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs
DE10004161A1 (de) * 2000-02-01 2001-08-16 Bosch Gmbh Robert Adaptive Türsicherung für Kraftfahrzeuge
DE10060498A1 (de) * 2000-03-27 2001-10-11 Continental Teves Ag & Co Ohg Verfahren zum Erkennen einer Notbremssituation oder eines Verdachts einer Notbremssituation eines Fahrzeugs
AU2001259640A1 (en) * 2000-05-08 2001-11-20 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
DE10114932B4 (de) * 2001-03-26 2005-09-15 Daimlerchrysler Ag Dreidimensionale Umfelderfassung

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4439298A1 (de) 1994-11-07 1996-06-13 Rudolf Prof Dr Ing Schwarte 3D-Kamera nach Laufzeitverfahren
WO1998010255A1 (de) 1996-09-05 1998-03-12 Rudolf Schwarte Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
DE10022454A1 (de) 2000-05-09 2001-11-22 Daimler Chrysler Ag Bildaufnehmer und Bildaufnahmeverfahren, insbesondere zur dreidimensionalen Erfassung von Objekten und Szenen
DE10025678A1 (de) 2000-05-24 2001-12-20 Daimler Chrysler Ag Kamerabasiertes Precrash-Erkennungssystem
DE10117650A1 (de) 2001-04-09 2002-10-10 Daimler Chrysler Ag Verfahren und Vorrichtung zum Verbringen eines Kraftfahrzeuges in eine Zielposition
WO2002083470A1 (de) 2001-04-12 2002-10-24 Robert Bosch Gmbh Verfahren zur kollisionsverhinderung bei kraftfahrzeugen
DE10118903A1 (de) 2001-04-18 2002-11-14 Bosch Gmbh Robert Mehrzweck-Fahrerassistenzsystem für ein Kraftfahrzeug
DE10149768A1 (de) 2001-10-09 2003-04-17 Ibeo Automobile Sensor Gmbh Sichtweitenbestimmung

Also Published As

Publication number Publication date
AU2003263131A8 (en) 2004-03-19
WO2004021546A3 (de) 2004-06-03
AU2003263131A1 (en) 2004-03-19
DE10392601D2 (de) 2005-02-03
WO2004021546A2 (de) 2004-03-11

Similar Documents

Publication Publication Date Title
DE10392601B4 (de) Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
EP2766237B1 (de) Vorrichtung zur unterstützung eines fahrers beim fahren eines fahrzeugs oder zum autonomen fahren eines fahrzeugs
EP1554604B1 (de) Verfahren und einrichtung zur verhinderung der kollision von fahrzeugen
DE102011088130B4 (de) Verfahren und Vorrichtung zur Erkennung einer Bremssituation
DE102016123878A1 (de) Fahrzeugblinksignaldetektion
DE112017006263T5 (de) Kollisionsvermeidungsvorrichtung für ein Fahrzeug und Kollisionsvermeidungsverfahren für dieses
DE102008004633A1 (de) Verfahren und Vorrichtung zur Erkennung und/oder Vermessung einer Parklücke
EP2594461B1 (de) Verfahren zum Erkennen einer Parklücke für ein Kraftfahrzeug, Parkhilfesystem und Kraftfahrzeug mit einem Parkhilfesystem
DE102014208673A1 (de) Verfahren und Verkehrsüberwachungseinrichtung zum Feststellen einer Falschfahrt eines Kraftfahrzeugs
EP2879116B1 (de) Verfahren und Vorrichtung zur Erkennung der Durchfahrtsmöglichkeit eines Fahrzeugs
WO2013091620A1 (de) Bestimmung eines höhenprofils einer fahrzeugumgebung mittels einer 3d-kamera
DE102019216348A1 (de) Fahrzeugunterstützungssystem
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
EP1028387B2 (de) Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung
DE102005003191A1 (de) Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
DE102010043829B4 (de) Optisches Abtastsystem und optisches Abtastverfahren
WO2009010334A1 (de) Fahrerassistenzvorrichtung
DE102016213377B4 (de) Verfahren zur Durchfahrtshöhenerkennung
DE102011080720A1 (de) Visualisierung einer Rampenabfahrt
EP1684094A2 (de) Optisches Triangulationsverfahren zur Abstandsbestimmung für Kraftfahrzeuganwendungen
EP3252502A1 (de) Verfahren zum erkennen einer neigung in einer fahrbahn eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102016118538A1 (de) Verfahren zum Klassifizieren eines Verkehrszeichens in einem Umgebungsbereich eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019000434A1 (de) Hinderniserfassungsvorrichtung für ein Fahrzeug sowie Verfahren zum Ausweichen eines Hindernisses für ein Fahrzeug
DE102019006243A1 (de) Verfahren zum Betrieb eines Abbiegeassistenzsystems, Abbiegeassistenzsystem und Kraftfahrzeug mit einem derartigen Abbiegeassistenzsystem