DE102004028763A1 - Andockassistent - Google Patents

Andockassistent Download PDF

Info

Publication number
DE102004028763A1
DE102004028763A1 DE102004028763A DE102004028763A DE102004028763A1 DE 102004028763 A1 DE102004028763 A1 DE 102004028763A1 DE 102004028763 A DE102004028763 A DE 102004028763A DE 102004028763 A DE102004028763 A DE 102004028763A DE 102004028763 A1 DE102004028763 A1 DE 102004028763A1
Authority
DE
Germany
Prior art keywords
destination
image data
motor vehicle
potential
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004028763A
Other languages
English (en)
Inventor
Ottmar Dr.-Ing. Gehring
Harro Dr.-Ing. Heilmann
Frederic Dipl.-Ing. Holzmann
Andreas Dr.-Ing. Schwarzhaupt
Gernot Dr.-Ing. Spiegelberg
Armin Dr.-Ing. Sulzmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE102004028763A priority Critical patent/DE102004028763A1/de
Priority to GB0510894A priority patent/GB2415252B/en
Priority to FR0551618A priority patent/FR2871772A1/fr
Priority to US11/154,772 priority patent/US7336805B2/en
Publication of DE102004028763A1 publication Critical patent/DE102004028763A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

In vielen alltäglichen Fahrsituationen ist ein Führer eines Kraftfahrzeuges gefordert, das Kraftfahrzeug entlang einer bestimmten Spur zu führen und dieses an einer bestimmten Stelle, beispielsweise in einer Parkbucht oder Laderampe, zum Halten bringen. Zur Unterstützung eines Fahrzeugführers in solchen Situationen beschreibt die Erfindung ein Verfahren und eine zur Durchführung dieses Verfahrens geeignete Vorrichtung, bei welcher die in den Bilddaten eines Bildsensors potentielle Zielobjekte detektiert und in einem mehrstufigen Ausschlussverfahren als mögliche Fahrziele identifiziert werden, worauf zumindest in Bezug auf das nächstliegende Fahrziel eine einen optimierten Fahrweg beschreibende Trajektorie berechnet wird. Durch die Verwendung des erfindungsgemäßen mehrstufigen Ausschlussverfahrens wird es möglich, potentielle Fahrziele in komplexen Bildszenarien auch dann zuverlässig allein anhand ihrer geometrischen Form zu erkennen, wenn die Fahrziele nicht mit spezifischen Symbolen codiert werden.

Description

  • Die Erfindung betrifft ein bilddaten-basiertes Verfahren zur Unterstützung der Fahrzeugführung, insbesondere bei der Ranggierfahrt von Lastkraftwagen zu Andockstationen, sowie eine zur Durchführung des Verfahrens geeignete Vorrichtung nach den Oberbegriffen der Patentansprüche 1 und 12.
  • In vielen alltäglichen Fahrsituationen ist ein Führer eines Kraftfahrzeuges gefordert, das Kraftfahrzeug entlang einer bestimmten Spur zu führen und dieses an einer bestimmten Stelle, beispielsweise in einer Parkbucht oder Laderampe, zum Halten zu bringen. Zur Unterstützung eines Fahrzeugführers in solchen Situationen beschreibt die JP 2001-343212 A ein kamerabasiertes System zur geführten Einfahrt in eine auf der Fahrbahn eingezeichnete Parkbucht. Das System macht sich hierbei zu Nutze, dass auf der Fahrbahn eingezeichnete Parkbuchten in der Regel rechts und links durch deutlich optisch wahrnehmbare Linien (Signaturen) begrenzt werden. In den von einer im Fahrzeug integrierten Kamera gewonnenen Bilddaten werden innerhalb einer Bildverarbeitungseinheit diese optischen Signaturen (Begrenzungslinien) identifiziert und deren Ausrichtung vermessen. Das es sich bei den optischen Signaturen um parallele Geraden handelt, bilden sich diese in den Kamerabilddaten auch wieder als Geraden ab, so dass deren Winkelablage gegenüber der x- und y-Achse des Kamerabildes einfach ermittelt werden kann. Aus den Winkelablagen beider Geradenstücke zueinander und der Kenntnis deren Beabstandung kann auf geometrisch einfache Weise der Abstand und die Ausrichtung des Fahrzeuges in Bezug auf die Parkbucht berechnet werden. Die Bilddaten werden dem Fahrzeugführer auf einer Anzeige dargestellt, wobei die Darstellung durch Richtungspfeile überlagert wird, welche angeben in wie weit und in welche Richtung das Fahrzeug zum Erreichen der Parkbucht gesteuert werden muss.
  • Entsprechend beschreiben die japanischen Patentanmeldungen JP 2002-172988 A und JP 2002-172989 A die Möglichkeit wie aus den mittels dem aus JP 2001-343212 A bekannten Bildverarbeitungssystem eine zumindest teil-autonome Fahrzeugführung in die Parkbucht erfolgen kann, indem die zum Einparken notwendige Fahrspur vorausberechnet wird. Die Auswertung der Bilddaten zur Lagebestimmung setzt jedoch gut einsehbare optische Signaturen (Begrenzungslinien) voraus, damit deren Winkelablage in den Bilddaten bestimmt werden kann. Insbesondere ist es für eine korrekte Lagebestimmung notwendig, dass die Anfangspunkte der optischen Signaturen auf der Fahrbahn eindeutig bestimmt werden können. Dies ist jedoch in der Realität auf Grund von Verschmutzungen und Abrieb der Fahrbahnmarkierungen nicht immer möglich.
  • Eine bezüglich Verdeckungen und Verschmutzungen der optischen Signaturen robuste kamerabasierte Positionserkennung und Spurregelung für Kraftfahrzeuge wird in der nachveröffentlichten deutschen Patentanmeldung DE 10323915.4 beschrieben. Hierbei erfolgt die Lagebestimmung des Kraftfahrzeuges in Bezug auf eine optische Signatur, welche das Fahrziel markiert, auf Basis eines Template-Matching auf den aus dem Umfeld des Kraftfahrzeuges gewonnenen Kamerabilddaten. Hierzu wird ein in einem Speicher abgelegtes Template einer optischen Signa tur mit der in den Bilddaten identifizierten optischen Signatur in der Umgebung des Fahrzeuges überlagert. Insbesondere aus den Stauchungs- und Rotationsparametern dieses Template-Matchings kann in Kenntnis der vorliegenden Koordinatensysteme direkt auf die Lage des Kraftfahrzeuges bezüglich der optischen Signatur geschlossen werden. Durch die Anwendung des Template-Matching auf das vorliegende Problem wird in besonders vorteilhafter Weise ausgenutzt, dass dieses Verfahren auch dann noch mit hoher Zuverlässigkeit arbeitet, wenn die optische Signatur in den Bilddaten auf Grund von Verdeckungen nicht vollständig einsehbar oder verschmutzt ist. Wie auch die anderen aus dem Stand der Technik bekannten Verfahren zur Unterstützung eines Kraftfahrzeugführers zur Heranfahrt an ein Fahrziel ist es bei dem in der DE 10323915.4 beschriebenen System notwendig das Fahrziel mit einer bestimmten, vorbekannten Signatur zu versehen. Um in den Bilddaten auch eindeutig identifiziert werden zu können ist die optische Signatur dabei so auszugestalten, dass sie eindeutig von anderen in der Umgebung enthaltenen tatsächlich gegebenen oder auch nur scheinbar vorhandenen optischen Signaturen unterscheidbar ist.
  • Aufgabe der Erfindung ist es deshalb, ein bilddaten-basiertes Verfahren zur Unterstützung der Fahrzeugführung, insbesondere bei der Ranggierfahrt von Lastkraftwagen zu Andockstationen, sowie eine zur Durchführung des Verfahrens geeignete Vorrichtung zu finden, welche auch ohne die Anbringung von spezifischen optischen Signaturen am Fahrziel arbeitet.
  • Die Aufgabe wird durch eine Vorrichtung und ein Verfahren für eine kamerabasierte Positionserkennung für ein Straßenfahrzeug mit den Merkmalen der Patentansprüche 1 und 12 gelöst.
  • Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.
  • Bei dem erfindungsgemäßen System zur bilddaten-basierten Unterstützung einer Fahrzeugführung eines Kraftfahrzeuges, insbesondere für die Ranggierfahrt von Lastkraftwagen zu Andockstationen, bestehend aus einem Verfahren und einer zur Durchführung dieses Verfahrens geeigneten Vorrichtung werden mittels eines bildgebenden Sensors Bilddaten aus der Umgebung eines Fahrzeuges gewonnen und hieraus die in Bezug auf das Kraftfahrzeug relativen Positionsparameter wenigsten eines potentiellen Fahrziels extrahiert. Infolge dessen werden zur Unterstützung einer nachfolgenden Fahrzeugführung für wenigstens eines der potentiellen Fahrziele eine einen optimierten Fahrweg beschreibende Trajektorie berechnet. In erfinderischer Weise werden hierbei zur Extraktion der relativen Positionsparameter des wenigstens einen potentiellen Fahrziels die Bilddaten einer Kantendetektion und Kantensegmentierung unterzogen. Dazu werden die Bilddaten in einzelne Kantensegmente zerlegt und deren Beziehungen zueinander in einer mathematischen Baumstruktur abgelegt. In einem nachfolgenden Schritt werden diese Kantensegmente sodann auf das Vorhandensein eines derart geometrischen Objektes hin untersucht wird, welches einer ein potentielles Fahrziel typischerweise zumindest teilweise beschreibenden geometrischen Form ähnlich ist. Handelt es sich bei dem typischen Fahrziel beispielsweise um eine Lastkraftwagen-Andockstation an einem Lagergebäude, entspricht die typische geometrische Form im wesentlichen um ein Rechteck mit annähernd identischen Seitenlängen von etwa 2,5 m. Im Rahmen des erfinderischen Verfahrens werden die aufgefundenen der typischen geometrischen Form entsprechenden geometrischen Objekte sodann mittels eines Matching-Algorithmus auf Plausibilität hin untersucht, wobei diese so als plausibel eingestuften Objekte einer weiteren Akzeptanzunter suchung dahingehend unterzogen werden, dass ausgehend von der Kenntnis der Abbildungseigenschaften des bildgebenden Sensors in Bezug auf dessen Umgebung, die Form der Abbildung der Objekte in den Bilddaten untersucht wird (so wird sich eine von einem erhabenen Standpunkt aus betrachtete typischer Weise rechteckige geometrische Form in den Bilddaten als ein sich nach oben verjüngendes Trapez abbilden). In einem abschließenden Verfahrensschritt wird zumindest dasjenige im Rahmen der Akzeptanzuntersuchung ermittelte Objekt, welches dem nächstliegenden Fahrziel entspricht mit den zugehörigen relativen Positionsdaten in einer Objektliste abgelegt und zumindest hierzu eine einen optimierten Fahrweg beschreibende Trajektorie berechnet.
  • Auf diese Weise lässt sich mittels der erfinderischen Vorrichtung und auf Grundlage des erfindungsgemäßen Verfahrens eine Fahrerunterstützung schaffen, welche allein in Kenntnis der geometrischen Erscheinung des Fahrziels ohne die Notwendigkeit der Anbringung spezifischer Zeichen und Markierungen die einen optimierten Fahrweg beschreibende Trajektorie zu zumindest dem nächstliegenden Fahrziel errechnet.
  • Nachfolgend wird anhand von vorteilhaften Ausführungsbeispielen und mit Hilfe von Figuren die Erfindung im Detail erläutert. Dabei zeigen:
  • 1 ein den Verfahrensablauf beschreibendes Blockdiagramm,
  • 2 schematisch eine erfindungsgemäße Kameraanordnung auf einem Lastkraftwagen und
  • 3 exemplarisch mit Hilfe der Kameraanordnung aus 2 aufgenommene Bilddaten.
  • Wie aus 1 deutlich wird, weist das erfindungsgemäße Verfahren im wesentlichen einen sequentiellen Ablauf auf, wobei in einem ersten Schritt mittels eines Bildsensor (10) Bilddaten aus der Umgebung eines Kraftfahrzeuges aufgenommen werden. Im allgemeinen wird es sich hierbei um einen Kamerasensor handeln, welcher Bilddaten im sichtbaren Lichtspektrum erfasst. Sehr wohl ist es aber auch denkbar, dass es sich bei dem Bildsensor (20) um einen im wesentlichen nicht sichtbaren Wellenlängenbereich, insbesondere im infraroten oder im ultravioletten Wellenlängenbereich, arbeitenden Bildsensor handelt. Die Verwendung eines solchen Bildsensors hat den Vorteil, dass das zu erfassende Umfeld des Kraftfahrzeuges aktiv mittels Licht in diesem Wellenlängenbereich ausstrahlenden Scheinwerfern beleuchtet werden könnte, ohne dass sich dort befindliche Objekte oder Personen geblendet würden. Andererseits kann im Rahmen der Erfindung auch ein Millimeterwellen-Radar oder ein Lidar als Bildsensor (10) verwendet werden.
  • Die vom Bildsensor (10) erzeugten Bilddaten werden in einer Bildverarbeitungseinheit (11) weiterverarbeitet, wobei diese insbesondere einen Kantendetektor und -segmentier umfasst, mit dessen Hilfe die Bilddaten so aufbereitet werden, dass zumindest für ein potentielles Fahrziel die relativen Positionsparameter aus den Bilddaten extrahiert werden können. Dabei werden in vorteilhafter Weise die extrahieren Kanten und Segmente im Wissen um deren Position und Lage in den Bilddaten in einer hierarchisch organisierten Baumstruktur abgelegt. Zur Anlage und Organisation einer derartigen hierarchischen Baumstruktur stehen dem Fachmann eine Vielzahl unterschiedlicher bewährte Methoden zur Verfügung, beispielhaft sei hier auf die umfassende Zusammenstellung und Diskussion unterschiedlichster Baumstrukturen von Robert Sedgewick (R. Sedgewick, Algorithms in C, Kapitel 4, Addision-Wesley Pub. Comp. Inc., 1990) verwiesen. Auf Basis des Wissens um die geometrische Erscheinungsform eines Fahrzieles kann nun diese hierarchische Baumstruktur in einer der Bildverarbeitungseinheit (11) nachgeschalteten Einheit (12) abgearbeitet werden, um dem potentiellen Fahrziel typischer Weise entsprechende geometrische Formen aufzufinden. Diese Untersuchung auf das Vorhandensein eines einem potentiellen Fahrziel typischerweise entsprechenden geometrischen Objektes in die Bilddaten erfolgt auf Basis der hierarchischen Baumstruktur, wobei hierzu in gewinnbringender Weise ein aus dem Stand der Technik bekannter Baumtraversionsalgorithmus (Tree Traversal) verwendet werden kann. Bei einem Baumtraversionsalgorithmus werden ausgehend vom Anfangsknoten des Baumes die einzelnen Zweige Schritt für Schritt abgearbeitet (R. Sedgewick, Algorithms in C, Kapitel 5.6, Addision-Wesley Pub. Comp. Inc., 1998). Hierbei werden ausgehend vom Wissen um die typische geometrische Form eines Fahrzieles die in Parameter der in den Ästen des hierarchischen Baumes abgelegten Kanten und Segmente dahingehend untersucht, ob diese zu geeigneten typischen Fahrziele beschreibenden geometrischen Objekten zusammen gefügt werden können. Weist das Fahrziel beispielsweise eine quadratische Form auf, so werden nur derartige Kantenelemente oder -segmente zu einem Objekt gruppiert, bei welchen die angrenzenden Seitenflächen im wesentlichen einen rechten Winkel aufweisen und die abstände zu den jeweiligen gegenüberliegenden Seitenpaare jeweils in etwa den selben Wert aufweisen. Indem bei der Abarbeitung der hierarchischen Baumstruktur bereits derartige elementare Regeln beachtet werden, kann bereits mit dieser Stufe des erfinderischen Verfahrens der nachfolgende Verarbeitungsaufwand auf relativ wenige plausible, einem potentiellen Fahrziel tatsächlich ähnliche Objekte beschränkt werden. Derartiger Auswahlregeln im Rahmen des Baumtraversionsalgorithmus lassen sich im allgemeinen sehr gut bestimmen, da typische Fahrziele meist künstliche, architektonische Objekte betrifft, welche in der Regel eine rechteckige, insbesondere quadratische, oder aber runde Form aufweisen.
  • Die mittels des Baumtraversionsalgorithmus in Verbindung mit den aus der geometrischen Form des Fahrzieles abgeleiteten Regeln zusammengefügten geometrischen Objekte werden einer weiteren Akzeptanzanalyse unterzogen. Hierbei werden die Bilddaten in einer Vergleichseinheit (13) mit Hilfe eines Matching-Algorithmus mit in einem Speicher (17) abgelegten das Fahrziel beschreibende Objektmustern verglichen. Als Matching-Algorithmus eignet sich hierbei in besonders vorteilhafter Weise der IPC-Algorithmus (Besl, P.J., McKay, N.D., A method for registration of 3-D shapes, IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 14, No. 2, 1992, pp. 224–231). Mit Hilfe des iterativen IPC-Algorithmus wird es möglich die mittels des Baumtraversionsalgorithmus ermittelten Objekte so zu skalieren und zu drehen, das der quadratische Fehler in Bezug auf die Abweichung des Objektes von dem idealen Objektmuster des Fahrzieles minimiert wird. Aus den zur Skalierung und Ausrichtung (insbesondere Drehung) resultierenden Parametern lässt sich auf einfache Weise auch die Entfernung zu dem potentiellen Fahrziel schätzen. An dieser Stelle sei beispielhaft kurz der iterative Ablauf des IPC-Algorithmus erläutert:
    P bezeichne die Position des Objektmusters im Raum. Die Abweichung zwischen dem hinterlegten Objektmuster und dem mittels des Baumtraversionsalgorithmus gefundenen und zu einem Objekt gruppierten Segmenten wird mit ei bezeichnet. Die Iterationsschritte tragen die Bezeichnung n. Für den nachfolgenden Korrekturfaktor cj muss somit folgen Pn+1 = Pn – cj. Die hierzu entsprechende Jakobi-Matrix Jij ist hierbei definiert als
    Figure 00090001
  • Durch lineare Annäherung ergibt sich Jij·cj = ei. Im Rahmen der Iteration muss der optimale Vektor, welcher die notwendige Skalierung und Drehung des mittels des Baumtraversionsalgorithmus ermittelten Objektes beschreibt, die Gleichung
    Figure 00090002
    erfüllen. Dieser IPC-Algorithmus wird hierbei durch die Iterationsschritte stabilisiert und weist eine übersteuerte Konvergenz auf.
  • Die in der Vergleichseinheit (13) mittels dem Matching-Algorithmus skalierten und ausgerichteten (gedrehten) Objekte werden nachfolgen in Einheit (15) einer weiteren Akzeptanzuntersuchung unterzogen. Bei einer besonders vorteilhaften Art der Akzeptanzuntersuchung wird in denjenigen Fällen in welchen die Umgebung durch den Sensor von einer erhöhten Position aus erfasst wird, diejenigen Objekte als potentielle Fahrziele verworfen, welche in Bezug auf deren typischen geometrischen Formen, keine verzerrte Abbildungen aufweisen. Wobei sich die Verzerrung bei rechteckigen oder quadratischen geometrischen Formen der potentielles Fahrziele in einer Abbildung als Trapezoid äußert. In einer weiteren gewinnbringenden Art der Akzeptanzuntersuchung werden auf Grundlage von Wissen über die übliche Position von Fahrzielen in den Bilddaten nicht diesen Vorgaben entsprechende Objekte verworfen. Befindet sich beispielsweise eine Objekt in den Bilddaten, dessen relative Position in bezug auf den bildgebenden Sensor bekannt ist, so kann auf Grundlage von dessen Abbildung in den Bilddaten ein künstlicher Horizont erzeugt werden von dem ausgehend die Relativlage der erkannten Objekte ermittelt wird. Auf diese Weise lassen sich Objekte, welche sich in einer von der gewöhnlichen Position des Fahrziels abweichenden Stelle befinden von der weiteren Verarbeitung ausschließen.
  • Von den nach der Akzeptanzuntersuchung verbliebenen, einem potentiellen Fahrziel entsprechenden geometrischen Objekten, werden wenigstens die Parameter (insbesondere Lage und Entfernung) desjenigen Objektes in einer Speichereinheit (18) abgelegt, welches dem nächstliegenden Fahrziel entspricht. Zumindest für dieses Objekt kann sodann in einer mit der Speichereinheit (18) in Verbindung stehenden Recheneinheit (15) die einen optimierten Fahrweg zu dem potentiellen Fahrziel beschreibende Trajektorie berechnet werden. In besonders vorteilhafter Weise wird bei der Berechnung einer einen optimierten Fahrweg beschreibenden Trajektorie die Lenkeigenschaften und -möglichkeiten des Kraftfahrzeugs beachtet. Hierzu sollte die erfindungsgemäße Vorrichtung über einen Speicher, in welchem die hierzu notwendigen Daten abgelegt sind, verfügen. Andererseits wäre es denkbar die Vorrichtung mit einer Eingabeeinheit zur Eingabe der die Lenkeigenschaften und -möglichkeiten des Kraftfahrzeuges beschreibenden Parameter zu versehen. Hierdurch wird es auf einfache Weise möglich, das Berechungsprogramm an unterschiedliche Ausgestaltungen (andere Aufbauten oder Anhänger) anzupassen. In diesem sollten im Rahmen der Berechnung der einen optimierten Fahrweg beschreibenden Trajektorie auch diejenigen potentiellen Fahrziele verworfen werden, welche unter Beachtung der gegebenen Lenkeigenschaften und -möglichkeiten des Kraftfahrzeugs nicht erreicht werden können.
  • Die so berechneten Trajektorien können sodann nachfolgenden Assistenzsystemen zur Fahrerunterstützung (16) zur Verfügung gestellt werden. Hierbei wird in besonders vorteilhafter Weise das erfindungsgemäße Verfahren so ausgestaltet, dass der Führer des Kraftfahrzeuges über die Position wenigstens eines der potentiellen Fahrziele und insbesondere den Verlauf der hierzu errechneten einen optimierten Fahrweg beschreibenden Trajektorie informiert wird. Diese Information kann über eine Anzeige der idealen Trajektorie auf einem Display erfolgen, wobei hierbei in idealer Weise das Blickfeld des Fahrers repräsentierende Kamerabilddaten symbolisch mit der Trajektorie der geplanten Fahrspur überlagert werden.
  • Selbstverständlich kann im folgenden die Fahrzeugführung auf Grundlage der errechneten Trajektorie zu dem nächstliegenden Fahrziel automatisch oder zumindest teil-automatisch erfolgen. Bei einer teil-automatischen oder manuellen Fahrzeugführung wäre es beispielsweise denkbar ein Abweichen des Fahrzeugs von der optimalen den Fahrweg beschreibenden Trajektorie durch akustische oder optische Signalmittel anzuzeigen. Auf diese Weise kann der Fahrzeugführer auf einfache Weise bei der Einhaltung der Spurführung unterstützt werden.
  • Im Verlauf der Spurführung ist es besonders vorteilhaft, wenn die Trajektorie mit Hilfe eines Kalmanfilters und auf Grundlage kontinuierlicher Bildauswertung ständig neu angepasst wird (Temporal Updating) um auf die Berechnung einwirkende Störeffekte in den Bilddaten weitgehend zu eliminieren.
  • Auch sollte während der Fahrzeugführung kontinuierlich die Lage der in der Objektliste als potentielle Fahrziele abgelegten Objekte verfolgt werden, so dass in dem Fall, dass das ursprünglich nächstliegende Fahrziel auf Grund von Gegeben heiten nicht mehr problemlos erreicht werden kann, dasjenige potentielle Fahrziel als neues nächstliegendes Fahrziel ausgewählt wird, welches ausgehend von der aktuellen Position des Kraftfahrzeuges unter Berücksichtung dessen Lenkeigenschaften und -möglichkeiten am besten erreicht werden kann. Wird auf derartige Weise ein neues Fahrziel als dem Fahrzeug nächstliegendes Ziel bestimmt, so muss ausgehend von der aktuellen Position eine optimierten Fahrweg beschreibende Trajektorie zu diesem Fahrziel erfolgen.
  • In 2 ist beispielhaft eine typische Situation dargestellt, wie sie beim Andocken eines Lastkraftwagens (20) an eine Ladeluke (26, 32) eines Lagerhauses (25, 31) gegeben sein könnte. Hierbei ist der bildgebende Sensor (22) oberhalb der Führerkabine (21) des Lastkraftwagens (20) befestigt. Der Bildsensor (22) ist hierbei so ausgerichtet, dass in Fahrrichtung (27) des Lastkraftwagens (20) dessen Laderampe (23, 35) sowie dessen Laderampenabschluss (24, 36), als auch das Lagerhaus (25, 30) und die darin befindliche Ladeluke (26, 32) erfassen kann. Die aus einer entsprechenden Bilddatenerfassung resultierenden Bilddaten (30) sind in 3 schematisch dargestellt. Durch die erhabene Position des Bildsensors (22) zeigt bildet sich die eine rechteckförmige Geometrie aufweisende Ladeluke (26, 32) als Trapezoid in den Bilddaten ab. Beispielhaft sei angenommen, dass nach Abarbeitung der Bilddaten in der Bildverarbeitungseinheit (11) und des Baumtraversionsalgorithmus in der Einheit (12) die Objekte 32, 33, 34a und 34b als einem potentiellen Fahrziel typischerweise entsprechenden geometrischen Objektes identifiziert wurden. Objekt 32 entspreche dem Abbild der als Fahrziel gesuchten Ladeluke (26). Objekt 33 entspricht einer anderen rechteckigen Struktur, beispielsweise einem Fenster, am Lagerhaus (25, 31). Die scheinbaren Objekte 34a und 34b stellen keine Abbilder realer Objekte dar, sondern resultieren aus Störungen in den Bilddaten, welche zufällig in derartigen Kantenabschnitten und Segmenten resultieren, dass sie durch den Baumtraversionsalgorithmus zu einem potentiellen Zielobjekt zusammengeführt wurden. In der Vergleichseinheit (13) würden diese Objekte mittels eines Matching-Algorithmus sodann skaliert und ausgerichtet. Im Rahmen der nachgeordneten Einheit zur Akzeptanzuntersuchung würden jedoch die Objekte 34a und 34b in Kenntnis der Kameraposition und Kameraabbildungsgeometrie eliminiert, da sie keine trapezoide Form aufweisen. Des weiteren kann bei der Akzeptanzuntersuchung die Abbildung des Laderampenabschlusses(36) in Kenntnis seiner relativen Lage zur Kameraposition zur Bildung eines künstlichen Horizonts herangezogen werden. Auf Basis dieses künstlichen Horizontes kann sodann auch das Objekt 33 eliminiert werden, da es sich in einer für das Fahrziel (Ladeluke) ungewöhnlichen Position (weit oberhalb des Horizontes) befindet. Nach Abarbeitung der einzelnen erfindungsgemäßen Verfahrensschritte verbleibt in diesem Beispiel somit einzig Objekt 32 als potentielles Fahrziel, so dass dessen Parameter im Zielspeicher (18) abgelegt werden und zur Berechnung der einen optimierten Fahrweg beschreibenden Trajektorie herangezogen werden können.

Claims (17)

  1. Verfahren zur bilddaten-basierten Unterstützung einer Fahrzeugführung eines Kraftfahrzeuges, insbesondere für die Ranggierfahrt von Lastkraftwagen zu Andockstationen, bei welchem mittels eines bildgebenden Sensors Bilddaten aus der Umgebung des Kraftfahrzeuges gewonnen werden, wobei aus der gewonnenen Bilddaten die in Bezug auf das Kraftfahrzeug relativen Positionsparameter wenigstens eines potentiellen Fahrzieles extrahiert werden, und infolge dessen zur Unterstützung einer nachfolgenden Fahrzeugführung für wenigstens eines der potentiellen Fahrziele eine einen optimierten Fahrweg beschreibende Trajektorien berechnet wird, dadurch gekennzeichnet, dass zur Extraktion der relativen Positionsparameter des wenigstens einen potentiellen Fahrziels die Bilddaten einer Kantendetektion und Kantensegmentierung unterzogen werden, um die Bilddaten in einzelne Kantensegmente zu zerlegen, deren Beziehungen zueinander in einer mathematischen Baumstruktur abgelegt werden, dass nachfolgend diese Kantensegmente auf das Vorhandensein eines derart geometrisches Objektes hin untersucht werden, welches einer ein potentielles Fahrziel typischerweise zumindest teilweise beschreibenden geometrischen Form ähnlich ist, dass die aufgefundenen der typischen geometrischen Form entsprechenden geometrischen Objekte mittels eines Matching-Algorithmus auf Plausibilität hin untersucht werden, dass diese plausiblen Objekte einer weiteren Akzeptanzuntersuchung dahingehend unterzogen werden, dass ausgehend von der Kenntnis der Abbildungseigenschaften des bildgebenden Sensors in Bezug auf dessen Umgebung, die Form der Abbildung der Objekte in den Bilddaten untersucht wird, und dass abschließend zumindest dasjenige so akzeptierte Objekt, welches dem nächstliegende Fahrziel entspricht mit den zugehörigen relativen Positionsdaten in einer Objektliste abgelegt wird und zumindest hierzu eine einen optimierten Fahrweg beschreibende Trajektorie berechnet wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Untersuchung der Bilddaten auf das Vorhandensein eines derart geometrisches Objektes, welches einer ein potentielles Fahrziel typischerweise zumindest teilweise beschreibenden geometrischen Form ähnlich ist, dergestalt erfolgt, dass die mathematischen Baumstruktur, in welcher die Kantensegmente und deren Beziehungen zueinander abgelegt sind, ein Baumtraversionsalgorithmus (Tree Traversal) abgearbeitet wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es sich bei den ein potentielles Fahrziel beschreibenden typischen geometrischen Objekten um Rechtecke oder Quadrate handelt.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Matching-Algorithmus zur Plausibilitätsuntersuchung der aufgefundenen der typischen Formen entsprechenden geometrischen Objekte der IPC-Algorithmus verwandt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die die Abbildungseigenschaften des bildgebenden Sensors berücksichtigende Akzeptanzuntersuchung in denjenigen Fällen, in welchen die Umgebung durch den Sensor von einer erhöhten Position aus erfasst wird, diejenigen Objekte als potentielle Fahrziele verwirft, welche in Bezug auf die typischen geometrischen Formen, keine Verzerrte Abbildungen aufweisen, wobei sich ein rechteckiges oder quadratisches potentielles Fahrziel in den Bilddaten als Trapezoid abbildet.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Berechnung der einen optimierten Fahrweg beschreibenden Trajektorie die Lenkeigenschaften und -möglichkeiten des Kraftfahrzeugs beachtet werden.
  7. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass diejenigen potentiellen Fahrziele verworfen werden, welche unter Beachtung der gegebenen Lenkeigenschaften und -möglichkeiten des Kraftfahrzeugs nicht erreicht werden können.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Führer des Kraftfahrzeuges über die Position wenigstens eines der potentiellen Fahrziele und insbesondere den Verlauf der hierzu errechneten einen optimierten Fahrweg beschreibenden Trajektorie informiert wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf Grundlage der errechneten Trajektorien eine zumindest teil-automatische Fahrzeugführung zu dem nächstliegenden Fahrziel erfolgt.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Fahrzeugführer bei der Fahrzeugführung zu dem nächstliegenden Fahrziel durch akustische und/oder optische Signalisierung bei der Einhaltung der eine optimierte Fahrspur beschreibenden Trajektorie unterstützt wird.
  11. Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass während Fahrzeugführung kontinuierlich die Lage der in der Objektliste als potentielle Fahrziele abgelegten Objekte verfolgt wird, und dass in dem Fall, dass das ursprünglich nächstliegende Fahrziel auf Grund der Gegebenheiten nicht mehr problemlos erreicht werden kann, dasjenige potentielle Fahrziel als neues nächstliegendes Fahrziel ausgewählt wird, welches ausgehend von der aktuellen Position des Kraftfahrzeuges unter Berücksichtung dessen Lenkeigenschaften und -möglichkeiten am besten erreicht werden kann, und dass sodann ausgehend von der aktuellen Position des Kraftfahrzeuges eine einen optimierten Fahrweg beschreibende Trajektorie zu dem als neues nächstliegendes Fahrziel ausgewähltes Fahrziel erfolgt.
  12. Vorrichtung zur bilddaten-basierten Unterstützung einer Fahrzeugführung eines Kraftfahrzeuges, insbesondere für die Ranggierfahrt von Lastkraftwagen zu Andockstationen, umfassend einen bildgebenden Sensor (10, 22) zur Gewinnung von Bilddaten aus der Umgebung des Kraftfahrzeuges, eine Bildverarbeitungseinheit (11) zur Extraktion von in Bezug auf das Kraftfahrzeug relativen Positionsparameter wenigstens eines potentiellen Fahrzieles aus den Bilddaten, eine Recheneinheit (15) zur Berechung wenigstens einer den optimierten Fahrweg zu einem der potentiellen Fahrziele beschreibenden Trajektorie und einer Assistenzsystem (16) zur Unterstützung bei der Fahrzeugführung zu einem der Fahrziele, dadurch gekennzeichnet, dass die Bildverarbeitungseinheit (11) einen Kantendetektor und -segmentierer umfasst, welcher die relativen Positionsparameter des wenigstens einen potentiellen Fahrziels aus den Bilddaten extrahiert, dass sich dem Kantendetektor und -segmentierer eine Einheit (12) zum Auffinden von dem potentiellen Fahrziel typischer Weise zumindest teilweise entsprechenden geometrischen Formen aufweisenden Objekte in den Bilddaten anschließt, dass die Bildverarbeitungseinheit des weiteren eine Vergleichseinheit (13) beihaltet, mittels welcher die aufgefundenen der typischen geometrischen Form entsprechenden geometrischen Objekte mittels eines Matching-Algorithmus, unter Vergleich mit in einer Speichereinheit (17) abge legten Objektmustern, auf Plausibilität hin untersucht werden, dass eine Einheit zur Akzeptanzuntersuchung (14) der mittels des Vergleichs selektierter geometrischer Objekte vorhanden ist, mittels welcher, ausgehend von der Kenntnis der Abbildungseigenschaften des bildgebenden Sensors in Bezug auf dessen Umgebung, die Form der Abbildung der Objekte in den Bilddaten untersucht wird, und dass die Vorrichtung mit einem Datenspeicher (18) in Verbindung steht, in welchem zumindest dasjenige in den Bilddaten aufgefundene geometrische Objekt, welches dem nächstliegende Fahrziel entspricht mit den zugehörigen relativen Positionsdaten in einer Objektliste abgelegt wird und sodann einer hiermit in Verbindung stehenden Recheneinheit (15) dieses Datum zur Berechnung der einen optimierten Fahrweg beschreibende Trajektorie übergibt, welche diese Daten einem nachfolgenden Assistenzsystem zur Fahrerunterstützung (16) zur Verfügung stellt.
  13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass es sich bei dem bildgebenden Sensor um eine Kamera, einen Laserscanner oder ein Millimeterwellen-Radar handelt.
  14. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der bildgebende Sensor (10, 22) an einer Stelle am Fahrzeug angebracht ist, aus welcher er denjenigen für die Fahraufgabe relevanten Teil der Umgebung des Kraftfahrzeuges aus erhöhter Position betrachten kann.
  15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass der bildgebende Sensor so angebracht ist, dass sich in den hiermit erfassten Bilddaten zumindest ein Teil (23, 24) des Kraftfahrzeuges abbildet.
  16. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Vorrichtung mit den Lenk- und/oder Beschleunigungs- und/oder Bremseinrichtungen des Kraftfahrzeuges so in Verbindung steht, dass sie auf diese zumindest teilautonom einwirken kann.
  17. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Vorrichtung zur Kommunikation mit einem Führer des Kraftfahrzeuges über optische und akustische Ausgabemittel verfügt.
DE102004028763A 2004-06-16 2004-06-16 Andockassistent Withdrawn DE102004028763A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102004028763A DE102004028763A1 (de) 2004-06-16 2004-06-16 Andockassistent
GB0510894A GB2415252B (en) 2004-06-16 2005-05-27 Docking assistant
FR0551618A FR2871772A1 (fr) 2004-06-16 2005-06-15 Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images
US11/154,772 US7336805B2 (en) 2004-06-16 2005-06-16 Docking assistant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004028763A DE102004028763A1 (de) 2004-06-16 2004-06-16 Andockassistent

Publications (1)

Publication Number Publication Date
DE102004028763A1 true DE102004028763A1 (de) 2006-01-19

Family

ID=34833290

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004028763A Withdrawn DE102004028763A1 (de) 2004-06-16 2004-06-16 Andockassistent

Country Status (4)

Country Link
US (1) US7336805B2 (de)
DE (1) DE102004028763A1 (de)
FR (1) FR2871772A1 (de)
GB (1) GB2415252B (de)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006006377A1 (de) * 2006-02-11 2007-08-16 Continental Teves Ag & Co. Ohg Vorrichtung zur Lenkung eines Kraftfahrzeugs beim Einparken
DE102006025698A1 (de) * 2006-06-01 2007-12-06 Alois Pöttinger Maschinenfabrik Gmbh Verfahren und Vorrichtung zur Steuerung des Anspannens einer Landmaschine an einen Schlepper
DE102006035929A1 (de) * 2006-07-31 2008-02-07 Daimler Ag Verfahren zum sensorgestützten Unterfahren eines Objekts bzw. zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE102008001565A1 (de) * 2008-05-06 2009-11-12 Zf Friedrichshafen Ag Anhänger mit zumindest einer Achse und einer Sattelkupplung zur Aufnahme eines Sattelaufliegers
DE102011086391A1 (de) * 2011-11-15 2013-05-16 Robert Bosch Gmbh Vorrichtung und Verfahren zum Verbessern des Ankuppelvorgangs eines Fahrzeugs mit einer Anhängerkupplung
DE102012022336A1 (de) * 2012-11-14 2014-05-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
DE102004047214B4 (de) * 2004-09-27 2016-02-25 Still Gmbh Verfahren zur Navigation für Transportfahrzeuge
DE102018002485A1 (de) 2018-03-26 2018-09-20 Daimler Ag Verfahren zum rückwärtigen Anfahren einer Laderampe
DE102020214579A1 (de) 2020-11-19 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Computer-implementiertes Verfahren und Steuergerät zum sensorgestützten Unterfahren eines Objektes mit einem Nutzfahrzeug mithilfe Methoden künstlicher Intelligenz
DE102022118083A1 (de) 2022-07-19 2022-09-08 Daimler Truck AG Verfahren zur Bestimmung eines Abstands zwischen einem Kraftfahrzeug und einer Laderampe sowie eine elektronische Recheneinrichtung
DE102022118412A1 (de) 2022-07-22 2022-09-29 Daimler Truck AG Verfahren zum Bestimmen eines Abstands eines Kraftfahrzeugs und einer Wand mittels eines Assistenzsystems, sowie Assistenzsystem
DE102023102756A1 (de) 2023-02-06 2023-04-20 Daimler Truck AG Verfahren zur Bestimmung eines Abstands zwischen einem Kraftfahrzeug und einer Laderampe sowie elektronische Recheneinrichtung
DE102023103479A1 (de) 2023-02-14 2023-05-04 Daimler Truck AG Verfahren zur Ermittlung einer Höhe eines Trailers eines Kraftwagens sowie elektronische Recheneinrichtung

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI117835B (fi) * 2005-06-22 2007-03-15 Sime Oy Paikoitusmenetelmä
JP4622806B2 (ja) * 2005-10-27 2011-02-02 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
SE534240C2 (sv) * 2008-12-05 2011-06-14 Datachassi Dc Ab Förfarande och system för tillhandahållande av dockningshjälp
US9350799B2 (en) 2009-10-03 2016-05-24 Frank C. Wang Enhanced content continuation system and method
US8938497B1 (en) 2009-10-03 2015-01-20 Frank C. Wang Content delivery system and method spanning multiple data processing systems
US8412798B1 (en) 2009-10-03 2013-04-02 Frank C. Wang Content delivery system and method
JP5010715B2 (ja) * 2010-06-17 2012-08-29 トヨタ自動車株式会社 車両の駐車支援装置およびそれを備える電動車両
DE102012003992A1 (de) * 2012-02-28 2013-08-29 Wabco Gmbh Zielführungssystem für Kraftfahrzeuge
US9288446B2 (en) 2012-09-10 2016-03-15 Nissan North America, Inc. Vehicle video system
US9305364B2 (en) 2013-02-19 2016-04-05 Caterpillar Inc. Motion estimation systems and methods
US9342747B2 (en) * 2014-04-14 2016-05-17 Bendix Commercial Vehicle Systems Llc Vehicle driver assistance apparatus for assisting a vehicle driver in maneuvering the vehicle relative to an object
SE540315C2 (en) * 2016-03-22 2018-06-12 Scania Cv Ab Method and system for facilitating automatic driving of a vehicle to a certain position
US10339392B2 (en) * 2017-06-15 2019-07-02 Blackberry Limited Method and system for rear status detection
CN110897567A (zh) * 2018-12-13 2020-03-24 成都家有为力机器人技术有限公司 一种基于目标物识别的清洁方法及清洁机器人
DE102020106304A1 (de) * 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Steuern eines Fahrzeuges auf einem Betriebshof, Fahrt- Steuereinheit und Fahrzeug

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6084610A (ja) * 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置
US4906940A (en) * 1987-08-24 1990-03-06 Science Applications International Corporation Process and apparatus for the automatic detection and extraction of features in images and displays
JP2570315B2 (ja) * 1987-09-01 1997-01-08 アイシン精機株式会社 車上距離検出装置
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
US5684696A (en) * 1990-02-05 1997-11-04 Caterpillar Inc. System and method for enabling an autonomous vehicle to track a desired path
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
JP2800531B2 (ja) * 1992-02-28 1998-09-21 三菱電機株式会社 車両用障害物検出装置
US5351044A (en) * 1992-08-12 1994-09-27 Rockwell International Corporation Vehicle lane position detection system
JPH06213660A (ja) * 1993-01-19 1994-08-05 Aisin Seiki Co Ltd 像の近似直線の検出方法
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
JP3431962B2 (ja) * 1993-09-17 2003-07-28 本田技研工業株式会社 走行区分線認識装置を備えた自動走行車両
JP3064759B2 (ja) * 1993-09-28 2000-07-12 株式会社日立製作所 車両の周囲を監視する装置、車両の運転支援システムおよび運転支援装置
DE4336288C1 (de) * 1993-10-25 1995-03-30 Daimler Benz Ag Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
JP3357749B2 (ja) * 1994-07-12 2002-12-16 本田技研工業株式会社 車両の走行路画像処理装置
FR2743650B1 (fr) * 1996-01-16 1998-02-06 Alsthom Cge Alcatel Procede d'extraction des deux bords d'une route par propagation de contour actif
US5991427A (en) * 1996-07-31 1999-11-23 Aisin Seiki Kabushiki Kaisha Method and apparatus for detecting a lane on a road
US5844505A (en) * 1997-04-01 1998-12-01 Sony Corporation Automobile navigation system
EP1019884B1 (de) * 1997-09-30 2001-08-08 Siemens Aktiengesellschaft Verfahren und vorrichtung zur automatisch unterstützen führung von luftfahrzeugen zu einer parkposition und managementsystem hierfür
DE29723648U1 (de) 1997-09-30 1999-04-22 Siemens Ag Vorrichtung zur automatisch unterstützten Führung von Luftfahrzeugen zu einer Parkposition und Managementsystem hierfür
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
US6507660B1 (en) * 1999-05-27 2003-01-14 The United States Of America As Represented By The Secretary Of The Navy Method for enhancing air-to-ground target detection, acquisition and terminal guidance and an image correlation system
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP4799722B2 (ja) 2000-05-31 2011-10-26 アイシン精機株式会社 相対位置検出装置を備えた駐車補助装置
US6894606B2 (en) * 2000-11-22 2005-05-17 Fred Forbes Vehicular black box monitoring system
JP2002172988A (ja) 2000-12-05 2002-06-18 Mitsubishi Motors Corp 駐車補助装置
JP2002172989A (ja) 2000-12-05 2002-06-18 Mitsubishi Motors Corp 駐車補助装置
US20020130953A1 (en) * 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
DE10141464A1 (de) 2001-08-23 2004-03-04 Genprofile Ag I.Ins. Sequenzvarianten des für neuropsychiatrische Krankheiten verantwortlichen Gens 22444 und deren Verwendung
US6952488B2 (en) * 2001-08-27 2005-10-04 Carnegie Mellon University System and method for object localization
WO2003029046A1 (en) * 2001-10-03 2003-04-10 Maryann Winter Apparatus and method for sensing the occupancy status of parking spaces in a parking lot
JP2003123196A (ja) * 2001-10-10 2003-04-25 Denso Corp 車両の周辺監視装置及びプログラム
US6794987B2 (en) * 2002-07-01 2004-09-21 Delphi Technologies, Inc. Object detection system and method of estimating object size
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
DE10323915A1 (de) * 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004047214B4 (de) * 2004-09-27 2016-02-25 Still Gmbh Verfahren zur Navigation für Transportfahrzeuge
DE102006006377A1 (de) * 2006-02-11 2007-08-16 Continental Teves Ag & Co. Ohg Vorrichtung zur Lenkung eines Kraftfahrzeugs beim Einparken
DE102006025698A1 (de) * 2006-06-01 2007-12-06 Alois Pöttinger Maschinenfabrik Gmbh Verfahren und Vorrichtung zur Steuerung des Anspannens einer Landmaschine an einen Schlepper
DE102006035929A1 (de) * 2006-07-31 2008-02-07 Daimler Ag Verfahren zum sensorgestützten Unterfahren eines Objekts bzw. zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE102006035929B4 (de) * 2006-07-31 2013-12-19 Götting KG Verfahren zum sensorgestützten Unterfahren eines Objekts oder zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE102008001565A1 (de) * 2008-05-06 2009-11-12 Zf Friedrichshafen Ag Anhänger mit zumindest einer Achse und einer Sattelkupplung zur Aufnahme eines Sattelaufliegers
DE102011086391A1 (de) * 2011-11-15 2013-05-16 Robert Bosch Gmbh Vorrichtung und Verfahren zum Verbessern des Ankuppelvorgangs eines Fahrzeugs mit einer Anhängerkupplung
DE102012022336A1 (de) * 2012-11-14 2014-05-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
US9656691B2 (en) 2012-11-14 2017-05-23 Valeo Schalter Und Sensoren Gmbh Method for performing an at least semi-autonomous parking process of a motor vehicle in a garage, parking assistance system and motor vehicle
DE102018002485A1 (de) 2018-03-26 2018-09-20 Daimler Ag Verfahren zum rückwärtigen Anfahren einer Laderampe
DE102020214579A1 (de) 2020-11-19 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Computer-implementiertes Verfahren und Steuergerät zum sensorgestützten Unterfahren eines Objektes mit einem Nutzfahrzeug mithilfe Methoden künstlicher Intelligenz
DE102022118083A1 (de) 2022-07-19 2022-09-08 Daimler Truck AG Verfahren zur Bestimmung eines Abstands zwischen einem Kraftfahrzeug und einer Laderampe sowie eine elektronische Recheneinrichtung
DE102022118412A1 (de) 2022-07-22 2022-09-29 Daimler Truck AG Verfahren zum Bestimmen eines Abstands eines Kraftfahrzeugs und einer Wand mittels eines Assistenzsystems, sowie Assistenzsystem
DE102023102756A1 (de) 2023-02-06 2023-04-20 Daimler Truck AG Verfahren zur Bestimmung eines Abstands zwischen einem Kraftfahrzeug und einer Laderampe sowie elektronische Recheneinrichtung
DE102023103479A1 (de) 2023-02-14 2023-05-04 Daimler Truck AG Verfahren zur Ermittlung einer Höhe eines Trailers eines Kraftwagens sowie elektronische Recheneinrichtung

Also Published As

Publication number Publication date
FR2871772A1 (fr) 2005-12-23
GB2415252B (en) 2006-05-17
US20050281436A1 (en) 2005-12-22
US7336805B2 (en) 2008-02-26
GB2415252A (en) 2005-12-21
GB0510894D0 (en) 2005-07-06

Similar Documents

Publication Publication Date Title
DE102004028763A1 (de) Andockassistent
DE102009005505B4 (de) Verfahren und Vorrichtung zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
DE10323915A1 (de) Kamerabasierte Positionserkennung für ein Straßenfahrzeug
EP3455785B1 (de) Verfahren zur erfassung von verkehrszeichen
DE102012022336A1 (de) Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
DE102008046214A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
WO2018158020A1 (de) Verfahren und vorrichtung zur ermittlung einer trajektorie in off-road-szenarien
EP2023265A1 (de) Verfahren für eine Erkennung eines Gegenstandes
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
EP2107336A1 (de) Verfahren und Vorrichtung zur Bilderkennung von bewegten Objekten, wie etwa in Förderanlagen
DE102016009327A1 (de) Vorrichtung und Verfahren zur Kalibrierung einer Kamera
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102018113559A1 (de) Verfahren zum Erkennen einer Fahrbahnmarkierung durch Validieren anhand der Linienbreite; Steuereinrichtung; Stellplatzerkennungssystem; sowie Fahrerassistenzsystem
EP3293971B1 (de) Verfahren zur nachführung eines bildausschnitts
DE102006037600A1 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
WO2015090691A1 (de) Verfahren zum erzeugen eines umgebungsmodells eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
DE102006007550A1 (de) Vorrichtung und Verfahren zur Erkennung einer Fahrbahnmarkierung für ein Kraftfahrzeug
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
DE112017007812T5 (de) Fahrzeugperipheriebildanzeigevorrichtung und Fahrzeugperipheriebildanzeigeverfahren
WO2021148286A1 (de) Verfahren und vorrichtung zum ermitteln der ausrichtung einer fläche eines objekts

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8125 Change of the main classification

Ipc: B60W 30/06 AFI20051026BHDE

8105 Search report available
8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

8120 Willingness to grant licences paragraph 23
8139 Disposal/non-payment of the annual fee