DE102015218455A1 - Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands - Google Patents

Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands Download PDF

Info

Publication number
DE102015218455A1
DE102015218455A1 DE102015218455.2A DE102015218455A DE102015218455A1 DE 102015218455 A1 DE102015218455 A1 DE 102015218455A1 DE 102015218455 A DE102015218455 A DE 102015218455A DE 102015218455 A1 DE102015218455 A1 DE 102015218455A1
Authority
DE
Germany
Prior art keywords
vehicle
state
information
data
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015218455.2A
Other languages
English (en)
Inventor
Claudia Langner
Daniel Liebau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102015218455.2A priority Critical patent/DE102015218455A1/de
Publication of DE102015218455A1 publication Critical patent/DE102015218455A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Zum Erfassen mindestens eines Zustands-Parameters eines ersten Fahrzeugs (1, 3) werden folgende Schritte durchgeführt: – Verbringen eines zweiten Fahrzeugs (2, 25, 27, 29), das ein Zustands-Erfassungssystem (4, 5, 11, 12, 15, 16, 22, 23, 24, 26, 28, 30) umfasst, in das Umfeld des ersten Fahrzeugs (1, 3), – Erfassen von dem Zustandsparameter des ersten Fahrzeugs (1, 3) zugeordneten Signalen mittels des Zustands-Erfassungssystems (4, 5, 11, 12, 15, 16, 22, 23, 24, 26, 28, 30) des zweiten Fahrzeugs (2, 25, 27, 29) und – Senden einer auf den Zustands-Parameter des ersten Fahrzeugs (1, 3) bezogenen Information an mindestens einen Empfänger (1, 3, 19).

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erfassen des Zustands eines Fahrzeugs. Die Erfindung trifft insbesondere das Erfassen von Betriebsstörungen und/oder Schäden eines Fahrzeugs.
  • Im Zuge des Betriebs eines Fahrzeugs, insbesondere eines Kraftfahrzeugs wie zum Beispiel eines Personenkraftwagens, eines Lastkraftwagens, eines Busses oder eines Kraftrads, können Betriebsstörungen, beispielsweise verursacht durch einen zu niedrigen Reifenluftdruck, auftreten oder auch Schäden, beispielsweise Karosserieschäden durch einen Unfall. Insbesondere Unfallschäden können entstehen, wenn das Fahrzeug nicht in Betrieb ist, beispielsweise auf einem Parkplatz abgestellt ist und von einem anderen Fahrzeug beim Rangieren touchiert wird.
  • Der jeweilige Nutzer (Eigentümer, Besitzer oder Fahrzeugführer) eines Fahrzeugs wird auf eine solche Betriebsstörung oder einen solchen Schaden häufig jedoch nicht unmittelbar aufmerksam. Durch eine verspätete Kenntnisnahme kann es zu diversen Problemen kommen, beispielsweise dass bei zu niedrigem Reifenluftdruck der Reifen zerstört wird oder dass zu einem durch einen im geparkten Zustand durch einen Dritten verursachter Schaden der Ort und der Zeitpunkt des Schadenseintritts durch den Nutzer des Fahrzeugs nicht mehr nachvollziehbar sind und deshalb eine Aufklärung des Unfallhergangs bzw. eine Ermittlung des Schadenverursachers nicht möglich ist.
  • Aus der DE 101 11 421 A1 ist ein Fahrzeugüberwachungssystem bekannt, bei dem in einem Fahrzeug eine Kamera vorgesehen ist, mit der das Fahrzeug und dessen Umfeld aufgenommen wird während das Fahrzeug geparkt ist. Die jeweils erzeugten Bilddaten werden in dem Fahrzeug gespeichert. Falls Dritte an dem Fahrzeug einen Schaden verursachen, dann kann anhand der gespeicherten Bilddaten nachvollzogen werden, wie und durch wen der Schaden an dem Fahrzeug entstanden ist. Das beschriebene System ist insoweit ein Eigenüberwachungssystem des Fahrzeugs.
  • In der EP 2 698 770 A2 ist eine Verkehrsanlage zur Überwachung eines Verkehrsbereichs beschrieben, in dem Fahrzeuge autonom fahren. Um zu erkennen, ob ein den Verkehrsbereich durchfahrendes Fahrzeug während der Durchfahrt einen Schaden erleidet, werden von einem Fahrzeug beim Einfahren in den Verkehrsbereich und beim Ausfahren aus dem Verkehrsbereich mittels Kameras Bilder aufgenommen. Das jeweils beim Ausfahren aufgenommene Bild wird mit dem jeweils beim Einfahren aufgenommenen Bild des Fahrzeugs verglichen. Bei dem Vergleich können Abweichungen festgestellt werden und die Bilder gegebenenfalls zur genaueren Beurteilung eines während der Durchfahrt entstandenen Schadens verwendet werden. Dieses beschriebene System ist insoweit ein Fremdüberwachungssystem des Fahrzeugs.
  • In der DE 10 2006 048 578 A1 sind ein Verfahren und eine Vorrichtung zum automatisierten Bestimmen der Veränderung der Form eines dreidimensionalen Objektes beschrieben, mittels denen Schäden an Karosserieteilen von Fahrzeugen identifiziert und bewertet werden können. Dabei werden insbesondere Daten zur dreidimensionalen, undeformierten, Original-Form Objekts als Modellform bereitgestellt und mit entsprechenden Daten des erfassten, zu beurteilenden Objekts verglichen. Aus entsprechenden Abweichungen kann ein Schaden identifiziert und bewertet werden.
  • Die Inhalte der oben genannten Veröffentlichungen werden hiermit durch Bezugnahme in die vorliegende Beschreibung aufgenommen.
  • Es ist Aufgabe der Erfindung, ein Verfahren und eine Vorrichtung an zu geben, mit denen für eine Vielzahl von Fahrzeugen eine zuverlässige Überwachung von deren Zustand möglich ist.
  • Diese Aufgabe wird durch die in den unabhängigen Patentansprüchen angegebene Erfindung gelöst. Vorteilhafte Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Erfindungsgemäß sind zum Erfassen mindestens eines Zustands-Parameters eines ersten Fahrzeugs folgende Schritte vorgesehen:
    • – Verbringen mindestens eines zweiten Fahrzeugs, das ein Zustands-Erfassungssystem umfasst, in das Umfeld des ersten Fahrzeugs,
    • – Erfassen von dem Zustandsparameter des ersten Fahrzeugs zugeordneten Signalen mittels des Zustands-Erfassungssystems des zweiten Fahrzeugs und
    • – Senden einer auf den Zustands-Parameter des ersten Fahrzeugs bezogenen Information an mindestens einen Empfänger.
  • Der Begriff „Zustand“ ist im Zusammenhang mit der Erfindung sehr breit zu verstehen und meint unter anderem den Betriebszustand, sowohl hinsichtlich des Betriebs von bestimmten Fahrzeugkomponenten wie z.B. dem bereits eingangs genannten Reifendruck, den Zustand der Beleuchtungseinrichtungen wie Blinker, Scheinwerfer (z.B. ein/ausgeschaltet, Höheneinstellung, Lampenfunktion), dem Öffnungszustand von Türen, Fenstern, einer Heckklappe und/oder eines Schiebedachs, ein Beladungszustand eines Fahrzeugs (ordnungsgemäß normal oder überladen bzw. mit zu breiter oder zu langer Ladung beladen), oder z.B. auch in Türspalten eingeklemmte Kleidungsstücke, die aus dem Fahrzeug nach außen ragen. Der jeweilige Zustand kann dabei insbesondere hinsichtlich seiner Ordnungsmäßigkeit, d.h. Übereinstimmung mit vorgegebenen Regeln und/oder Daten, beurteilt werden. Der Begriff „Zustand“ erstreckt sich in diesem Zusammenhang auch hinsichtlich etwaiger Störungen (insbesondere einer Funktions-Störung), Schäden und/oder Defekte des Fahrzeugs wie Motorstörungen und insbesondere dadurch verursachte zu hohe Abgaswerte (z.B. Äußerung durch farblich abgesetzten Abgasqualm), Karosserie- und/oder Felgenschäden (z.B. Beulen, Kratzer, Schrammen), Lampendefekte (insbesondere an Blinkern, Rückleuchten und/oder Scheinwerfern), Schäden an Scheiben, einem Reifenschaden (z.B. Plattfuß) usw. Der Begriff „Zustand“ kann auch sonstige Eigenschaften des Fahrzeugs umfassen, beispielsweise das Vorhandensein (bzw. Fehlen), der Vollständigkeit und/oder den Verschmutzungsgrad des Fahrzeugs oder von Teilen davon, beispielsweise des amtlichen Kennzeichens, der Felgen, von Anbauteilen oder dgl.
  • Ein Zustands-Parameter ist ein einem Zustand zugeordneter Parameter.
  • Die Erfindung beruht auf der Erkenntnis, dass bei modernen Fahrzeugen häufig eine Vielzahl von Sensoren vorgesehen ist, die insbesondere zur Steuerung von Fahrzeugkomponenten verwendet werden und/oder zur Assistenz des Fahrzeugführers. Die Erfindung beruht weiterhin auf der Erkenntnis, dass solche an sich bereits für andere Zwecke in einem Fahrzeug on-board vorhandene Sensoren und ggf. zugehörige Steuereinheiten vorteilhaft zusätzlich nutzbar sind zum Erfassen des Zustands anderer Fahrzeuge. Weiterhin wurde erkannt, dass eine derartige Zustandserfassung vorteilhaft möglich ist, wenn ein Fahrzeug sich ohnehin einem anderen Fahrzeug so nähert, dass mit den entsprechenden Sensoren jeweilige zustandsbezogenen Werte für das andere Fahrzeug leicht aufgenommen werden können. Beispielsweise wurde erkannt, dass sich im Zuge von Fahrmanövern wie beispielsweise dem Einparken oder einem Überholvorgang zwei Fahrzeug nähern und ohne zusätzlichen Fahraufwand Daten zum Beurteilen des Zustands eines der bei dem Manöver beteiligten Fahrzeuge mit den Sensoren eines anderen beteiligten Fahrzeugs erfassen lassen. Mit der Erfindung lassen sich somit ohne hohe zusätzliche Investitionen Fahrzeugzustände mit großer geografischer Flächendeckung erfassen.
  • Vorteilhaft bei der Erfindung ist auch, dass der Zustand eines Fahrzeugs durch Sensordaten wie z.B. Kamerabilder von diversen Blickwinkeln erfasst werden kann, indem zum Beispiel jeweilige Sensoren verschiedener Fahrzeuge zur Zustandserfassung verwendet werden, die sich zu dem zu erfassenden Fahrzeug gleichzeitig oder nacheinander in dessen Umfeld befinden.
  • Mit der Erfindung lässt sich beispielsweise die Sicherheit im Straßenverkehr erhöhen, insbesondere für das erfasste Fahrzeug und das jeweils dessen Zustand erfassende Fahrzeug, wenn Mängel an dem erfassten Fahrzeug festgestellt werden. Auch der Werterhalt des erfassten Fahrzeugs kann gesteigert werden, indem etwaig notwendige Instandsetzungsmaßnahmen frühzeitig erkannt und durchgeführt werden können.
  • Im Rahmen der Erfindung wurde insbesondere erkannt, dass im Zuge der Modernisierung der Fahrzeuge insgesamt immer mehr Sensoren zur Verfügung stehen, die vorteilhaft nutzbar sind, um andere Fahrzeuge bzw. deren Nutzer insbesondere auf deren Fahrzeug-Schäden bzw. -Mängel aufmerksam zu machen.
  • Weiterhin wurde erkannt, dass in Fahrzeugen auch zunehmend entsprechende Kommunikationsmittel zur Verfügung stehen, über die Daten von einem Fahrzeug zum anderen übertragbar sind, wodurch die Nutzbarkeit der Erfindung noch weiter begünstigt wird. Beispielsweise sind Fahrzeuge immer häufiger mit Mobilfunkeinrichtungen ausgestattet, über die einerseits eine entsprechende Mobilfunk-Datenübertragung zu fahrzeugexternen Einrichtungen möglich ist und die andererseits mit fahrzeuginternen Steuerungen datentechnisch verbindbar sind bzw. verbunden sind.
  • Das Zustands-Erfassungssystems und insbesondere ein dem Zustands-Erfassungssystems zugeordneter Sensor kann Signale und/oder Daten bereitstellen, die in mindestens einer Steuereinrichtung des zweiten Fahrzeugs verarbeitet werden, zur Steuerung eines zweiten Systems, insbesondere eines Fahrerassistenzsystems, des zweiten Fahrzeugs.
  • Eine erfindungsgemäße Vorrichtung zum Erfassen eines Zustands-Parameters eines ersten Fahrzeugs umfasst insbesondere ein zum Einbau in ein zweites Fahrzeug vorgesehenes Zustands-Erfassungssystem, mittels dem der Zustands-Parameter des ersten Fahrzeugs erfassbar ist, wenn es sich im Umfeld des zweiten Fahrzeugs befindet, wobei das Zustands-Erfassungssystem zumindest einen Sensor und eine Informationsverarbeitungseinrichtung und/oder eine Kommunikationseinrichtung umfasst und so eingerichtet ist, dass, insbesondere in der Informationsverarbeitungseinrichtung, auf Basis der Sensorsignale und/oder daraus abgeleiteter Daten eine dem Zustands-Parameter zugeordnete Information zu dem ersten Fahrzeugs ermittelbar ist und wobei der Sensor, die von ihm ausgegebenen Signale und/oder daraus abgeleitete Daten auch durch ein Steuerungssystem des zweiten Fahrzeugs, insbesondere in einem Fahrerassistenzsystem, nutzbar sind und insbesondere genutzt werden.
  • Gemäß einem vorteilhaften Ausführungsbeispiel der Erfindung ist ein entsprechendes Zustands-Erfassungssystem fest in das zweite Fahrzeug eingebaut.
  • Die dem Zustands-Parameter zugeordnete Information kann insbesondere eine Information entsprechend einer vorgegebenen Anzahl von Zuständen sein, beispielsweise zu den zwei Zuständen „unbeschädigt“ bzw. „beschädigt“.
  • Das Steuerungssystem des zweiten Fahrzeugs, das die von dem erfindungsgemäß vorgesehenen Sensor ausgegebenen Signale und/oder daraus abgeleitete Daten nutzt, kann insbesondere ein Fahrerassistenzsystem sein, das den Fahrzeugführer bei der Fahrzeugführung unterstützt, insbesondere durch das Bereitstellen von Informationen wie zum Beispiel der Ausgabe von Warnungen. Es kann z.B. eine Rückfahrkamera zur Rangier-Assistenz sein, ein Frontkamera-System zur Spurverlassenswarnung und/oder zur Verkehrsschilderkennung, ein Seitenkamerasystem zur Spurwechsel-Assistenz, ein Ultraschall-System zur Parkassistenz, ein Laser-System zur abstandsgesteuerten Geschwindigkeitsregelung, eine Infrarot-Kamera zur Nachtfahrt-Assistenz, eine Kamera auf dem Fahrzeugdach usw.
  • Der erfindungsgemäß vorgesehene Empfänger kann das erste Fahrzeug sein, insbesondere eine darin integrierte Einheit und/oder ein fahrzeugunabhängiger Empfänger. Die Information kann Rohdaten, z.B. von einer Kamera erzeugte Signale bzw. Bilddaten, umfassen und/oder bereits verarbeitete Signale bzw. Daten, beispielsweise bereits verarbeitete, schadensspezifische Daten entsprechend der Information „Blechschaden hinten links“.
  • Gemäß einem weiteren vorteilhaften Ausführungsbeispiel der Erfindung umfasst das Zustands-Erfassungssystem des zweiten Fahrzeugs, das erste Fahrzeug und/oder ein fahrzeugunabhängiger Computer eine Informationsverarbeitungseinrichtung, die auf Basis der Sensorsignale und/oder daraus abgeleiteter Daten die dem Zustandsparameter zugeordnete Information ermittelt.
  • In einem weiteren vorteilhaften Ausführungsbeispiel der Erfindung werden auf Basis von Signalen, die mit dem Zustands-Erfassungssystems erzeugt werden, vom zweiten Fahrzeug Daten zum erfassten Zustand des ersten Fahrzeugs an das erste Fahrzeug und/oder an eine fahrzeugübergreifende, insbesondere fahrzeugunabhängige, Einrichtung gesandt. Dazu ist insbesondere im ersten Fahrzeug und/oder im zweiten Fahrzeug eine jeweilige Kommunikations-Einrichtung vorgesehen. Mittels der Kommunikations-Einrichtung kann insbesondere eine zumindest teilweise drahtlose Übertragung der Daten erfolgen. Dazu kann die jeweilige Kommunikations-Einrichtung beispielsweise gemäß zumindest einem entsprechenden Funk-Standard eingerichtet sein, wie z.B. einem der Mobilfunkstandards Global Systems for Mobile Communications (GSM), GSM2, GSM3, GSM4 (LTE), GSM5, dem Wireless Local Area Network Standard WLAN, dem Bluetooth-Standard usw.
  • Die jeweilige Datenverbindung kann auch teilweise das Internet nutzen. Eine fahrzeugunabhängige Einrichtung, z.B. der Empfänger der jeweiligen Daten bzw. der Information über den Zustands-Parameter, kann insbesondere ein so genannter Backend-Computer sein, der als zentraler Computer, insbesondere über das Internet, mit einer Vielzahl von Fahrzeugen ausgebildet ist. Im Backend-Computer können Fahrzeugdaten zu einer Vielzahl von Fahrzeugen einer Fahrzeugflotte, z.B. zu Fahrzeugen eines bestimmten Fahrzeugherstellers, gespeichert und/oder verarbeitet sein bzw. werden.
  • Mit dem Zustands-Erfassungssystem kann vorteilhaft zumindest eine der folgenden Informationen erfasst werden:
    • – ein Bild des ersten Fahrzeugs,
    • – ein Neigungswinkel des ersten Fahrzeugs,
    • – die Karosserie des ersten Fahrzeugs,
    • – eine Informationen zu mindestens einem Reifen des ersten Fahrzeugs,
    • – eine Informationen zu mindestens einer Felge des ersten Fahrzeugs,
    • – eine Schadensinformation
    • – eine Mangelinformation.
  • Eine Schadensinformation kann insbesondere eine Verformungsinformation, eine Reifenschadeninformation, eine Felgenschadeninformation, eine Scheibenschadeninformation und/oder eine Lackschadensinformation umfassen.
  • Eine Mangelinformation kann insbesondere Funktionsmängel eines Fahrzeugs umfassen wie z.B. an der Beleuchtung, an der Scheinwerfereinstellung, an einem Blinker oder sonstige Mängel wie z.B. offene Türen/Klappen, eingeklemmte Textilien, Beladung, am Ladegut usw.
  • Gemäß einem weiteren vorteilhaften Ausführungsbeispiel der Erfindung umfasst das Zustands-Erfassungssystem zumindest eine der folgenden Komponenten:
    • – eine Kamera, insbesondere eine optoelektronische Kamera, eine Infrarot-Kamera, beispielsweise mit eine Surround-View-Funktion, eine Stereokamera zum Erfassen von dreidimensionalen Bildern, eine in einem Fahrzeug nach vorne gerichtete und beispielsweise in den Innenspiegel integrierte Kamera (Frontkamera), eine insbesondere am Fahrzeugheck angebrachte, nach hinten gerichtete Kamera (Heckkamera), eine beispielsweise an einem Stoßfänger oder Außenspiegel angebrachte, seitlich nach links bzw. rechst ausgerichtete Kamera (Seitenkamera) und/oder eine am Fahrzeugdach vorgesehene Kamera (Dachkamera).
    • – ein Ultraschall-Gerät, insbesondere ein in einem Stoßfänger vorgesehenes Gerät, das nach vorne oder hinten ausgerichtet ist und/oder
    • – ein Laser-Gerät, das beispielsweise an der Fahrzeugfront vorgesehen ist und nach vorne ausgerichtet ist.
  • Das Erfassen des Zustands-Parameters des ersten Fahrzeugs kann vorteilhaft erfolgen, während mit dem zweiten Fahrzeug zumindest eines der folgenden Fahrmanöver ausgeführt wird:
    • – Einparken, insbesondere Längsparken in eine Parklücke, wobei eine Erfassung der jeweils vor bzw. hinter der Parklücke bereits parkenden Fahrzeugs erfolgt, bzw. Querparken, wobei eine Fahrzeugflanke eines jeweils rechts bzw. links parkenden Fahrzeugs sensorisch erfasst wird,
    • – Ausparken aus Längs- oder Querparken,
    • – Vorwärtsfahrt,
    • – Rückwärtsfahrt,
    • – Rangierbetrieb,
    • – Kolonnenfahrt, insbesondere Stop-and-Go
    • – Spurwechsel,
    • – Vorbeifahrt, insbesondere Überholen.
  • Gemäß einem weiteren vorteilhaften Ausführungsbeispiel der Erfindung sendet das erste Fahrzeug während dem Verbringen des zweiten Fahrzeugs in das Umfeld des ersten Fahrzeugs an das zweite Fahrzeug eine Information aus, insbesondere direkt von Fahrzeug zu Fahrzeug (sog. Car2Car-Kommunikation) oder indirekt z.B. via einen Backend-Computer, um im zweiten Fahrzeug die Erfassung des Zustands des ersten Fahrzeugs zu initiieren. Dabei kann das erste Fahrzeug detektieren, ob sich das zweite Fahrzeug in seinem Umfeld befindet. Es kann eine regelmäßige Abfrage (sog. Polling) im ersten Fahrzeug erfolgen, ggf. um mehrere Fahrzeuge im Umfeld zum Erfassen seines Zustands aufzufordern. Dabei können andere Fahrzeuge in deren Umfeld jeweils verschiedene Bereiche des ersten Fahrzeugs abtasten (z.B. Front, Heck, linke Seite, rechte Seite, Dach) und insgesamt z.B. ein 360-Grad-Bild des ersten Fahrzeugs erzeugt werden.
  • Es kann auch vorgesehen sein, dass ein Fahrzeug, dessen Zustand erfasst werden soll (sog. Ego-Fahrzeug), Signale an ein oder mehrere Fahrzeuge in dessen Umfeld aussendet und diese dadurch veranlasst werden, den Zustand des Ego-Fahrzeugs mittels ihrer jeweiligen Sensoren zu erfassen. Dabei kann die Anzahl der jeweils an der Erfassung beteiligten Fahrzeuge zur Begrenzung der jeweils zu übertragenden Datenströme auf bestimmte Teile, insbesondere Karosserieanbauteile, des Ego-Fahrzeugs begrenzt werden. Durch Fusion der jeweiligen, von den anderen Fahrzeugen erzeugten Sensordaten kann ein erweiterter Zustandsdatensatz für das Ego-Fahrzeug erzeugt werden. Beispielsweise können aus jeweiligen optoelektronisch erzeugten Bilddaten, die von vier Fahrzeugen, die sich vor, hinter, links und rechts von dem Ego-Fahrzeug befinden, erzeugt wurden, durch Bilddatenfusion ein 360-Grad-Bild erzeugt werden. Eine derartige Erfassung ist insbesondere in einer Situation vorteilhaft möglich, bei der sich das Ego-Fahrzeug in einem Stau befindet oder in relativ langsamer Kolonnen-Fahrt auf einer für eine Richtung mindestens dreispurigen Fahrbahn. In ähnlicher Art und Weise kann z.B. ein überholtes Fahrzeug von einem überholenden Fahrzeug Zustandsdaten abfragen bzw. erfassen lassen.
  • Eine jeweilige Anfrage eines Ego-Fahrzeugs an mindestens ein anderes Fahrzeug zur Erfassung von Zustandsdaten des Ego-Fahrzeugs kann gezielt auf die Erfassung von Zustandskategorien gerichtet sein, beispielsweise auf die Erfassung von Fahrzeugschäden, insbesondere auf Beulen und/oder Schrammen, oder auf den Reinigungszustand des Ego-Fahrzeugs und/oder auf Mängel, insbesondere vorgegebene Mängel wie Mängel an der Beleuchtungsanlage, Mängel an der Bereifung usw.
  • Das jeweils ein anderes Fahrzeug erfassende Fahrzeug kann im Prinzip jede Art von Fahrzeug sein, insbesondere ein Kraftfahrzeug und weiterhin insbesondere ein Motorrad, ein Personenkraftwagen, ein Lastkraftwagen oder ein Bus. Die Erfindung ist insbesondere vorteilhaft anwendbar in einem Fahrzeug mit relativ großer Höhe wie einem so genannten Sports Utility Vehicle (SUV) oder einem Lastkraftwagen, weil mit deren relativ hoch angebrachten Sensoren ein benachbartes Fahrzeug auch von oben und insbesondere auch dessen Dach sensorisch erfassbar ist.
  • Ein zu erfassendes Fahrzeug kann insbesondere als im Umfeld zu dem erfassenden Fahrzeug befindlich angesehen werden, wenn ein für die Erfassung verwendeter Sensor das zu erfassende Fahrzeug mit einer derart ausreichenden Auflösung bzw. Genauigkeit erfassen kann, dass ein zu erkennender Schaden bzw. Mangel tatsächlich erkennbar ist. Insoweit ist die Erkennbarkeit sowohl abhängig von der Art des Schadens bzw. Mangels als auch von der Art des Sensors. Die Erkennbarkeit kann auch davon abhängen, ob zwischen den Fahrzeugen ein störendes Objekt vorhanden ist, beispielsweise ein anderes Fahrzeug. Insoweit kann die Erkennung beispielsweise auch situations- bzw. zeitabhängig sein. Die Erkennbarkeit kann auch abstandsabhängig sein. Im Umfeld befindliche Fahrzeuge können typischerweise einen Abstand von einigen zig Zentimetern bis hunderte von Metern, insbesondere von zehn Zentimetern bis 10 Metern, zu einem Fahrzeug aufweisen.
  • Im Folgenden werden weitere Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert.
  • Dabei sind Komponenten mit gleichen oder im Wesentlichen gleich wirkenden Funktionen mit gleichen Bezugszeichen versehen.
  • Es zeigen:
  • 1 In einer Reihe geparkte Fahrzeuge,
  • 2 Systemkomponenten zum Erfassen eines Fahrzeugzustands,
  • 3 eine Draufsicht einer ersten Fahrsituation und
  • 4 eine Draufsicht einer zweiten Fahrsituation.
  • In der in 1 dargestellten Reihe längs geparkter Personenkraftfahrzeuge 1, 2, 3 weist das Fahrzeug 2 eine Frontkamera 4 und eine Rückfahrkamera 5 auf. Mit der Frontkamera 4 wird im Winkelbereich 6 die Heckpartie, insbesondere zumindest ein Teil des hinteren Stoßfängers, des davor geparkten Fahrzeugs 1 optoelektronisch erfasst. Anhand des dabei erzeugten Bildes kann mittels Bildverarbeitung in einem Computer, beispielsweise im Fahrzeug 2, erkannt werden, ob die Heckpartie einen Schaden hat oder an dem Fahrzeug 1 ein sonstiger Mangel besteht. Wenn beispielsweise das vordere Fahrzeug 1 gerade ausparkt und den linken Blinker setzt, dieser aber eine zu hohe Blinkfrequenz hat, dann kann daraus geschlossen werden, dass am Fahrzeug 1 eine Störung an der Blinkanlage vorliegt.
  • Wenn im Fahrzeug 2 durch Auswertung der von der Frontkamera 4 (z.B. in Stoßfänger, Motorhaube oder hinter der Windschutzscheibe verortet) erzeugten Bilddaten festgestellt wird, dass am vorderen Fahrzeug 1 ein Schaden (z.B. am hinteren Stoßfänger) oder eine Funktionsstörung besteht, dann können vom Fahrzeug 2 an das Fahrzeug 1 beispielsweise direkt mittels Car2Car-Kommunikation und/oder über einen Backend-Computer und ein Mobilfunknetz eine entsprechende Meldung und/oder entsprechende Sensordaten wie Bilddaten übertragen werden. Auf Basis bzw. in Kenntnis der Meldung bzw. Sensordaten kann ein Nutzer des Fahrzeugs 1 dieses Fahrzeug instand setzen lassen.
  • Wenn im Fahrzeug 2 durch Auswertung der von der Rückfahrkamera 5 (z.B. in der Heckschürze, im Kofferraumdeckel oder hinter der Heckscheibe verortet) erzeugten Bilddaten festgestellt wird, dass am hinteren Fahrzeug 3 ein Schaden (z.B. am vorderen Stoßfänger) oder eine Funktionsstörung besteht, dann kann das Fahrzeug 2 analog zum oben für Fahrzeug 1 beschriebenen Vorgang Daten erzeugen und/oder an einen Backend-Computer und/oder an das Fahrzeug 3 übertragen.
  • Wenn mit dem Fahrzeug 2 im Zuge eines Einparkvorgangs rangiert wird, so werden mit den Winkelbereichen (Öffnungswinkeln) 6, 7 der Kameras 4, 5 jeweils etwas verschiedene Bereiche des Fahrzeuge 1, 3 abgetastet, die jeweils gesondert ausgewertet werden können. Das vordere Fahrzeug 1 und das hintere Fahrzeug 3 können dabei gleichzeitig abgetastet werden, weil Frontkamera 4 und Rückfahrkamera 5 unabhängig voneinander Bilder erfassen können.
  • Genauso wie mit den Front- und Rückfahrkameras 4, 5 die Zustände der Fahrzeuge 1 bzw. 3 erfasst werden können auch entsprechende Front- bzw. Rückfahrkameras der Fahrzeuge 3 bzw. 1 das Fahrzeug 2 aufnehmen, wenn dieses rangiert oder parkt und ggf. an einen Backend-Computer und/oder das Fahrzeug 2 entsprechende Daten bzw. Meldungen ausgeben.
  • Die oben für eine Längspark-Situation beschriebenen Erfassungsvorgänge, bei denen Fahrzeuge vor- bzw. hintereinander geparkt werden, können entsprechend auch für eine Querpark-Situation vorgesehen werden, bei denen Fahrzeuge seitlich links bzw. rechts nebeneinander geparkt werden. Dabei kann insbesondere eine Seitenkamera und/oder ein sonstiger seitlich an dem jeweiligen Fahrzeug angebrachter Sensor zur Erfassung eines in dessen Umfeld befindlichen bzw. zu diesem benachbarten Fahrzeugs verwendet werden. Eine Seitenkamera kann beispielsweise in einem Seitenspiegelgehäuse eines Fahrzeugs vorgesehen sein und für ein Spurwechselwarnungs-Fahrerassistenzsystem sowie für die Erfassung des Zustands benachbarter Fahrzeuge verwendet werden. Auch eine Kamera, die im seitlichen Kotflügel oder seitlich in einem Stoßfänger vorgesehen ist und z.B. für eine sog. Top-View-Funktion des Fahrzeugs verwendet wird, in der dem Fahrzeugführer das vollständige (360 Grad) Fahrzeugumfeld in einer Anzeigeeinrichtung dargestellt wird, kann zusätzlich für die Erfassung des Zustands seitlich rechts bzw. links benachbarter Fahrzeuge verwendet werden.
  • Mit den jeweiligen Sensoren kann der Zustand eines benachbarten Fahrzeugs nicht nur im Stand oder beim Rangieren aufgenommen werden, sondern auch während der Fahrt, insbesondere bei einer Kolonnenfahrt, in der die Relativgeschwindigkeit benachbarter Fahrzeuge relativ gering ist, z.B. weniger als 20 km/h beträgt, oder im Stop-and-Go-Betrieb. Die Erfassung kann auch bei einem Spurwechsel und/oder beim Überholen erfolgen.
  • In 2 sind typische System-Komponenten dargestellt für die Erfassung des Zustands des ersten Fahrzeugs 1 (FZG1, Ego-Fahrzeug) durch das zweite Fahrzeug 2 (FZG2). Zusätzlich zur Frontkamera 4 (FK) und zu der Rückfahrkamera 5 (RK) sind im zweiten Fahrzeug 2 an einem zentralen Datenbus 13 wie beispielsweise einem Controller Area Network (CAN) Datenbus oder einem Ethernet-Datenbus, eine zentrale Steuerung 10 (ZS2) vorgesehen, die zumindest einen Mikroprozessor und einen digitalen Datenspeicher aufweist zum Speichern, Laden und Ausführen eines Computerprogramms. Mit der zentralen Steuerung 10 können Steuerungsaufgaben in dem Fahrzeug 2 durchgeführt werden. Entsprechende Komponenten sind zumindest teilweise auch im ersten Fahrzeug 1 vorgesehen, von denen ein Kommunikationsmodul 18 (KM1) und eine zentrale Steuerung 21 (ZS1) gezeigt sind. In der zentralen Steuerung 10 können auch Daten von anderen Fahrzeugen verarbeitet werden, mit denen ein Vergleich erfasster Daten mit Solldaten anderer Fahrzeuge erfolgt, um entscheiden zu können, ob bei diesen ein Schaden bzw. Mangel vorliegt. Für den Vergleichsprozess kann insbesondere auch ein diesen Prozess implementierendes Computerprogramm vorgesehen sein.
  • In dem Fahrzeug 2 sind weitere Sensoren und Aktoren vorgesehen, beispielsweise ein Ultraschallsensor 11 (US), der zumindest teilweise im vorderen Stoßfänger des Fahrzeugs 2 integriert ist und ein Sensor für einen Parkabstands-Assistenten (Park Distance Control, PDC) ist. Im Fahrzeug 2 ist auch ein Laserscanner 12 (LS) vorgesehen, der den Bereich vor dem Fahrzeug 2 auf Objekte abtastet. Mit dem Laserscanner 12 kann beispielsweise ein abstandsgesteuerte Geschwindigkeitsregelanlage (sog. Automatic Cruise Control, ACC) angesteuert werden zur Regelung der Fahrgeschwindigkeit. Der Laserscanner 12 kann so ausgestaltet sein, dass er auch die jeweilige Objektkontur, insbesondere dreidimensional, erfasst. Damit kann beispielsweis zur Erfassung des Zustands des Fahrzeugs 1 dessen erfasste Karosserie-Kontur mit einer Soll-Kontur verglichen werden, um etwaige Karosserie-Schäden zu erkennen. Dabei kann auch eine entsprechende Datenbank vorgesehen sein, zu der für das zu erkennende Fahrzeug jeweils Referenzdaten gespeichert sind, insbesondere zu deren Soll-Kontur der Karosserie und von Anbauteilen wie z.B. Leuchteneinheiten, Stoßfängern usw. Insbesondere im Zusammenhang mit einem ACC kann auch ein Radargerät mit einem Radarsensor vorgesehen sein, die ebenfalls zum Abtasten eines Umgebungs-Fahrzeugs und/oder zum Erfassen des Zustands eines Umgebungs-Fahrzeugs verwendbar ist.
  • Im Fahrzeug 2 sind weiterhin am linken Außenspiegel eine seitliche linke Kamera 15 (SKL) und am rechten Außenspiegel eine seitliche rechte Kamera 16 (SKR) vorgesehen, mit denen im Fahrzeug 2 einerseits jeweils benachbarte Fahrstreifen erfassbar sind, um beispielsweise den Fahrzeugführer bei einem Spurwechsel vor benachbarten Fahrzeugen im toten Winkel zu warnen. Andererseits kann mit diesen Kameras 15, 16 auch der Zustand benachbarter Fahrzeuge wie oben beschrieben erfasst und ausgewertet werden.
  • Die Signale der Frontkamera 4, der Rückfahrkamera 5, des Ultraschallsensors 11 und der Seiten-Kameras 15, 16 können weiterhin von einem Rückfahr- bzw. Rangier-Fahrerassistenzsystem 9 genutzt werden, das dem Fahrzeugführer ein 360-Grad-Bild des Umfelds des Fahrzeugs 2 auf einem Bildschirm und jeweilige Abstände zu benachbarten Fahrzeugen anzeigt.
  • Mit den Kameras 4, 5, 15 bzw. 16 können jeweils Bilder in Form von Standbildern und/oder Videosequenzen aufgenommen werden.
  • Im Fahrzeug 2 ist weiterhin ein Kommunikationsmodul 14 (KM2) vorgesehen, das beispielsweise eine Mobilfunkkommunikation auf Basis eines GSM-Standards ermöglicht, oder auf Basis von WLAN, insbesondere zur Herstellung einer direkten, so genannten Car2Car-Kommunikation über einen Kommunikationskanal 20 mit einem entsprechenden, im Fahrzeug 1 (und ggf. entsprechend auch in anderen Fahrzeugen) vorgesehenen Kommunikationsmodul 18 (KM1).
  • Mit den Kommunikationsmodulen 14 bzw. 18 kann auch über einen Kommunikationskanal 17, der insbesondere zumindest teilweise eine Internet-Verbindung nutzt, eine Kommunikation zu einem Backend-Server 19 erfolgen. Darüber können beispielsweise die Kommunikationsmodule 14 und 18 indirekt miteinander kommunizieren und/oder weitere Computer Daten zur Erfassung des Zustands eines Fahrzeugs anfordern, bereit stellen, weiterleiten und/oder verarbeiten.
  • Nachfolgend werden verschiedene Varianten zur Datenübertragung für die Zustandserfassung beschrieben. In einer ersten Variante sendet ein Fahrzeug, beispielsweise das Fahrzeug 2, von ihm erzeugte Rohdaten zu seinem Umfeld wie beispielsweise Videodaten, Bilddaten und/oder z.B. von einem Laserscanner erzeugte 3D-Daten, an eines oder mehrere Fahrzeuge in seinem Umfeld. Das jeweils die Daten empfangende Fahrzeug wertet die für seinen Zustand relevanten Daten seinerseits aus, um diesen zu ermitteln. Vorteilhaft an dieser Lösung ist, dass das die Daten erzeugende Fahrzeug keinen Datenspeicher und keine Analyseroutine benötigt zur Auswertung von Schäden bzw. Mängeln an Fahrzeugen in seinem Umfeld, da die jeweiligen zu erfassenden Fahrzeuge die für sie relevanten Daten selbst auswerten.
  • In einer zweiten Variante sendet ein Fahrzeug die von ihm erzeugten Rohdaten zu seinem Umfeld an einen externen Computer (z.B. Backend-Computer) in dem diese zentral ausgewertet werden. Von dort können entsprechende verarbeitete Daten dann an das jeweils betroffene Fahrzeug und/oder an einen weiteren Computer, beispielsweise an einen Computer einer Service-Werkstatt oder einer Versicherungsgesellschaft zur weiteren Verarbeitung gesandt werden. Dabei ist eine Voraussetzung, dass in dem die Daten erzeugenden Fahrzeug eine genaue Zuordnung der Daten zu dem erfassten Fahrzeug erfolgt. Dies kann beispielsweise über eine Erkennung des Kennzeichens aus einem aufgenommenen Bild erfolgen und/oder über eine direkte Car2Car-Verbindung zwischen den beiden Fahrzeugen, über die z.B. das amtliche Kennzeichen, die Fahrgestellnummer und/oder weitere Daten wie Kontaktdaten des Fahrzeughalters des zu erfassenden Fahrzeugs ausgetauscht werden.
  • In einer dritten Variante werden die Rohdaten, die ein Fahrzeug über sein Umfeld erzeugt, bereits in dem Fahrzeug ausgewertet, um einen Schaden bzw. Mangel eines Fahrzeugs in seinem Umfeld zu erkennen. Voraussetzung hierfür ist, dass in dem Fahrzeug der jeweilige Fahrzeugtyp des erfassten Fahrzeugs erkannt wird. Auch dies kann beispielsweise mittels Bildverarbeitung und/oder mittels direkter Car2Car-Verbindung zwischen den beiden beteiligten Fahrzeugen erfolgen. Anhand entsprechender Identität-Informationen können beispielsweise in das die Daten auswertende Fahrzeug Referenzdaten über das zu erfassenden Fahrzeug geladen werden und dort zur Auswertung der Rohdaten verwendet werden. Die verarbeiteten bzw. ausgewerteten Daten können dann an das zu erfassende Fahrzeug und/oder an einen externen Computer übertragen werden.
  • Ein zu erfassendes Ego-Fahrzeug kann insbesondere ein Signal, beispielsweise auf Basis einer Car2Car-Technologie, an sein Umfeld aussenden, so dass alle in seinem Umfeld befindlichen Fahrzeuge Rohdaten von dem Ego-Fahrzeug aufnehmen und wie oben beschrieben verarbeiten bzw. übertragen. Insbesondere, wenn mehrere Fahrzeuge im Umfeld jeweils eine eigene Auswertung über ein und dasselbe Fahrzeugteil erstellen, kann der Zustand des Ego-Fahrzeugs insgesamt noch besser ermittelt werden, weil die jeweiligen Zustands-Auswertungen ihrerseits miteinander verglichen werden können.
  • Bei der in 3a und 3b gezeigten Draufsicht einer ersten Fahrsituation wird das Fahrzeug 2 vom zu erfassenden Fahrzeug 1 in Fahrtrichtung A überholt. Mittels der im überholten Fahrzeug 2 vorgesehenen Sensoren 22, 23 (z.B. Kamera-Sensoren) und deren jeweiligen Erfassungsbereichen 22a, 23a wird die rechte Seite des überholenden Fahrzeugs 1 vollständig abgetastet. Nach dem Einscheren wird, wie in 3b gezeigt, von einer Frontkamera 24 des überholten Fahrzeugs 2 mittels dessen Erfassungsbereichs 24a das Heck des überholenden Fahrzeugs 1 abgetastet.
  • Bei der in 4 gezeigten Draufsicht einer zweiten Fahrsituation fährt das zu erfassende Fahrzeug 1 auf dem mittleren Fahrstreifen einer Fahrbahn 31, die drei Fahrstreifen aufweist. Dabei wird es von Sensoren von drei in seinem Umfeld befindlichen Fahrzeugen 2, 25, 27, 29 jeweils sektorweise abgetastet, nämlich durch den im Fahrzeug 2 vorgesehenen Sensor 23 und dessen Erfassungsbereich 23 auf der gesamten rechten Seite, durch einen in Fahrzeug 25 vorgesehenen Sensor 26 und dessen Erfassungsbereich 26a am Heck, durch mindestens einen in Fahrzeug 27 vorgesehenen Sensor 28 und dessen Erfassungsbereich 28a seitlich hinten links und durch einen im Fahrzeug 29 vorgesehenen Sensor 30 und dessen Erfassungsbereich 30a seitlich vorne links.
  • Wie aus 3a3d und 4 hervorgeht, ist es nicht zwingend erforderlich, dass das Abtasten eines Fahrzeugs, insbesondere mittels mehrerer umliegender Fahrzeuge, von allen Seiten (360-Grad) erfolgt. Es kann insbesondere ausreichen, mit einem Sensor eines Fahrzeugs je nach Bedarf und/oder sensorischen und/oder räumlichen Gegebenheiten nur einzelne Sektoren des abzutastenden Fahrzeugs zu erfassen. Baubedingte und/oder hardwareseitige Einschränkungen können dadurch ausgeglichen werden, wobei insbesondere die Einsehbarkeit des abzutastenden Fahrzeugs und/oder die Abtastgenauigkeit des jeweiligen Sensors eine Rolle spielen. Dabei kann insbesondere vorgesehen sein, dass ein Abtasten nur erfolgt, wenn mittels der räumlich und/oder sensorisch vorgegebenen Abtastparameter eine hinreichend genaue Aussage über den jeweiligen Zustand des abzutastenden Fahrzeugs erfolgen kann. Beispielsweise kann vorgesehen sein, dass die Erfassung eines Fahrzeug-Zustands mit einem vorgegebenen Sensor nur erfolgt, wenn der Abstand zwischen dem erfassenden und dem erfassten Fahrzeug einen vorgegebenen Höchstabstand nicht überschreitet. Die Erfassung kann auch durch einen Sensor sequenziell mittels mehrerer Aufnahmen während einer Relativbewegung der jeweiligen Fahrzeuge erfolgen, beispielsweise während eines Überholvorgangs oder einer Vorbeifahrt, so dass mittels eines Sensors mit eingeschränktem Erfassungsbereich ein größerer Bereich des zu erfassenden Fahrzeugs erfasst wird.
  • Zur Erkennung eines Mangels oder eines Schadens an dem Fahrzeug, dessen Zustand beurteilt werden soll, kann in der jeweiligen Steuereinheit bzw. in dem Computer und/oder in dem jeweiligen Computerprogramm vorgesehen sein, dass für die Beurteilung eine Auswahl bestimmter Teile des Fahrzeugs erfolgt. Weiterhin kann vorgesehen sein, dass die Erfassung und/oder Auswertung entsprechender Sensordaten auf diese Teile begrenzt wird. Dadurch kann zum einen eine Verringerung der zu erfassenden und/oder zu analysierenden Datenmenge erreicht werden. Zum anderen kann erreicht werden, dass die Verarbeitung von Daten auf diejenigen Teile begrenzt ist, die von den Sensoren des die Daten erfassenden Fahrzeugs aufgrund der relativen Positionen der beiden Fahrzeuge zueinander tatsächlich erfasst werden. Dazu ist es insbesondere auch vorteilhaft, für die jeweils ausgewählten bzw. auszuwählenden Teile eine Objekterkennung an den erfassten Daten durchzuführen, beispielsweise für die Frontschürze, die Motorhaube, einen Kotflügel, eine Türe usw. des zu erfassenden Fahrzeugs.
  • Wenn die Oberfläche des erfassten Fahrzeugs bzw. Fahrzeugteils, insbesondere dessen Ist-Geometrie, von einer in einer Datenbank hinterlegten Referenzgeometrie (Soll-Geometrie) abweicht oder ein sonstiger Schaden bzw. Mangel erkannt wird, dann kann auch eine genauere Analyse erfolgen und dabei der jeweilige Schaden bzw. Mangel mit Daten verglichen werden, die einem Schadens-bzw. Mängelkatalog zugeordnet sind. Dann kann beispielsweise unterschieden werden, ob es sich bei einem Oberflächen-Schaden lediglich um einen Kratzer oder eine Schramme handelt oder um eine Beule in der Karosserie, oder ob ein Anbauteil gänzlich fehlt.
  • Im Rahmen der Erfindung kann auch vorgesehen sein, dass bei falschen oder zu schweren Beladungszuständen eines zu erfassenden Fahrzeugs das Fahrzeug relativ zur Fahrbahnebene vermessen wird. Dabei kann vorgesehen sein, dass mittels Bildauswertung beispielsweise die Neigung der Hochachse des Fahrzeugs relativ zur Fahrbahn senkrechten vermessen wird, wenn sich das erfassende Fahrzeug vor oder hinter dem zu erfassenden Fahrzeug befindet. Dadurch kann insbesondere eine seitlich einseitige Beladung des zu erfassenden Fahrzeugs erkannt werden. Auch eine achsweise falsche Beladung bzw. stark ungleiche Belastung kann beispielsweise erkannt werden (z.B. während des Passierens eines Fahrzeugs), wenn der Winkel zwischen einer durch die vorderen und hinteren Stoßfänger verlaufenden (die Fahrzeughorizontale im unbeladenen Zustand definierende) Linie und der Straßenebene einen vorgegebenen Grenzwert überschreitet.
  • Zur Erkennung eines Mangels an der Beleuchtungseinrichtung kann in einem ersten Schritt vorgesehen sein, eine Beleuchtungseinrichtung als Objekt zu erkennen und in einem zweiten Schritt per Bildauswertung erkannt werden, ob die Beleuchtung an- bzw. abgeschaltet ist und ob sie ggf. funktionstüchtig ist.
  • Die Bestimmung des Zustands einer Abgasanlage kann beispielsweise durch Ermitteln der Intensität und/oder Farbe des Abgases erfolgen. Zur Bestimmung der Intensität kann dabei insbesondere vorgesehen sein, Videosequenzen aufzunehmen, denen das zu erfassende Fahrzeug über mehrere Belastung-bzw. Betriebszustände beobachtet wird. Beispielsweise ist ein typisches Abgasbild bei einem beschleunigenden Fahrzeug im Winter, dass das sichtbare Abgas mit dem Beschleunigungswerte Wahl zunimmt. Für eine korrekte Zuordnung des Zustands kann dann vorgesehen sein, den entsprechenden Betriebszustand zu berücksichtigen. Beispielsweise kann ein im Leerlauf vor einer Ampel auftretendes, stark schwankendes, pulsierende Abgasbild ein starkes Indiz dafür sein, dass ein Motorproblem vorliegt.
  • Geöffnete bzw. nur teilweise geschlossene Türen und Klappen lassen sich beispielsweise über eine Objekterkennung identifizieren bzw. über die Abweichung der Ist-Oberfläche zur Referenz-Oberfläche an Bauteilübergängen des zu erfassenden Fahrzeugs erkennen, beispielsweise am Fahrertürspalt der B-Säule.
  • Eingeklemmte Textilien treten typischerweise an Bauteilübergängen auf. Ein Textil, beispielsweise eine Mantelspitze, schwingt dabei auf einer eingeklemmten Position im Fahrtwind hin und her. Derartige Störungen können insbesondere durch Auswertung von Videosequenzen erkannt werden.
  • Um den Reinigungszustand eines Fahrzeugs zu erkennen, kann beispielsweise hinsichtlich des Glanzes ein optoelektronisch erfasster Ist-Glanzwert mit einem hinterlegten Datensatz zu einem Referenz-Glanzwert verglichen werden. Dabei kann insbesondere auch die jeweilige Tageszeit bzw. der entsprechende Lichteinfall berücksichtigt werden. Auch durch einen Kontrastvergleich des Fahrzeug Lackes bei der Bildauswertung lässt sich eine Oberflächenverunreinigung erkennen. Es können auch charakteristische Verunreinigungsmuster wie z.B. Spritzwasser, hochgewirbelter Dreck an Seitenschwellern, an Stoßfängern oder an Kotflügeln erfasst und ausgewertet werden.
  • Die beschriebenen Geräte und Systemkomponenten werden insbesondere mit Computerprogrammen gesteuert und können dazu weitere, an sich bekannte Elemente von Computern und digitalen Steuerungseinrichtungen wie einen Mikroprozessor, flüchtige und nicht flüchtige Speicher, Schnittstellen usw. aufweisen. Die Erfindung kann deshalb auch ganz oder teilweise in Form eines Computerprogrammprodukts realisiert werden, das beim Laden und Ausführen auf einem Computer einen erfindungsgemäßen Ablauf ganz oder teilweise bewirkt. Es kann beispielsweise in Form eines Datenträgers wie einer CD/DVD bereitgestellt werden oder auch in Form einer oder mehrerer Dateien auf einem Server, von dem das Computerprogramm herunter ladbar ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10111421 A1 [0004]
    • EP 2698770 A2 [0005]
    • DE 102006048578 A1 [0006]

Claims (10)

  1. Verfahren zum Erfassen mindestens eines Zustands-Parameters eines ersten Fahrzeugs (1, 3) umfassend die Schritte: – Verbringen mindestens eines zweiten Fahrzeugs (2, 25, 27, 29), das ein Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) umfasst, in das Umfeld des ersten Fahrzeugs (1, 3), – Erfassen von dem Zustandsparameter des ersten Fahrzeugs (1, 3) zugeordneten Signalen mittels des Zustands-Erfassungssystems (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) des zweiten Fahrzeugs (2, 25, 27, 29) und – Senden einer auf den Zustands-Parameter des ersten Fahrzeugs (1, 3) bezogenen Information an mindestens einen Empfänger (1, 3, 19).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) und/oder der Empfänger (1, 3, 19) eine Informationsverarbeitungseinrichtung (10) umfasst, die auf Basis der Sensorsignale und/oder daraus abgeleiteter Daten die dem Zustandsparameter zugeordnete Information ermittelt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) Signale und/oder Daten bereitstellt, die in mindestens einer Steuereinrichtung (10) des zweiten Fahrzeugs (2, 25, 27, 29) verarbeitet werden, zur Steuerung eines Systems des zweiten Fahrzeugs (2).
  4. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass auf Basis von Signalen, die mit dem Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) erzeugt werden, vom zweiten Fahrzeug (2, 25, 27, 29) Daten zum erfassten Zustand des ersten Fahrzeugs (1, 3) an das erste Fahrzeug (1, 3) und/oder an eine fahrzeugübergreifende Einrichtung (19) gesandt werden.
  5. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass mit dem Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) zumindest eine der folgenden Informationen erfasst wird: – ein Bild des ersten Fahrzeugs (1, 3), – ein Neigungswinkel des ersten Fahrzeugs (1, 3), – die Karosserie des ersten Fahrzeugs (1, 3), – eine Informationen zu mindestens einem Reifen des ersten Fahrzeugs (1, 3), – eine Informationen zu mindestens einer Felge des ersten Fahrzeugs (1, 3), – eine Schadensinformation, – eine Mangelinformation.
  6. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass das Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) zumindest eine der folgenden Komponenten umfasst: – eine Kamera (4, 5, 15, 16), – ein Ultraschall-Gerät (11), – ein Laser-Gerät (12) – ein Radargerät.
  7. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass das Erfassen des Zustands-Parameters des ersten Fahrzeugs (1, 3) erfolgt, während mit dem zweiten Fahrzeug (2, 25, 27, 29) zumindest eines der folgenden Fahrmanöver ausgeführt wird: – Einparken, – Ausparken, – Vorwärtsfahrt, – Rückwärtsfahrt, – Rangierbetrieb, – Kolonnenfahrt – Spurwechsel, - Vorbeifahrt.
  8. Verfahren nach einem der vorher gehenden Ansprüche, dadurch gekennzeichnet, dass das erste Fahrzeug (1, 3) während dem Verbringen des zweiten Fahrzeugs (2, 25, 27, 29) in das Umfeld des ersten Fahrzeugs (1, 3) eine Information aussendet, um im zweiten Fahrzeug (2, 25, 27, 29) die Erfassung des Zustands des ersten Fahrzeugs (1, 3) zu initiieren.
  9. Vorrichtung zum Erfassen eines Zustands-Parameters eines ersten Fahrzeugs (1, 3) umfassend ein zum Einbau in ein zweites Fahrzeug (2, 25, 27, 29) vorgesehenes Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30), mittels dem der Zustands-Parameter des ersten Fahrzeugs (1, 3) erfassbar ist, wenn es sich im Umfeld des zweiten Fahrzeugs (2, 25, 27, 29) befindet, wobei das Zustands-Erfassungssystem (4, 5, 10, 11, 12, 14, 15, 16, 22, 23, 24, 26, 28, 30) zumindest einen Sensor (4, 5, 11, 12, 15, 16, 22, 23, 24, 26, 28, 30), eine Kommunikationseinrichtung (14) und/oder eine Informationsverarbeitungseinrichtung (10) umfasst und so eingerichtet ist, dass auf Basis der Sensorsignale und/oder daraus abgeleiteter Daten eine dem Zustands-Parameter zugeordnete Information zu dem ersten Fahrzeug (1, 3) ermittelbar ist und wobei der Sensor (4, 5, 11, 12, 15, 16, 22, 23, 24, 26, 28, 30) und/oder die von ihm ausgegebenen Signale und/oder daraus abgeleitete Daten auch durch ein Steuerungssystem (10) des zweiten Fahrzeugs (2) nutzbar sind.
  10. Fahrzeug umfassend eine Vorrichtung nach Anspruch 9.
DE102015218455.2A 2015-09-25 2015-09-25 Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands Pending DE102015218455A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015218455.2A DE102015218455A1 (de) 2015-09-25 2015-09-25 Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015218455.2A DE102015218455A1 (de) 2015-09-25 2015-09-25 Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands

Publications (1)

Publication Number Publication Date
DE102015218455A1 true DE102015218455A1 (de) 2017-03-30

Family

ID=58281693

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015218455.2A Pending DE102015218455A1 (de) 2015-09-25 2015-09-25 Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands

Country Status (1)

Country Link
DE (1) DE102015218455A1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016122195A1 (de) * 2016-11-18 2018-05-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Schutzverfahren für ein Kraftfahrzeug, Überwachungseinrichtung
DE102017216197A1 (de) * 2017-09-13 2019-03-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Untersuchung von Fahrzeugreifen
DE102017216195A1 (de) * 2017-09-13 2019-03-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Untersuchung von Reifen
DE102017219772A1 (de) * 2017-11-07 2019-05-09 Continental Automotive Gmbh Verfahren zum Betreiben eines Sensors eines Kraftfahrzeugs, Sensor und Kopplungseinrichtung
WO2019219421A1 (de) * 2018-05-16 2019-11-21 Zf Friedrichshafen Ag Verifikation von sensordaten
US11009602B2 (en) * 2017-03-08 2021-05-18 Audi Ag Method and system for environment detection
DE102020213600A1 (de) 2020-10-29 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Gegenseitige Sichtprüfung von automatisiert betreibbaren Fahrzeugen
DE102020215955A1 (de) 2020-12-15 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ausgeben eines Signals in Abhängigkeit von einer Beeinträchtigungsinformation bezüglich einer Sensoreinheit eines Fahrzeugs mit einem Anbauteil
DE102019111669B4 (de) 2018-07-17 2023-01-19 GM Global Technology Operations LLC System und verfahren zum erkennen von eingeklemmtem flexiblen material
DE102022119149A1 (de) 2022-07-29 2024-02-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10111421A1 (de) 2001-03-09 2002-09-12 Uwe Fritsch Fahrzeugüberwachungssystem
DE102006048578A1 (de) 2006-10-13 2008-04-17 Gerhard Witte Verfahren und Vorrichtung zum Bestimmen der Veränderung der Form eines dreidimensionalen Objektes
DE102007042793A1 (de) 2007-09-07 2009-03-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bereitstellung von Fahrbetriebsdaten
DE102008042013A1 (de) 2008-09-12 2010-03-18 Robert Bosch Gmbh Verfahren zur Dokumentation einer Verkehrssituation
DE102012009830A1 (de) 2012-05-18 2013-11-21 Daimler Ag Dokumentationsfahrzeug oder Unfallfahrzeug
EP2698770A2 (de) 2012-08-17 2014-02-19 Audi Ag Verkehrsanlage zum autonomen Befahren und Verfahren zum Ermitteln einer Kraftfahrzeugbeschädigung
DE102012024148A1 (de) 2012-12-11 2014-06-12 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Kommunikationssignals, insbesondere einer Lichthupe, entsprechende Vorrichtung und Kraftfahrzeug

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10111421A1 (de) 2001-03-09 2002-09-12 Uwe Fritsch Fahrzeugüberwachungssystem
DE102006048578A1 (de) 2006-10-13 2008-04-17 Gerhard Witte Verfahren und Vorrichtung zum Bestimmen der Veränderung der Form eines dreidimensionalen Objektes
DE102007042793A1 (de) 2007-09-07 2009-03-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bereitstellung von Fahrbetriebsdaten
DE102008042013A1 (de) 2008-09-12 2010-03-18 Robert Bosch Gmbh Verfahren zur Dokumentation einer Verkehrssituation
DE102012009830A1 (de) 2012-05-18 2013-11-21 Daimler Ag Dokumentationsfahrzeug oder Unfallfahrzeug
EP2698770A2 (de) 2012-08-17 2014-02-19 Audi Ag Verkehrsanlage zum autonomen Befahren und Verfahren zum Ermitteln einer Kraftfahrzeugbeschädigung
DE102012024148A1 (de) 2012-12-11 2014-06-12 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Kommunikationssignals, insbesondere einer Lichthupe, entsprechende Vorrichtung und Kraftfahrzeug

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016122195A1 (de) * 2016-11-18 2018-05-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Schutzverfahren für ein Kraftfahrzeug, Überwachungseinrichtung
DE102016122195B4 (de) 2016-11-18 2019-06-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Schutzverfahren für ein Kraftfahrzeug
US11009602B2 (en) * 2017-03-08 2021-05-18 Audi Ag Method and system for environment detection
DE102017216197A1 (de) * 2017-09-13 2019-03-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Untersuchung von Fahrzeugreifen
DE102017216195A1 (de) * 2017-09-13 2019-03-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Untersuchung von Reifen
DE102017219772A1 (de) * 2017-11-07 2019-05-09 Continental Automotive Gmbh Verfahren zum Betreiben eines Sensors eines Kraftfahrzeugs, Sensor und Kopplungseinrichtung
WO2019219421A1 (de) * 2018-05-16 2019-11-21 Zf Friedrichshafen Ag Verifikation von sensordaten
DE102019111669B4 (de) 2018-07-17 2023-01-19 GM Global Technology Operations LLC System und verfahren zum erkennen von eingeklemmtem flexiblen material
DE102020213600A1 (de) 2020-10-29 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Gegenseitige Sichtprüfung von automatisiert betreibbaren Fahrzeugen
DE102020215955A1 (de) 2020-12-15 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ausgeben eines Signals in Abhängigkeit von einer Beeinträchtigungsinformation bezüglich einer Sensoreinheit eines Fahrzeugs mit einem Anbauteil
DE102022119149A1 (de) 2022-07-29 2024-02-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm

Similar Documents

Publication Publication Date Title
DE102015218455A1 (de) Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands
DE102018104857B4 (de) Verfahren und Systeme zum Analysieren von Fahrzeugreifen unter Verwendung von an einem Fahrzeug montierten Kameras
DE102012003776B3 (de) Verfahren zum Identifizieren eines Fahrzeugs bei einer Fahrzeug-zu-Fahrzeug-Kommunikation
DE102016224124A1 (de) Fahrzeug und Steuerungsverfahren dafür
DE102009048493A1 (de) Fahrerassistenzsystem für ein Fahrzeug, Fahrzeug mit einem Fahrerassistenzsystem und Verfahren zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs
DE102004022113A1 (de) Überwachung eines PKW-Anhängers mit einer Rückfahrkamera
WO2004068164A2 (de) Gefahrenerkennungssystem für fahrzeuge mit mindestens einer seitlichen und rückwärtigen umgebungserfassung
DE102009005184A1 (de) Fahrzeugabtastsystem
DE102013001276A1 (de) Verfahren zur Steuerung eines Abbiegelichts in einem Kraftfahrzeug
DE102009032024A1 (de) Verfahren zum Bestimmen einer Position eines an einem Fahrzeug angehängten Anhängers relativ zum Fahrzeug sowie Fahrerassistenzsystem für ein Fahrzeug
DE102017223160B4 (de) Verfahren zum Erkennen von zumindest einem an einem Kraftfahrzeug anliegenden Objekt sowie Steuervorrichtung und Kraftfahrzeug
EP3311196A1 (de) Manövrierung eines gespannes mit einem kraftwagen und einem anhänger
DE102017223098A1 (de) Verfahren und Vorrichtung zur Ermittlung eines Relativwinkels zwischen zwei Fahrzeugen
WO2018036646A1 (de) Vefahren und vorrichtung zur erkennung des öffnungszustands eines garagentores
DE102021204841A1 (de) Frachtdetektionssystem und Verfahren zum Detektieren von überhängender Fracht an einem Kraftfahrzeug
DE102021129887A1 (de) Prädiktive bewertung der fahreraufmerksamkeit
DE102017000557A1 (de) Verfahren zur Überwachung eines Fahrzeuginnenraums
DE102007049877A1 (de) Sensormodul und Betriebsverfahren hierfür
WO2019137864A1 (de) Verfahren zum verhindern einer kritischen situation für ein kraftfahrzeug, wobei ein abstand zwischen einer kraftfahrzeugkontur und einer objektkontur bestimmt wird, fahrerassistenzsystem sowie kraftfahrzeug
DE102012018117A1 (de) Verfahren zum Betreiben einer frontalen Scheinwerfereinrichtung eines Fahrzeugs, Fahrerassistenzvorrichtung und Fahrzeug
DE102022128412A1 (de) System und verfahren zur erkennung eines sich nähernden fahrzeugs
DE102014224792A1 (de) Verfahren zur Erkennung von Fahrzeugschäden und eine diesbezügliche Vorrichtung
DE102016222604A1 (de) Scheinwerfersteuerung für Fahrzeuge
DE202021101591U1 (de) Erfassungseinrichtung zur Erkennung der Anwesenheit einer Person an der Seite eines Nutzfahrzeugs
EP3548335B1 (de) Steuern eines steuerbaren scheinwerfers eines kraftfahrzeugs

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)
R163 Identified publications notified
R012 Request for examination validly filed