DE102022119149A1 - Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm - Google Patents

Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm Download PDF

Info

Publication number
DE102022119149A1
DE102022119149A1 DE102022119149.4A DE102022119149A DE102022119149A1 DE 102022119149 A1 DE102022119149 A1 DE 102022119149A1 DE 102022119149 A DE102022119149 A DE 102022119149A DE 102022119149 A1 DE102022119149 A1 DE 102022119149A1
Authority
DE
Germany
Prior art keywords
vehicle
camera
condition
image
analyzing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022119149.4A
Other languages
English (en)
Inventor
Florian Schlather
Christian Patron
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022119149.4A priority Critical patent/DE102022119149A1/de
Priority to PCT/EP2023/066310 priority patent/WO2024022674A1/de
Publication of DE102022119149A1 publication Critical patent/DE102022119149A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Beispiele betreffen ein Verfahren (10) zum Analysieren eines äußeren Fahrzeugzustandes eines Fahrzeugs (F1). Das Verfahren umfasst die Schritte: - Positionieren (11) des Fahrzeugs vor einer spiegelnden Fläche (21), sodass sich das in der spiegelnden Fläche (21) gespiegelte Fahrzeug im Erfassungsbereich einer Kamera (21a) befindet oder Erkennen, dass sich das Fahrzeug (F 1) derart positioniert vor einer spiegelnden Fläche befindet; - Aufnehmen (12) einer Bildaufnahme des gespiegelten Fahrzeugs mittels der Kamera (21a); - Analysieren (13) der Bildaufnahme bezüglich des Fahrzeugzustandes; und - Ausgeben (14) einer Information umfassend den Fahrzeugzustand.

Description

  • Technisches Gebiet
  • Ausführungsbeispiele betreffen Verfahren zum Analysieren eines äußeren Fahrzeugzustandes eines Fahrzeugs. Dabei können für eine optische Analyse insbesondere Kameras eingesetzt werden, sodass in Bildaufnahmen des Fahrzeugs Verschmutzungen oder Beschädigungen des Fahrzeugs erkannt werden können. Ferner wird ein entsprechendes Computerprogrammprodukt zum Ausführen der Verfahren vorgeschlagen.
  • Hintergrund
  • Kraftfahrzeuge sind zumeist derart gestaltet, dass sie ein ansprechendes äußeres Erscheinungsbild aufweisen. Nutzer von Kraftfahrzeugen haben den Wunsch, ein sauberes und unbeschädigtes Fahrzeug mit makellosem Erscheinen zu benutzen. Bei Vermietung oder Leasing von Kraftfahrzeugen oder auch beim Anbieten von Transportdienstleistungen (z.B. Taxidienstleistungen) ist es daher notwendig, dass die Fahrzeuge stets gepflegt sind, also z.B. sauber sind und keine Dellen aufweisen.
  • Bei der Rückgabe eines gemieteten oder geleasten Fahrzeugs wird dieses in der Regel einer Inspektion unterzogen, bei der auch festgestellt wird, ob das Fahrzeug übermäßig verschmutzt ist oder Dellen aufweist ist. Es kann jedoch schwierig sein, einen Grad der Verschmutzung oder eventueller Beschädigungen des Leasingfahrzeugs genügend quantifiziert zu beurteilen, was zu Streitigkeiten zwischen dem Mieter und Vermieter des Fahrzeugs führen kann. Ferner kann es vor allem bei großen Fuhrparks zu erheblichem personellen Aufwand führen, jedes einzelne Fahrzeug regelmäßig auf Verschmutzungen oder Schäden zu überprüfen.
  • Bei Fahrzeugflotten ist die automatische Erkennung von Verschmutzungen und Beschädigungen am Fahrzeug daher ein relevantes Problem. Dies trifft insbesondere auf Flotten autonomer Fahrzeuge zu, da hier kein menschlicher Fahrer während des Betriebs eine optische Prüfung auf Verschmutzung oder Beschädigung durchführen kann.
  • In der WO 2021 055 988 A1 werden ein System und ein Verfahren zur Selbstinspektion eines Fahrzeugs offenbart. Die Selbstinspektion kann durch eine Anwendung durchgeführt werden, die auf einem mobilen Gerät ausgeführt wird, wobei die Anwendung so konfiguriert ist, dass sie übermäßige Abnutzung und Nutzung bestimmt. Die mobile Vorrichtung kann Bilder von mehreren vorbestimmten Ansichten des Fahrzeugs erhalten, wobei eine Schadenseingabe für die mehreren vorbestimmten Ansichten bestimmt wird. Im Gegenzug kann eine Kostenschätzung für die Reparatur oder den Ersatz aufgrund des Schadens für jede der mehreren vorbestimmten Ansichten sowie Gesamtkosten für die Reparatur oder den Ersatz ausgegeben werden, die dynamisch aktualisiert werden können.
  • US 2019 266 715 A1 offenbart Verfahren, Systeme und Computerprogrammprodukte zum Verwenden von unbemannten Luftfahrzeugen (UAVs) zum Inspizieren autonomer Fahrzeuge. Ein autonomes Fahrzeug trägt ein UAV (oder „Drohne“) in einem geschützten Bereich, beispielsweise in einem Handschuhfach, Kofferraum usw. Zwischen den Fahrten kann das UAV eingesetzt werden, um das autonome Fahrzeug zu inspizieren. Bilder vom UAV können zur Bildanalyse an andere Komponenten gesendet werden. Wenn eine Inspektion abgeschlossen ist, kann das UAV in den geschützten Bereich zurückkehren. Das UAV kann sowohl das Innere als auch das Äußere eines autonomen Fahrzeugs inspizieren. Wenn eine Inspektion bestanden ist, kann das autonome Fahrzeug eine neue Fahrt beginnen. Wenn eine Inspektion nicht bestanden wird, kann sich das autonome Fahrzeug zur Reparatur melden oder ein Abschleppfahrzeug rufen.
  • Nachteilig kann an bekannten Konzepten sein, dass zusätzliche Geräte wie Mobilgeräte (z.B. Smartphones) oder zusätzliche Drohnen, die im Fahrzeug platziert werden müssen, benötigt werden, um den Zustand eines Fahrzeugs ermitteln zu können. Dies kann unpraktisch sein und zu hohen Kosten der Fahrzeuginspektion führen.
  • Zusammenfassung
  • Es ist eine Aufgabe der vorliegenden Offenbarung, verbesserte Konzepte für das Durchführen von Inspektionen bezüglich des äußeren Fahrzeugzustandes von Fahrzeugen bereitzustellen.
  • Diese Aufgabe wird gelöst gemäß den Gegenständen der unabhängigen Patentansprüche. Weitere vorteilhafte Ausführungsformen werden in den abhängigen Patentansprüchen, der folgenden Beschreibung sowie in Verbindung mit den Figuren beschrieben.
  • Entsprechend wird ein Verfahren zum Analysieren eines äußeren Fahrzeugzustandes eines Fahrzeugs vorgeschlagen. Dabei erfolgt insbesondere ein optisches oder visuelles Analysieren oder Inspizieren des äußeren Fahrzeugzustandes. Das Verfahren umfasst ein Positionieren des Fahrzeugs vor einer spiegelnden Fläche, sodass sich das in der spiegelnden Fläche gespiegelte Fahrzeug im Erfassungsbereich einer Kamera befindet. Alternativ ist verfahrensgemäß ein Erkennen vorgesehen, dass sich das Fahrzeug derart positioniert vor einer spiegelnden Fläche befindet (z.B. wenn bereits eine geeignete spiegelnde Fläche in der Fahrzeugumgebung ist, sodass das Fahrzeug nicht mehr dorthin bewegt werden muss; z.B. wenn ein Fahrer des Fahrzeugs das Fahrzeug bereits manuell vor der spiegelnden Fläche positioniert hat oder an der spiegelnden Fläche vorbeifährt). Beispielsweise kann das Fahrzeug vor der spiegelnden Fläche anhalten oder alternativ auch an der spiegelnden Fläche vorbeifahren, sodass es sich in der Fläche spiegelt. Das Erkennen, dass sich das Fahrzeug vor einer spiegelnden Fläche befindet, kann mittels einer Fahrzeugsoftware und -sensorik erfolgen, woraufhin ein Ausführen der weiteren Verfahrensschritte veranlasst werden kann. Die weiteren vorgesehenen Schritte sind Aufnehmen einer Bildaufnahme des gespiegelten Fahrzeugs mittels der Kamera, Analysieren der Bildaufnahme bezüglich des Fahrzeugzustandes und Ausgeben einer Information umfassend den Fahrzeugzustand.
  • Vorteilhaft wird das Verfahren automatisiert durchgeführt. Dadurch kann das Fahrzeug selbst erkennen, ob sein Fahrzeugäußeres in Ordnung ist (z.B. sauber) oder z.B. Verschmutzungen oder Beschädigungen wie Dellen oder Kratzer aufweist, sobald es sich vor einer spiegelnden Fläche befindet. Durch das Ausgeben der Information kann in Folge eine geeignete Maßnahme eingeleitet werden, z.B. um das Fahrzeugäußere wieder in einen ordentlichen Zustand zu versetzen. Durch das Vermeiden notwendiger manueller Schritte kann eine effiziente Selbstinspektion des Fahrzeugs erfolgen. Dabei kann vorteilhaft auf externe Kameras z.B. von Handys oder Drohnen verzichtet werden.
  • Wie bereits erwähnt ist gemäß einem Aspekt vorgesehen, dass der Fahrzeugzustand eine Verschmutzung oder Beschädigung des Fahrzeugäußeren betrifft. Das Verwenden der Kamera in Verbindung mit der spiegelnden Fläche kann besonders einfach sein, da das vorgeschlagene Verfahren sich auf die Inspektion des Fahrzeugäußeren fokussiert und keine weiteren, komplizierten Maßnahmen zur Inspektion des Fahrzeuginneren notwendig sind. Die Analyse, ob Verschmutzungen oder Dellen am Fahrzeug vorhanden sind ist besonders relevant, da dies häufig vorkommen kann. Da diese Art der Inspektion häufig durchgeführt werden muss, kann ein effizientes Verfahren wie das hier vorgeschlagene dafür besonders vorteilhaft sein.
  • Gemäß einem Aspekt ist vorgesehen, dass mehrere Bildaufnahmen des gespiegelten Fahrzeugs aus unterschiedlichen Aufnahmewinkeln aufgenommen werden oder eine Videosequenz des gespiegelten Fahrzeugs aufgenommen wird. Beispielsweise kann dabei ein Rangieren des Fahrzeugs vor der spiegelnden Fläche erfolgen, um mehrere Seitenflächen des Fahrzeugs analysieren zu können. Beispielsweise wird das Fahrzeug während des Aufnehmens der Videosequenz vor der spiegelnden Fläche bewegt, z.B. rangiert das Fahrzeug autonom vor der spiegelnden Fläche. Dabei kann insbesondere ein Winkel des Fahrzeugs gegenüber der spiegelnden Fläche geändert werden, um z.B. aus den resultierenden Reflexionen Dellen besser erkennen zu können. Alternativ kann vorgesehen sein, dass eine schwenkbare Kamera (z.B. des Fahrzeugs selbst) verwendet wird und die Kamera schwenkt, z.B. wenn an mehreren Seiten des Fahrzeugs spiegelnde Flächen verfügbar sind. Auf diese Weise kann ein größerer Bereich der Außenfläche des Fahrzeugs inspiziert werden.
  • Gemäß einem Aspekt ist vorgesehen, dass zum Aufnehmen der Bildaufnahme eine Fahrzeugkamera des Fahrzeugs selbst verwendet wird. Da viele Fahrzeuge bereits mit Kameras ausgestattet sind (z.B. Rückfahrkamera oder Frontkamera für Funktionen des assistierten Fahrens) kann das Verfahren besonders effizient für diese Fahrzeuge genutzt werden. Alternativ kann z.B. auch eine Smartphone-Kamera genutzt werden, die z.B. mit dem Fahrzeug gekoppelt ist, um eine Bildaufnahme des gespiegelten Fahrzeugs zu machen. Zum Beispiel kann auch eine Fahrzeugkamera eines anderen (z.B. autonom fahrenden) Fahrzeugs für das Aufnehmen der Bildaufnahme genutzt werden.
  • Beispielsweise kann das Verfahren ferner ein Anpassen einer Routenführung des Fahrzeugs umfassen, um das Fahrzeug zu einer geeigneten spiegelnden Fläche zu navigieren. Das Anpassen der Routenführung kann insbesondere vorausgehend zu den zuvor beschriebenen Schritten erfolgen. Besonders vorteilhaft kann eine Routenführung entlang einer Glasfassade oder ähnlichem sein, da auf diese Weise eine Bildaufnahme während der Fahrt erfolgen kann. Beispielsweise können mehrere spiegelnde Flächen nacheinander abgefahren werden, wobei die spiegelnden Flächen auf verschiedenen Seiten des Fahrzeugs liegen können. Damit kann z.B. eine Inspektion der gesamten Außenfläche des Fahrzeugs erfolgen.
  • Wie bereits erwähnt ist gemäß einem Aspekt vorgesehen, dass das Fahrzeug ein autonom fahrendes Fahrzeug ist. Autonom fahrende Fahrzeuge können z.B. Personentransporte anbieten. Durch das Verfahren kann das autonom fahrende Fahrzeug beispielsweise automatisch vor jeder Fahrt prüfen, ob sein äußeres Erscheinungsbild adäquat ist oder nicht. Beispielsweise kann eine Toleranzgrenze hinsichtlich Verschmutzungen passagierabhängig sein, so dass bei bestimmten Passagieren gewisse Verschmutzungen des Fahrzeugäußeren akzeptabel sein können, bei anderen jedoch nicht. Auf diese Art kann ein Flottenbetrieb z.B. für hinsichtlich des äußeren Erscheinungsbildes weniger anspruchsvollen Nutzern reibungsloser verlaufen. Ein Nutzer der Transportdienstleistung kann z.B. in seinem Profil angeben, ob er wenn nötig lieber ein verschmutztes Fahrzeug benutzen würde oder auf ein gereinigtes Fahrzeug warten möchte.
  • Beispielsweise kann das Verfahren ferner ein Navigieren des Fahrzeugs zu einer Werkstatt oder Waschstraße in Abhängigkeit von dem Fahrzeugzustand umfassen. Das Navigieren zur Werkstatt oder Waschstraße kann insbesondere nachfolgend zu den zuvor beschriebenen Schritten erfolgen. Beispielsweise kann ein Ausgeben einer Navigationsinformation an einen Fahrzeugführer erfolgen oder es kann ein autonomes Fahren des Fahrzeugs zur Werkstatt oder Waschstraße erfolgen. Dabei ist insbesondere vorgesehen, dass das Fahrzeug nur dann zur Werkstatt oder Waschstraße navigiert wird, falls der Fahrzeugzustand schlechter ist als ein vorbestimmter (z.B. maximaler) Toleranzwert für eine Verschmutzung oder Beschädigung. Der Toleranzwert kann z.B. eine maximal akzeptable Verschmutzung oder Beschädigung beschreiben. Die Navigation zur Werkstatt oder Waschstraße kann z.B. ausschließlich dann erfolgen, wenn eine zu intensive Verschmutzung oder zu großflächige Verschmutzung oder zu große Dellen oder Kratzer erkannt wurden, die eine Reparatur in der Werkstatt oder eine Reinigung des Fahrzeugs notwendig machen. Somit kann vorteilhafterweise quantitativ entschieden werden, ob das Fahrzeug unmittelbar wieder eingesetzt werden kann oder erst das äußere Erscheinungsbild wiederhergestellt werden muss.
  • Gemäß einem Aspekt wird das Verfahren genutzt, um die äußeren Fahrzeugzustände einer Vielzahl von Fahrzeugen einer Fahrzeugflotte, insbesondere einer autonomen Fahrzeugflotte, zu analysieren. Besonders bei einer Vielzahl von autonom fahrenden Fahrzeugen kann es vorteilhaft sein, wenn sich diese selbst inspizieren können, da keine Fahrer diese Inspektion durchführen können und eine nicht-automatische Inspektion hohen personellen Aufwand erzeugen würde.
  • Ein weiterer Aspekt betrifft ein Verfahren zum Analysieren eines äußeren Fahrzeugzustandes eines ersten Fahrzeugs. Das Verfahren umfasst die Schritte Positionieren des ersten Fahrzeugs vor einem weiteren, autonom fahrenden Fahrzeug mit einer Fahrzeugkamera, sodass sich das erste Fahrzeug im Erfassungsbereich der Fahrzeugkamera des weiteren Fahrzeugs befindet. Das Positionieren kann aus der Perspektive beider Fahrzeuge erfolgen, z.B. kann das erste Fahrzeug zum weiteren Fahrzeug hin bewegt werden und/oder das weitere Fahrzeug kann zum ersten Fahrzeug hin bewegt werden. Alternativ kann ein Erkennen erfolgen, dass sich das Fahrzeug derart positioniert vor dem weiteren Fahrzeug befindet (z.B. wenn bereits ein weiteres Fahrzeug mit Kamera in der Fahrzeugumgebung des ersten Fahrzeugs ist, sodass das erste Fahrzeug nicht mehr dorthin bewegt werden muss; z.B. wenn ein Fahrer des ersten Fahrzeugs das erste Fahrzeug bereits manuell in der Umgebung des weiteren Fahrzeugs positioniert hat oder an dem weiteren Fahrzeug vorbeifährt; z.B. wenn das weitere Fahrzeug z.B. autonom an dem ersten Fahrzeug vorbeifährt). Das Erkennen, dass sich das erste Fahrzeug vor dem weiteren Fahrzeug befindet, kann mittels einer Fahrzeugsoftware und -sensorik erfolgen, woraufhin ein Ausführen der weiteren Verfahrensschritte veranlasst werden kann. Die weiteren vorgesehenen Schritte sind Aufnehmen einer Bildaufnahme des ersten Fahrzeugs mittels der Fahrzeugkamera des weiteren Fahrzeugs, Analysieren der Bildaufnahme bezüglich des Fahrzeugzustandes des ersten Fahrzeugs und Ausgeben einer Information umfassend den Fahrzeugzustand des ersten Fahrzeugs. Das weitere Fahrzeug kann vom selben Fahrzeugtyp sein wie das erste Fahrzeug, z.B. können beide Fahrzeuge PKW sein.
  • Ein Vorteil dieses Verfahrens gegenüber dem Stand der Technik kann sein, dass eine Inspektion unter Verwendung einer externen Kamera erfolgen kann, ohne dass hierfür extra eine Drohne oder dergleichen im Fahrzeug mitgeführt werden muss. Dagegen kann gemäß dem vorgeschlagenen Verfahren eine Kamera eines anderen Straßenfahrzeugs genutzt werden, z.B. wenn dieses gerade zufällig oder planmäßig am ersten Fahrzeug vorbeifährt oder sich in dessen Umgebung befindet. Insbesondere kann das Verfahren vorteilhaft sein, wenn in einer Fahrzeugflotte zumindest einige Fahrzeuge bereits mit Kameras ausgestattet sind, da diese Kameras effizient für das Ausführen des Verfahrens mitgenutzt werden können.
  • Ein weiterer Aspekt betrifft ein Computerprogramm mit einem Programmcode, um das zuvor oder nachfolgend beschriebene Verfahren auszuführen, wenn das Computerprogramm auf einem Prozessor, einem Computer, oder einer programmierbaren Hardware ausgeführt wird. Ein solches Computerprogramm kann vorteilhafterweise auf einem Bordcomputer eines Fahrzeugs (z.B. eines autonom fahrenden Fahrzeugs) installiert werden oder auf einem Server bereitgestellt werden (z.B. cloudbasiertes Ausführen des Verfahrens).
  • Figurenkurzbeschreibung
  • Ausführungsbeispiele werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert. Es zeigen:
    • 1 ein Flussdiagramm eines Verfahrens zum Analysieren eines äußeren Fahrzeugzustandes eines Fahrzeugs;
    • 2 ein schematisches Beispiel eines Fahrzeugs, das vor einer spiegelnden Fläche positioniert ist, um mittels einer Fahrzeugkamera ein gespiegeltes Bild des Fahrzeugs aufzunehmen; und
    • 3 ein schematisches Beispiel eines Fahrzeugs, dass in einen Erfassungsbereich einer Kamera eines weiteren Fahrzeugs rangiert wird.
  • Beschreibung
  • Verschiedene Ausführungsbeispiele werden nun ausführlicher unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind. In den Figuren können die Dickenabmessungen von Linien, Schichten und/oder Regionen um der Deutlichkeit Willen übertrieben dargestellt sein. Bei der nachfolgenden Beschreibung der beigefügten Figuren, die lediglich einige exemplarische Ausführungsbeispiele zeigen, können gleiche Bezugszeichen gleiche oder vergleichbare Komponenten bezeichnen.
  • Ein Element, das als mit einem anderen Element „verbunden“ oder „verkoppelt“ bezeichnet wird, mit dem anderen Element direkt verbunden oder verkoppelt sein kann oder dass dazwischenliegende Elemente vorhanden sein können. Solange nichts anderes definiert ist, haben sämtliche hierin verwendeten Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen) die gleiche Bedeutung, die ihnen ein Durchschnittsfachmann auf dem Gebiet, zu dem die Ausführungsbeispiele gehören, beimisst.
  • Verschmutzungen und Beschädigungen am Fahrzeug werden heute manuell durch den Fahrzeug Nutzer erkannt. Oder es wird durch Personal z.B. bei Fahrzeugflotten der individuelle Verschmutzungsgrad / Beschädigungsgrad ermittelt. Diese Prozesse sind ressourcenaufwendig und erfordern Personal. Es sind Erfindungen bekannt die den Verschmutzungsgrad / Beschädigungsgrad auf Basis von Felddaten (z.B. Laufleistung, Umgebungsbedingungen) ermitteln. Diese Verfahren sind aber nicht so präzise wie eine optische Kontrolle durch Bildinformation.
  • 1 zeigt ein Flussdiagramm eines Verfahrens 10 zum Analysieren eines äußeren Fahrzeugzustandes eines Fahrzeugs. Das Verfahren 10 umfasst die Schritte Positionieren 11 eines Fahrzeugs, Aufnehmen 12 einer Bildaufnahme, Analysieren 13 der Bildaufnahme und Ausgeben 14 einer Information umfassend einen Fahrzeugzustand des Fahrzeugs.
  • Gemäß einer ersten Ausführungsform des Verfahrens 10 wird das Fahrzeug vor einer spiegelnden Fläche positioniert 11, sodass sich das in der spiegelnden Fläche gespiegelte Fahrzeug im Erfassungsbereich einer Kamera befindet. Alternativ kann ein Erkennen erfolgen (z.B. mittels des Fahrzeugsystems), dass sich das Fahrzeug derart positioniert vor der spiegelnden Fläche befindet. In diesem Fall kann das Aufnehmen 12 der Bildaufnahme des gespiegelten Fahrzeugs mittels der Kamera erfolgen. Das Analysieren 13 der Bildaufnahme kann bezüglich des Fahrzeugzustandes des Fahrzeugs erfolgen.
  • Vorteilhaft an dieser Ausführungsform kann sein, dass eine Selbstinspektion des Fahrzeugs ohne die Notwendigkeit weiterer externer elektronischer Vorrichtungen erfolgen kann. Zum Beispiel kann für das Analysieren des Fahrzeugäußeren auf ein Smartphone oder eine Drohne, die Bildaufnahmen machen können, verzichtet werden. Die Bildaufnahme kann durch vorteilhaftes Ausnutzen in der Umgebung vorhandener spiegelnder Oberflächen und z.B. einer bereits vorhandenen Fahrzeugkamera des Fahrzeugs selbst gemacht werden. Dadurch kann eine Eigenuntersuchung des Fahrzeugs sehr effizient erfolgen.
  • Gemäß einer zweiten Ausführungsform des Verfahrens 10 wird das Fahrzeug, insbesondere ein erstes Fahrzeug, vor einem weiteren, autonom fahrenden Fahrzeug mit einer Fahrzeugkamera positioniert 11, sodass sich das erste Fahrzeug im Erfassungsbereich der Fahrzeugkamera des weiteren Fahrzeugs befindet. Alternativ kann ein Erkennen erfolgen, dass sich das erste Fahrzeug derart positioniert vor dem weiteren Fahrzeug befindet. Das Aufnehmen 12 der Bildaufnahme des ersten Fahrzeugs erfolgt mittels der Fahrzeugkamera des weiteren Fahrzeugs, woraufhin das Analysieren 13 der Bildaufnahme bezüglich des Fahrzeugzustandes des ersten Fahrzeugs erfolgt. Schließlich wird die Information umfassend den Fahrzeugzustand des ersten Fahrzeugs ausgegeben 14.
  • Vorteilhaft an der zweiten Ausführungsform kann sein, dass keine spiegelnden Flächen benötigt werden, um eine Analyse des äußeren Erscheinungsbildes des ersten Fahrzeugs durchzuführen. Vielmehr kann in effizienter Weise eine bereits vorhandene Fahrzeugkamera eines weiteren Fahrzeugs genutzt werden, was insbesondere bei der Analyse von Fahrzeugflotten mit mehreren Fahrzeugen nützlich sein kann, da sich die Fahrzeuge gegenseitig inspizieren können. Auch bei der zweiten vorgeschlagenen Ausführungsform kann für das Analysieren des Fahrzeugäußeren auf ein Smartphone oder eine Drohne, die Bildaufnahmen machen können, verzichtet werden.
  • Durch die vorgeschlagenen Verfahren wird das Problem der aufwendigen Inspektion von Fahrzeugen durch das Fahrzeug selbst oder die Interkation von verschiedenen Fahrzeugen gelöst. Ein Fahrzeug erkennt dabei z.B. durch seine eingebaute optische Sensorik (z.B. Kameras) dass es z.B. an einem spiegelnden Objekt vorbei fährt. Dies kann z.B. über ein entsprechendes KI (künstliche Intelligenz) Modell umgesetzt werden. Anschließend werden Aufnahmen der spiegelnden Flächen gemacht und diese z.B. mit einem weiteren KI Modell, welches Verschmutzungen und Beschädigungen erkennt, ausgewertet. So kann das Fahrzeug Verschmutzungen und Beschädigungen an sich selbst erkennen ohne dass ein externes Gerät mit Kamera benötigt würde. Das Verfahren kann auch durch die Interaktion mit anderen autonomen Fahrzeugen erweitert werden. Hier können die Kamerasysteme anderer Fahrzeuge genutzt werden, um Bilder der Außenflächen eines Fahrzeuges zu ermitteln, um alle Bereiche des Fahrzeuges optisch aufzulösen. Es können hierbei dieselben KI Modelle wie zuvor genannt genutzt werden.
  • Ein illustratives Beispiel kann das vorgeschlagene Verfahren näher beschreiben: ein (z.B. autonomes) Fahrzeug ist beispielsweise mit Software zur Verschmutzungs- und Beschädigungserkennung ausgestattet. Es erkennt durch die Sensorik die für die autonome Fahrfunktionen verbaut sind (insbesondere Kameras), dass es in Kürze eine spiegelnde Fläche (z.B. Glasfront eines Gebäudes) passieren wird. Während der Vorbeifahrt an der spiegelnden Fläche zeichnet das Fahrzeug mittels der Sensoren Bilder von der Glasfront, und damit von sich selbst (gespiegelt in der Glasfront) auf. Diese Bilder werden von einem installierten (oder in der Cloud gehosteten) KI-Modell auf Beschädigungen und Verschmutzungen ausgewertet. Wird eine Beschädigung oder eine Verschmutzung erkannt, wird diese Information z.B. an einen Leitstand übermittelt (etwa Flottenmanagement einer Fahrzeugflotte). Nun können beispielsweise geeignete Maßnahmen zur Reparatur oder Reinigung des Fahrzeugs ergriffen werden.
  • 2 zeigt ein schematisches Beispiel 20 eines Fahrzeugs F1, das vor einer spiegelnden Fläche 21 positioniert ist, um mittels einer Fahrzeugkamera 21a ein gespiegeltes Bild des Fahrzeugs F1 aufzunehmen. Die spiegelnde Fläche kann z.B. eine Glasfassade oder die spiegelnde Oberfläche eines anderen Fahrzeugs oder Gegenstandes sein (z.B. Verkehrsspiegel).
  • Das Fahrzeug F1 kann eine Frontkamera 21a und eine Rückkamera 21b aufweisen. Je nach Position der spiegelnden Fläche 21 kann es vorteilhaft sein, die Frontkamera 21a oder Rückkamera 21b zu nutzen, um eine Aufnahme des gespiegelten Fahrzeugs F1 zu machen. Im Beispiel der 2 weist die Vorderseite des Fahrzeugs F1 zur spiegelnden Fläche 21, sodass die Frontkamera 21a eine Aufnahme der Spiegelung des Fahrzeugs F1 in der spiegelnden Fläche 21 machen kann. Auf diese Weise kann eine Bildaufnahme bereitgestellt werden, die eine Analyse der Vorderseite des Fahrzeugs F1 hinsichtlich des äußeren Fahrzeugzustandes ermöglichen kann. Zum Beispiel können auf der Bildaufnahme Verschmutzungen oder Dellen der Vorderseite des Fahrzeugs F1 ermittelt werden.
  • Bei Bedarf kann das Fahrzeug F1 vor der spiegelnden Fläche 21 rangieren, z.B. wenden, sodass die Rückkamera 21b das in der spiegelnden Fläche 21 gespiegelte Fahrzeug F1 aufnehmen kann. Auf diese Weise kann auch die Rückseite des Fahrzeugs F1 hinsichtlich des äußeren Fahrzeugzustandes analysiert werden.
  • Das Fahrzeug F1 kann z.B. vor die spiegelnde Fläche 21 gefahren werden, um die Bildaufnahme zu ermöglichen. Dabei kann das Fahrzeug F1 z.B. vor der spiegelnden Fläche 21 halten. Alternativ kann eine Fahrzeugsensorik auch beim Vorbeifahren an der spiegelnden Fläche 21 erkennen, dass eine zur Analyse geeignete Bildaufnahme des Fahrzeugs im Vorbeifahren gemacht werden kann, sodass das Fahrzeug F 1 hierfür nicht extra halten muss, sondern seine Fahrt ohne Unterbrechung fortführen kann. Eine Fahrzeugsteuerung kann entsprechend ausgebildet sein für eine Erkennung von spiegelnden Objekten (z.B. mittels Fahrzeugsensorik; z.B. mittels der Fahrzeugkameras 21a, 21b) und zur Auswertung der gespiegelten Fahrzeugoberfläche (z.B. anhand der Bildaufnahme).
  • Beispielsweise kann einer oder mehrere der folgenden Schritte durchgeführt werden: Aufnahme vom Fahrzeug aus (z.B. Kamera an der Seite, z.B. im Seitenspiegel des Fahrzeugs F1); Wenn Fahrzeug erkannt (z.B. in der spiegelnden Fläche 21; z.B. mittels object detection, z.B. KI-basiert), dann Überprüfung ob erkanntes Fahrzeug im Bild relativ zum Fahrzeug F1 stehen bleibt (z.B. um zu prüfen, ob das Fahrzeug tatsächlich sich selbst erkennt); Klassifikation des gespiegelten Fahrzeugs (z.B. Abgleich mit Fahrzeugmerkmalen), um sicher zu gehen, dass es das eigene Fahrzeug ist (z.B. um zu vermeiden, dass andere Fahrzeuge analysiert werden); Erstellen eines Bildausschnittes und Segmentierung (z.B. der Bildaufnahme); und/oder Objekterkennung und Klassifikation zur Erkennung von Verschmutzung oder Beschädigungen.
  • Ferner kann ein weiteres Fahrzeug F2 (schematisch dargestellt) mit einer Kamera des weiteren Fahrzeugs F2 eine Bildaufnahme des Fahrzeugs F1 tätigen. Dadurch kann ebenfalls eine zur Analyse des Fahrzeugäußeren des Fahrzeugs F1 geeignete Bildaufnahme bereitgestellt werden. Die Bildaufnahme kann vom weiteren Fahrzeug F2 unmittelbar an das Fahrzeug F1 übermittelt werden oder über eine Cloud (nicht dargestellt) übermittelt werden. Die Analyse der Bildaufnahme kann z.B. im aufgenommenen Fahrzeug F1, im weiteren Fahrzeug F2 oder auch in der Cloud erfolgen.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vor- oder nachstehend beschriebenen Ausführungsbeispielen erwähnt. Das in 2 gezeigte Ausführungsbeispiel kann ein oder mehrere optionale zusätzliche Merkmale aufweisen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder mit einem oder mehreren vorstehend (z.B. 1) oder nachstehend (z.B. 3) beschriebenen Ausführungsbeispielen erwähnt sind.
  • 3 zeigt ein schematisches Beispiel 30 eines ersten Fahrzeugs F3, dass in einen Erfassungsbereich einer Kamera 21a eines weiteren Fahrzeugs F1 rangiert wird. Gemäß der Relativbeziehung der beiden Fahrzeuge F3, F1 kann dazu das erste Fahrzeug F3 und/oder das weitere Fahrzeug F1 bewegt werden. Beispielsweise kann das weitere Fahrzeug F1 ein autonom fahrendes Fahrzeug sein, das sich derart vor dem ersten Fahrzeug F3 positionieren kann (schematisch dargestellt mittels Pfeilen zum vorwärts und rückwärts fahren), dass das erste Fahrzeug F3 in einem Erfassungsbereich der Fahrzeugkamera 21a positioniert ist. Es kann eine Bildaufnahme des ersten Fahrzeugs F1 erfolgen.
  • Somit kann eine Bildaufnahme des ersten Fahrzeugs F3 z.B. durch ein anderes, autonom bewegtes Fahrzeug F1 erfolgen. Die Bildaufnahme kann z.B. automatisch erfolgen, wenn das weitere Fahrzeug F1 eine Fahrzeugstruktur erkennt. Die Bildaufnahme kann an ein Backend 32 oder eine Cloud 32 gesendet werden, wobei die Fahrzeuge über jeweilige Kommunikationsverbindungen 31a, 31b mit der Cloud 32 verbunden sein können.
  • Basierend auf der Bildaufnahme kann eine Auswertung der Fahrzeugoberfläche des ersten Fahrzeugs F3 erfolgen (z.B. im weiteren Fahrzeug F1 oder in der Cloud 32) und eine Information betreffend die Auswertung kann an das erste Fahrzeug F3 (oder die Cloud 32) gesendet werden.
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vor- oder nachstehend beschriebenen Ausführungsbeispielen erwähnt. Das in 3 gezeigte Ausführungsbeispiel kann ein oder mehrere optionale zusätzliche Merkmale aufweisen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder mit einem oder mehreren vorstehend (z.B. 1-2) oder nachstehend beschriebenen Ausführungsbeispielen erwähnt sind.
  • Beispiele beziehen sich auf eine autonome Verschmutzungserkennung mittels indirekter Verfahren und Verwendung von künstlicher Intelligenz. Dabei ist vorgesehen, dass eine Fahrzeugsteuerung oder ein Fahrzeugsystem spiegelnde Objekte erkennt, eine Bildaufnahme des darin gespiegelten Fahrzeugs erfolgt und ferner eine Auswertung der im spiegelnden Objekt gespiegelten Fahrzeugoberfläche erfolgt. Wird eine Beschädigung oder eine Verschmutzung der Fahrzeugoberfläche erkannt, kann diese Information übermittelt werden und es können z.B. Maßnahmen zur Reparatur oder Reinigung ergriffen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2021055988 A1 [0005]
    • US 2019266715 A1 [0006]

Claims (11)

  1. Verfahren (10) zum Analysieren eines äußeren Fahrzeugzustandes eines Fahrzeugs (F1), das Verfahren umfassend: - Positionieren (11) des Fahrzeugs vor einer spiegelnden Fläche (21), sodass sich das in der spiegelnden Fläche (21) gespiegelte Fahrzeug im Erfassungsbereich einer Kamera (21a) befindet oder Erkennen, dass sich das Fahrzeug (F1) derart positioniert vor einer spiegelnden Fläche befindet; - Aufnehmen (12) einer Bildaufnahme des gespiegelten Fahrzeugs mittels der Kamera (21a); - Analysieren (13) der Bildaufnahme bezüglich des Fahrzeugzustandes; und - Ausgeben (14) einer Information umfassend den Fahrzeugzustand.
  2. Verfahren (10) gemäß Anspruch 1, wobei der Fahrzeugzustand eine Verschmutzung oder Beschädigung des Fahrzeugäußeren des Fahrzeugs (F1) betrifft.
  3. Verfahren (10) gemäß Anspruch 1 oder 2, wobei mehrere Bildaufnahmen des gespiegelten Fahrzeugs aus unterschiedlichen Aufnahmewinkeln aufgenommen (12) werden oder eine Videosequenz des gespiegelten Fahrzeugs aufgenommen (12) wird.
  4. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, wobei zum Aufnehmen (12) der Bildaufnahme eine Fahrzeugkamera (21a, 21b) des Fahrzeugs (F 1) selbst verwendet wird.
  5. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, ferner umfassend - Anpassen einer Routenführung des Fahrzeugs (F1), um das Fahrzeug (F1) zu einer geeigneten spiegelnden Fläche (21) zu navigieren.
  6. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, wobei das Fahrzeug (F1) ein autonom fahrendes Fahrzeug (F1) ist.
  7. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, ferner umfassend - Navigieren des Fahrzeugs (F1) zu einer Werkstatt oder Waschstraße in Abhängigkeit von dem Fahrzeugzustand.
  8. Verfahren (10) gemäß Anspruch 7, wobei das Fahrzeug (F1) zur Werkstatt oder Waschstraße navigiert wird, falls der Fahrzeugzustand schlechter ist als ein vorbestimmter minimaler Toleranzwert für eine Verschmutzung oder Beschädigung.
  9. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, wobei das Verfahren (10) genutzt wird, um die äußeren Fahrzeugzustände einer Vielzahl von Fahrzeugen (F1, F2, F3) einer Fahrzeugflotte zu analysieren.
  10. Verfahren (10) zum Analysieren eines äußeren Fahrzeugzustandes eines ersten Fahrzeugs (F3), das Verfahren umfassend: - Positionieren (11) des ersten Fahrzeugs (F3) vor einem weiteren, autonom fahrenden Fahrzeug (F1) mit einer Fahrzeugkamera (21a), sodass sich das erste Fahrzeug (F3) im Erfassungsbereich der Fahrzeugkamera (21a) des weiteren Fahrzeugs (F1) befindet oder Erkennen, dass sich das erste Fahrzeug (F3) derart positioniert vor dem weiteren Fahrzeug (F1) befindet; - Aufnehmen (12) einer Bildaufnahme des ersten Fahrzeugs (F3) mittels der Fahrzeugkamera (21a) des weiteren Fahrzeugs (F1); - Analysieren (13) der Bildaufnahme bezüglich des Fahrzeugzustandes des ersten Fahrzeugs (F3); und - Ausgeben (14) einer Information umfassend den Fahrzeugzustand des ersten Fahrzeugs (F3).
  11. Ein Computerprogramm mit einem Programmcode, um das Verfahren (10) gemäß einem der vorhergehenden Ansprüche auszuführen, wenn das Computerprogramm auf einem Prozessor, einem Computer, oder einer programmierbaren Hardware ausgeführt wird.
DE102022119149.4A 2022-07-29 2022-07-29 Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm Pending DE102022119149A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022119149.4A DE102022119149A1 (de) 2022-07-29 2022-07-29 Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm
PCT/EP2023/066310 WO2024022674A1 (de) 2022-07-29 2023-06-16 Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022119149.4A DE102022119149A1 (de) 2022-07-29 2022-07-29 Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm

Publications (1)

Publication Number Publication Date
DE102022119149A1 true DE102022119149A1 (de) 2024-02-01

Family

ID=87002947

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022119149.4A Pending DE102022119149A1 (de) 2022-07-29 2022-07-29 Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm

Country Status (2)

Country Link
DE (1) DE102022119149A1 (de)
WO (1) WO2024022674A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015218455A1 (de) 2015-09-25 2017-03-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands
US20190266715A1 (en) 2016-10-24 2019-08-29 Ford Motor Company Using unmanned aerial vehicles to inspect autonomous vehicles
WO2021055988A1 (en) 2019-09-22 2021-03-25 Kar Auction Services, Inc. Vehicle self-inspection apparatus and method
DE102020213600A1 (de) 2020-10-29 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Gegenseitige Sichtprüfung von automatisiert betreibbaren Fahrzeugen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11770493B2 (en) * 2019-04-02 2023-09-26 ACV Auctions Inc. Vehicle undercarriage imaging system
JP7094929B2 (ja) * 2019-09-20 2022-07-04 本田技研工業株式会社 車両点検装置、及び車両点検システム
CN114724272A (zh) * 2021-01-06 2022-07-08 华为技术有限公司 一种车辆检测方法和车辆检测装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015218455A1 (de) 2015-09-25 2017-03-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen eines Fahrzeugzustands
US20190266715A1 (en) 2016-10-24 2019-08-29 Ford Motor Company Using unmanned aerial vehicles to inspect autonomous vehicles
WO2021055988A1 (en) 2019-09-22 2021-03-25 Kar Auction Services, Inc. Vehicle self-inspection apparatus and method
DE102020213600A1 (de) 2020-10-29 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Gegenseitige Sichtprüfung von automatisiert betreibbaren Fahrzeugen

Also Published As

Publication number Publication date
WO2024022674A1 (de) 2024-02-01

Similar Documents

Publication Publication Date Title
DE102017107264A1 (de) Sichtbasierte regenerkennung unter verwendung des tiefen lernens
DE112016007265T5 (de) Verwenden eines unbemannten Luftfahrzeugs zum Überprüfen von autonomen Fahrzeugen
DE102017220027A1 (de) Verfahren zur Schadenkontrolle bei Kraftfahrzeugen
EP3296933A1 (de) Verfahren für eine datenverarbeitungsanlage zur erhaltung eines betriebszustands eines ersten autonomen fahrzeugs sowie verfahren für eine datenverarbeitungsanlage zum verwalten einer mehrzahl autonomer fahrzeuge
EP3479058A1 (de) Verfahren und vorrichtung zur vermessung von karosserieschäden
DE102012019425A1 (de) Verfahren, Vorrichtung und System für eine Einparksteuerung
WO2018087341A1 (de) Inspektionsverfahren, datenverarbeitungssystem und inspektionssystem zum inspizieren eines fahrzeugs im betriebszustand
DE102018222665A1 (de) Autonom fahrendes Taxi
DE102016210632A1 (de) Verfahren zum Überprüfen eines Medienverlustes eines Kraftfahrzeuges sowie Kraftfahrzeug und System zum Ausführen eines solchen Verfahrens
DE102020122360A1 (de) Reinigen von fahrzeugsensoren mit additiven
DE102020215860A1 (de) Korrektur von Bildern eines Rundumsichtkamerasystems bei Regen, Lichteinfall und Verschmutzung
DE102013211005A1 (de) Verfahren zum Ermitteln eines Zustands eines Fahrzeugs nach einer Benutzung des Fahrzeugs und entsprechendes System
DE102011082477A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
WO2018095640A1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
DE102016223094A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102021205145A1 (de) Fahrzeugwaschanlage mit einer Stellfläche für ein zu reinigendes Fahrzeug und Verfahren
DE102018213844A1 (de) Verfahren zum Testen einer zumindest teilautomatisierten Fahrfunktion für Kraftfahrzeuge
DE102022119149A1 (de) Verfahren zum analysieren eines äusseren fahrzeugzustandes und computerprogramm
DE102019208448A1 (de) Verfahren zur Überprüfung eines Geräts oder einer Maschine
DE102019219734A1 (de) Auswertungssystem für Messdaten aus mehreren Domänen
DE102018208481A1 (de) Abschätzen eines Verlaufs eines Schienenpfads
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
DE102018005466A1 (de) Verfahren zum Betrieb eines zumindest teilautonom fahrenden Fahrzeuges
DE102019129101A1 (de) Verfahren und System zum Schätzen eines Begrenzungsrahmens, der ein Zielfahrzeug einschließt

Legal Events

Date Code Title Description
R163 Identified publications notified