DE102020100496A1 - Systeme und verfahren zum erfassen von fahrzeugbeschädigungsereignissen und berichterstatten über diese - Google Patents

Systeme und verfahren zum erfassen von fahrzeugbeschädigungsereignissen und berichterstatten über diese Download PDF

Info

Publication number
DE102020100496A1
DE102020100496A1 DE102020100496.6A DE102020100496A DE102020100496A1 DE 102020100496 A1 DE102020100496 A1 DE 102020100496A1 DE 102020100496 A DE102020100496 A DE 102020100496A DE 102020100496 A1 DE102020100496 A1 DE 102020100496A1
Authority
DE
Germany
Prior art keywords
images
vehicle
key
damage
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020100496.6A
Other languages
English (en)
Inventor
Pankaj Kumar
Hassene Jammoussi
Imad Hassan Makki
Dimitar Filev
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020100496A1 publication Critical patent/DE102020100496A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/08Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0825Indicating performance data, e.g. occurrence of a malfunction using optical means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/10Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time using counting means or digital clocks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/12Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time in graphical form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Offenbarung stellt Systeme und Verfahren zum Erfassen von Fahrzeugbeschädigungsereignissen und Berichterstatten über diese bereit.In dieser Schrift sind Systeme und Verfahren zum Erfassen von Fahrzeugbeschädigungsereignissen und Berichterstatten über diese bereitgestellt. Ein beispielhaftes Verfahren beinhaltet Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug zu einem zweiten Zeitpunkt; Erhalten eines aktuellen Satzes von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Zugreifen auf einen Basissatz von Bildern für das Fahrzeug, der zu einem ersten Zeitpunkt erhalten wurde, der dem zweiten Zeitpunkt vorangeht; Vergleichen des aktuellen Satzes von Bildern mit dem Basissatz von Bildern, um eine Beschädigung der einen oder mehreren Oberflächen zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft Systeme und Verfahren, die Fahrzeugbeschädigungsereignisse, wie etwa Ereignisse einer schwachen Beschädigung, sowie eine Identifikation von Fahrzeugverlusten, die daraus resultieren, analysieren.
  • ALLGEMEINER STAND DER TECHNIK
  • Ereignisse einer schwachen Beschädigung können ständig eintreten, wie etwa, wenn ein Fahrzeug auf einem Parkplatz geparkt ist. Andere Fahrzeuge oder sogar andere Objekte, wie etwa ein Einkaufswagen, können auf dem Fahrzeug aufprallen. Im Allgemeinen können einige Ereignisse einer schwachen Beschädigung eintreten, wenn der Fahrzeugbesitzer oder - bediener abwesend ist. Daher ist es oft schwierig, zu identifizieren, wann diese Beschädigungsereignisse eintreten, und/oder eine Ursache einer solchen Beschädigung zu identifizieren.
  • Detaillierter werden Fahrzeuge oft in öffentlichen Bereichen, Straßen oder Parkplätzen unbeaufsichtigt gelassen und sind einer möglichen absichtlichen oder unbeabsichtigten Beschädigung ausgesetzt. Übliche mit geparkten Fahrzeugen beobachtete Probleme können einschließen, dass ein Missetäter eine Automobilkarosserie mit einem Schlüssel zerkratzt, ein Wertgegenstand aus dem Innenraum des Fahrzeugs gestohlen wird, Graffiti auf ein Fahrzeug gesprüht wird, geplatzte Reifen und ein Automobil, das auf einem Parkplatz gegen das Fahrzeug stößt - um nur einige zu nennen. Außerdem kann eine schwache Beschädigung außerdem eintreten, während das Fahrzeug gefahren wird, wie etwa in einer Stausituation. Oftmals werden diese Probleme noch verschlimmert, wenn eine schuldige Partei keine Versicherungsinformationen hinterlässt. Oftmals wird ein Unfall nicht bemerkt, wodurch zeitnahe Reparaturen und Versicherungsansprüche verhindert werden.
  • KURZDARSTELLUNG
  • In dieser Schrift sind Systeme und Verfahren zum Erfassen von Fahrzeugbeschädigungsereignissen und Berichterstatten über diese bereitgestellt. Ein beispielhaftes Verfahren beinhaltet Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug zu einem zweiten Zeitpunkt; Erhalten eines aktuellen Satzes von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Zugreifen auf einen Basissatz von Bildern für das Fahrzeug, der zu einem ersten Zeitpunkt erhalten wurde, der dem zweiten Zeitpunkt vorangeht; Vergleichen des aktuellen Satzes von Bildern mit dem Basissatz von Bildern, um eine Beschädigung der einen oder mehreren Oberflächen zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.
  • Figurenliste
  • Die detaillierte Beschreibung wird mit Bezug auf die beigefügten Zeichnungen dargelegt. Die Verwendung gleicher Bezugszeichen kann ähnliche oder identische Elemente angeben. Verschiedene Ausführungsformen können andere Elemente und/oder Komponenten nutzen als jene, die in den Zeichnungen veranschaulicht sind, und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu. Für die gesamte Offenbarung gilt, dass Ausdrücke im Singular und Plural je nach Kontext austauschbar verwendet werden können.
    • 1 stellt eine veranschaulichende Architektur dar, in der Techniken und Strukturen zum Bereitstellen der in dieser Schrift offenbarten Systeme und Verfahren umgesetzt sein können.
    • 2 veranschaulicht die Darstellung eines beschädigten Bereichs eines Fahrzeugs an einer Mensch-Maschine-Schnittstelle.
    • 3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung.
    • 4 ist ein Ablaufdiagramm eines weiteren beispielhaften Verfahrens der vorliegenden Offenbarung.
    • 5 ist ein Ablaufdiagramm eines noch weiteren beispielhaften Verfahrens der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Überblick
  • In einigen Ausführungsformen werden offenbarte Systeme und Verfahren genutzt, um Bilder von zumindest einem Abschnitt eines Außenbereichs eines Fahrzeugs zu erhalten. Diese Bilder können auf periodische oder geplante Weise erhalten werden und können verwendet werden, um eine Fahrzeugbeschädigung zu erfassen. In einem Fall werden die Bilder bei Schlüsseleinschalt- und Schlüsselausschaltereignissen erhalten. Ein Schlüsseleinschaltereignis gibt ein Ereignis an, bei dem das Fahrzeug aktiviert wird, und umgekehrt gibt ein Schlüsselausschaltereignis ein Ereignis an, bei dem das Fahrzeug deaktiviert wird.
  • In einigen Ausführungsformen können eine oder mehrere bordeigene Kameras eines Fahrzeugs verwendet werden, um Bilder bei diesen Schlüsseleinschalt- und/oder Schlüsselausschaltereignissen zu erhalten. In weiteren Ausführungsformen können nichtbordeigene Kameras verwendet werden, um Bilder zu erhalten. Eine beispielhafte Ausführungsform von nicht-bordeigenen Kameras schließt Umgebungsinfrastrukturkameras ein, wie etwa solche, die in einer Smart-City-Umgebung aufgefunden werden. In einer weiteren Ausführungsform können die Bilder von Kameras an lokalen Betrieben erhalten werden, die eine Video- oder Bildüberwachung eines Bereichs verwalten, der das betreffende Fahrzeug einschließt oder sich in der Nähe davon befindet. Die in einer beliebigen gegebenen Ausführungsform verwendete Anzahl an Kameras kann variieren und diese können eine beliebige Art von Kamera einschließen, die ein Video und/oder statische Bilder erhalten kann. In einigen Ausführungsformen kann die Kamera eine High-Definition- und/oder Light-Detection-and-Ranging-(LiDar-)Kamera einschließen.
  • In einigen Ausführungsformen wird ein 360-Grad-Schnappschuss des Fahrzeugs genutzt. In weiteren Ausführungsformen werden anstelle eines 360-Grad-Schnappschusses Bilder von dem betreffenden Fahrzeug erhalten, die ihren Fokus auf bestimmten Teilen des betreffenden Fahrzeugs haben.
  • Die Systeme und Verfahren in dieser Schrift können fortschrittliche Techniken des maschinellen Lernens und der Mustererkennung nutzen, wie etwa Techniken auf Grundlage eines Deep Neural Networks, Random Forest, Boosted Trees oder Naiver Bayes-Klassifikator, um Vorher-Nachher-Bilder für Zwecke des Erfassens von Ereignissen einer schwachen Beschädigung zu vergleichen.
  • Wenn eine Diskrepanz erfasst wird, kann ein Fahrer des betreffenden Fahrzeugs über eine mögliche Beschädigung des Fahrzeugs informiert werden, wobei ein Bereich des Aufpralls oder der Beschädigung, die durch die Systeme und Verfahren identifiziert wurde, hervorgehoben wird. Wenn keine Diskrepanz erfasst wird, werden keine Warnungen ausgelöst und wartet ein System der vorliegenden Offenbarung auf den nächsten Satz von Bildern.
  • In einigen Ausführungsformen können bei zukünftigen Schlüsseleinschalt- und/oder Schlüsselausschaltereignissen erhaltene Fahrzeugbilder mit während des vorangehenden (Schlüsselausschalt- bzw. Schlüsseleinschalt-)Ereignisses gespeicherten Bildern verglichen werden. In verschiedenen Ausführungsformen können, nachdem der Vergleich durchgeführt und ein Bericht generiert wurde, nachfolgende Bilder, die auf dem Speicher gespeichert sind, mit neueren Bildern aktualisiert werden, um sicherzustellen, dass zukünftige Analysen und Vergleiche unter Verwendung des aktuellsten gespeicherten Satzes von Bildern vorgenommen werden. Selbstverständlich können in dieser Schrift verwendete Bilder aus statischen Bildern oder einem Video erhalten werden.
  • Eine besondere technologische Verbesserung und ein besonderer technologischer Vorteil, die/der (im Vergleich zu stoßsensorbasierten Verfahren, die herkömmlicherweise für die Unfallerfassung verwendet werden) durch die offenbarten Systeme und Verfahren bereitstellt ist, besteht in den niedrigen Energieanforderungen. Einige Ausführungsformen der Systeme und Verfahren in dieser Schrift machen im Allgemeinen keine Aufprallsensoren erforderlich. Somit machen diese Systeme und Verfahren keine Sensoren erforderlich, die ständig aktiv bleiben und somit die Batterie erschöpfen. Diese und andere Aspekte und Vorteile der vorliegenden Offenbarung werden in dieser Schrift in Bezug auf alle Zeichnungen genauer beschrieben.
  • Veranschaulichende Architektur
  • Unter Bezugnahme auf die Zeichnungen stellt 1 nun eine veranschaulichende Architektur 100 dar, in der Techniken und Strukturen der vorliegenden Offenbarung umgesetzt sein können. Die veranschaulichende Architektur 100 kann ein Fahrzeug 102, eine Umgebungsinfrastruktur 104 und ein Bildverarbeitungs- und Ereigniserfassungssystem (hiernach System 106) beinhalten.
  • Im Allgemeinen umfasst das Fahrzeug 102 eine Karosserie 108, eine oder mehrere Kameras (nachfolgend aufgezählt und erörtert) und eine Fahrzeugsteuerung 132. Die Fahrzeugsteuerung 132 ist in 1 schematisch zusammen mit einem Abschnitt mit zusätzlichen Komponenten des Fahrzeugs veranschaulicht.
  • In bestimmten Ausführungsformen weist die Karosserie 108 eine Vielzahl von Oberflächen auf, wie etwa Oberfläche 110. Diese Oberflächen können Objekte einschließen, wie etwa Türbleche, eine Motorhaube, einen Kofferraum, ein Dach, Fenster, Spiegel und Stoßfänger - um nur einige zu nennen. Selbstverständlich können die Oberflächen einen beliebigen Teil des Fahrzeugs 102 einschließen, der einer Beschädigung ausgesetzt werden kann. In einem nicht einschränkenden Beispiel prallt ein zweites Fahrzeug 112 auf der Oberfläche 110 (wie etwa einem vorderen Stoßfänger) des Fahrzeugs 102 auf. In diesem Beispiel ruft das zweite Fahrzeug 112 eine Beschädigung 114 der Oberfläche 110 hervor. Dies wird in dieser Schrift im Allgemeinen als ein Ereignisse einer schwachen Beschädigung bezeichnet. Im Allgemeinen schließt die Beschädigung 114, die unter Verwendung der Systeme und Verfahren erfasst werden kann, eine Beschädigung ein, die visuell erfasst werden kann oder durch die Verwendung eines Bildvergleichs auf Grundlage von maschinellem Lernen erfasst werden kann. Beispielhafte Beschädigungsveranschaulichungen werden unter Bezugnahme auf 2 genauer veranschaulicht und beschrieben.
  • Es versteht sich, dass, während die Bezeichnung schwach verwendet wurde, die Systeme und Verfahren in dieser Schrift bei einem beliebigen Ereignis nützlich sind, bei dem eine Beschädigung des Fahrzeugs 102 eintritt, wenn der Besitzer des Fahrzeugs 102 bei dem Beschädigungsereignis nicht anwesend ist. Somit sind die Systeme und Verfahren in dieser Schrift nicht auf Erfassen von lediglich einer schwachen Beschädigung eingeschränkt, sondern auf ein beliebiges visuell wahrnehmbares Beschädigungsereignis, für das es keine Zeugen gibt oder das nicht umgehend durch menschliche Beobachtung erfasst werden kann.
  • In einigen Ausführungsformen umfasst das Fahrzeug 102 eine ober mehrere bordeigene Kameras. Beispielsweise kann das Fahrzeug 102 eine Kamera in jedem seiner Seitenspiegel umfassen. In einer Ausführungsform ist eine erste Kamera 116 einem linken Seitenspiegel zugeordnet und ist eine zweite Kamera 120 einem rechten Seitenspiegel zugeordnet. In weiteren Ausführungsformen ist eine dritte Kamera 124 einem vorderen Abschnitt des Fahrzeugs 102 zugeordnet. Beispielsweise könnte die dritte Kamera 124 eine Armaturenbrettkamera oder eine Kamera einschließen, die in den Rückspiegel des Fahrzeugs 102 integriert ist. In weiteren Ausführungsformen ist eine vierte Kamera 128 einem hinteren Abschnitt des Fahrzeugs 102 zugeordnet. Beispielsweise könnte die vierte Kamera 128 eine Kamera einschließen, die in eine drahtlose Antenne des Fahrzeugs 102 integriert ist. Andere bordeigene Kameras können verwendet werden, wie etwa eine Backup-Kamera, die sich nahe eines Hecks des Fahrzeugs 102 befindet. Insgesamt und allgemein kann eine beliebige Anzahl an Kameras verwendet werden, um eine 360-Grad-Ansicht (oder weniger als eine 360-Grad-Ansicht) der Oberflächen des Fahrzeugs 102 zu schaffen. Erneut wird durch einige Ausführungsformen ein Überwachen und Erhalten von Bildern von lediglich einem Teil der Oberflächen des Fahrzeugs 102 anstelle der gesamten 360-Grad-Ansicht in Erwägung gezogen. Wie vorangehend angemerkt, kann jede dieser Kameras konfiguriert sein, um ein Video und/oder statische Bilder zu erhalten.
  • Bei der Fahrzeugsteuerung 132 handelt es sich um ein Rechensystem für einen bestimmten Zweck, das einen Prozessor 134, einen Speicher 136 und gegebenenfalls eine Mensch-Maschine-Schnittstelle (humane machine interface - HMI) 137 umfassen kann, wie etwa eine Touchscreen-Anzeige oder ein Spracheingabesystem. Im Allgemeinen führt der Prozessor 134 Anweisungen in dem Speicher 136 aus, um Funktionen bezüglich einer Bilderfassung und in einigen Fällen einer Bildanalyse und eine Berichterstattung bezüglich einer Fahrzeugbeschädigungsidentifikation bereitzustellen. Dies bedeutet, dass die in dieser Schrift offenbarten Merkmale in einigen Ausführungsformen vollständig durch die Fahrzeugsteuerung 132 durchgeführt werden können.
  • In einigen Ausführungsformen ist der Speicher 136 der Fahrzeugsteuerung 132 mit bestimmten Modulen konfiguriert, die zusammen die in dieser Schrift offenbarten Funktionen bereitstellen. Beispielsweise umfasst der Speicher 136 ein Zündungsüberwachungsmodul 138, ein Kamerasteuerungsmodul 140 und ein Bildverarbeitungs- und Ereigniserfassungsmodul (hiernach Analyseeinrichtung 142).
  • Im Allgemeinen führt der Prozessor 134 das Zündungsüberwachungsmodul 138 aus, um Schlüsseleinschalt- und Schlüsselausschaltereignisse einer Zündungsbaugruppe 144 des Fahrzeugs 102 zu erkennen. In einigen Ausführungsformen kann das Zündungsüberwachungsmodul 138 Zündungsereignisse von einem anderen zugeordneten Teil des Fahrzeugs, wie etwa einem Elektroniksteuermodul eines Motors des Fahrzeugs 102, erkennen, anstatt Vorgänge der Zündungsbaugruppe 144 direkt zu erkennen, wie einem Fachmann ersichtlich würde.
  • In einigen Ausführungsformen führt der Prozessor 134 das Kamerasteuerungsmodul 140 aus, wenn ein Schlüsseleinschalt- und/oder ein Schlüsselausschaltereignis erfasst wird, um zu veranlassen, dass jede der Kameras, die dem Fahrzeug 102 zugeordnet ist, ein oder mehrere Bilder erhält. Diese Bilder werden als ein aktuellster erhaltener Bildsatz bezeichnet.
  • Grundsätzlich bezieht sich der aktuellste erhaltene Bildsatz im Allgemeinen auf Bilder, die einem zweiten Zeitpunkt zugeordnet sind.
  • Sobald die Bilder erhalten wurden, kann der Prozessor 134 die Analyseeinrichtung 142 ausführen. In einigen Ausführungsformen ist die Analyseeinrichtung 142 konfiguriert, um eine Vielzahl von Bildern, die von einer Vielzahl von Kameras des Fahrzeugs 102 erhalten wurden, zu sammeln und eine 360-Grad-Ansicht des Fahrzeugs 102 zu erhalten. In verschiedenen Ausführungsformen kann die Analyseeinrichtung 142 eine Vergleichseinrichtung 147 mit maschinellem Lernen umfassen, welche die kürzlich erhaltenen Bilder mit dem aktuellsten Basisbildsatz vergleicht, der auf dem Speicher 136 gespeichert ist, wie etwa einem Basisbildspeicher 149. Grundsätzlich bezieht sich der aktuellste Basisbildsatz im Allgemeinen auf Bilder, die einem ersten Zeitpunkt zugeordnet sind. Wie vorangehend angemerkt, kann der aktuellste Basisbildsatz einen letzten Satz von Bildern einschließen, der während eines aktuellsten Schlüsseleinschalt- oder Schlüsselausschaltereignis für das Fahrzeug 102 erhalten wird. In einigen Ausführungsformen werden jedes Mal, wenn Bilder für das Fahrzeug 102 erhalten werden, die Bilder zeitgestempelt. Außerdem können auf dem Speicher 136 mehrere Basisbildsätze gespeichert werden, was ermöglicht, dass ein Vergleich mit älteren Sätzen von Basisbildsätzen zur Verfügung gestellt wird, wenn der aktuellste Basisbildsatz beschädigt oder anderweitig nicht verfügbar ist.
  • Selbstverständlich wurde der aktuellste Basisbildsatz in einem vorangehenden Prozess unter Verwendung der Vergleichseinrichtung 147 mit maschinellem Lernen analysiert. Dies bedeutet, dass die Bilder des aktuellsten Basisbildsatzes analysiert wurden, um die visuellen Merkmale der Oberflächen des Fahrzeugs 102 zu bestimmen. In einigen Ausführungsformen erzeugt die Vergleichseinrichtung 147 mit maschinellem Lernen ein Modell der Oberflächen des Fahrzeugs 102 aus dem Basisbildsatz. Dieses Modell wird in einigen Ausführungsformen für Vergleiche verwendet.
  • In verschiedenen Ausführungsformen nutzt die Vergleichseinrichtung 147 mit maschinellem Lernen einen Algorithmus zum maschinellen Lernen, der konfiguriert ist, um eine Oberflächenbeschädigung zu erfassen, wie etwa Dellen, Kratzer, eine Lackverfärbung, Löcher und andere Arten von Oberflächenbeschädigung. Dies bedeutet, dass die Vergleichseinrichtung 147 mit maschinellem Lernen anstelle von oder zusätzlich zu einer Verwendung von Oberflächenmodellierung an beispielhaften Bildern trainiert werden kann, die eine Oberflächenbeschädigung von Fahrzeugkomponenten beinhalten und nicht beinhalten. Somit lernt die Vergleichseinrichtung 147 mit maschinellem Lernen beispielhafte Beschädigungsmuster, die Dellen, Kratzer, Lackverfärbungen, Löcher und andere Arten von Oberflächenbeschädigung angeben.
  • Im Allgemeinen vergleicht die Vergleichseinrichtung 147 mit maschinellem Lernen den aktuellsten Basisbildsatz mit dem aktuellsten erhaltenen Bildsatz. Dieser Prozess schließt Analysieren der visuellen Merkmale der Oberflächen des Fahrzeugs 102 in dem aktuellsten erhaltenen Bildsatz ein. Sobald die Bilder verarbeitet wurden, werden die Daten mit dem aktuellen Basisbildsatz verglichen, um jegliche Diskrepanzen dazwischen zu bestimmen.
  • Im Allgemeinen vergleicht die Analyseeinrichtung 142 einen ersten Satz von Bildern, der zu einem ersten Zeitpunkt erhalten wurde, mit einem zweiten Satz von Bildern, der zu einem zweiten Zeitpunkt erhalten wurde, unter Verwendung von Prozessen des maschinellen Lernens, um eine Beschädigung eines Fahrzeugs zu erfassen. In einigen Ausführungsformen beinhaltet dieser Prozess Vergleichen des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um eine Beschädigung der einen oder mehreren Oberflächen unter Verwendung eines Algorithmus zum maschinellen Lernen, der konfiguriert ist, um eine Oberflächenbeschädigung zu erfassen, zu bestimmen.
  • Im Allgemeinen werden bei jedem zukünftigen Schlüsseleinschalt-/Schlüsselausschaltereignis Bilder des Fahrzeugs 102 erhalten. Somit wird der zweite Satz von Bilder bei jedem zukünftigen Schlüsseleinschalt- oder Schlüsselausschaltereignis erhalten und umfasst der erste Satz von Bildern einen aktuellsten Basissatz von Bildern, die auf Grundlage eines vorangehenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses (wie etwa des Schlüsseleinschalt- oder Schlüsselausschaltereignis, das einem aktuellen oder zukünftigen Schlüsseleinschalt- oder Schlüsselausschaltereignis direkt vorangeht) erhalten wurden.
  • In verschiedenen Ausführungsformen kann der Prozessor 134 eine Warnnachricht durch die Mensch-Maschine-Schnittstelle 137 an den Fahrer bereitstellen, dass das Fahrzeug 102 beschädigt wurde, wenn eine Beschädigung erfasst wird. Der Prozessor 134 kann an der Mensch-Maschine-Schnittstelle 137 identifizieren, wo die Beschädigung an dem Fahrzeug 102 eingetreten ist, sowie die durch die Analyseeinrichtung 142 identifizierte Oberfläche verwenden. In verschiedenen Ausführungsformen kann der Prozessor 134 einen Beschädigungsbericht an eine interessierte Partei übertragen, wie etwa den Fahrer, eine Versicherungsgesellschaft oder einen Nothelfer - um nur einige zu nennen. In einigen Ausführungsformen kann der Prozessor 134 Beschädigungsberichte über ein Netzwerk 141 übertragen. Im Allgemeinen ermöglicht das Netzwerk 141, dass Komponenten in der Architektur 100 miteinander kommunizieren. Das Netzwerk 141 kann eine beliebige oder eine Kombination aus mehreren verschiedenen Arten von Netzwerken einschließen, wie etwa Kabelnetzwerke, das Internet, drahtlose Netzwerke und andere private und/oder öffentliche Netzwerke. In einigen Fällen kann das Netzwerk 141 Mobilfunk, Wi-Fi oder Wi-Fi Direct einschließen. Ein beispielhafter Kommunikationsweg kann die Fahrzeugsteuerung 132 zu dem System 106 einschließen.
  • In einigen Ausführungsformen können die Fotografien oder Bilder aus Fahrzeug-zu-Fahrzeug-(V2V-) oder Fahrzeug-zu-Infrastruktur-(V2I-)Kommunikationen über das Netzwerk erhalten werden. Beispielsweise kann ein Bild oder eine Aufnahme des Fahrzeugs 102 von einem benachbarten Fahrzeug erhalten werden, das mit einer bordeigenen Kamera ausgestattet ist. Die Fahrzeugsteuerung 132 kann unter Verwendung von V2V-Kommunikationen ein Bild oder Bilder von einem benachbarten Fahrzeug anfordern. Anstatt das Netzwerk 141 zu verwenden, können die Fahrzeuge außerdem über ein beliebiges geeignetes drahtloses Netzwerk mit kurzer Reichweite kommunizieren. V2I-Kommunikationen können ebenfalls über ein drahtloses Netzwerk mit kurzer Reichweite anstelle von oder zusätzlich zu einem Verwenden des Netzwerks 141 erfolgen.
  • 2 veranschaulicht eine Nachricht, welche die Erfassung der Beschädigung 114 der Oberfläche 110 des Fahrzeugs 102 beim Vergleich zwischen einem Bild der Oberfläche 110, das in einem aktuellsten Basisbildsatz eingeschlossen ist, mit einem Bild der Oberfläche 110, das in einem aktuellsten erhaltenen Bildsatz eingeschlossen ist, angibt. Die Nachricht ist an der Mensch-Maschine-Schnittstelle 137 angezeigt.
  • Unter erneuter Bezugnahme auf 1 kann das System 106 gemäß einigen Ausführungsformen die Bilderfassungs- und -verarbeitungsfunktionen beinhalten, die in Bezug auf die Fahrzeugsteuerung 132 offenbart sind. Dies bedeutet, dass das System 106 außerdem einen Prozessor 146 und einen Speicher 148 beinhalten kann. Im Allgemeinen umfasst der Speicher 148 ein Bildverarbeitungs- und Ereigniserfassungsmodul 150, das eine Vergleichseinrichtung 152 mit maschinellem Lernen aufweist. Das Bildverarbeitungs- und Ereigniserfassungsmodul 150, das eine Vergleichseinrichtung 152 mit maschinellem Lernen aufweist, weist zu den vorangehend in Bezug auf die Analyseeinrichtung 142 und die Vergleichseinrichtung 147 mit maschinellem Lernen äquivalente Funktionen auf. In einigen Ausführungsformen könnte das System 106 einen Server beinhalten. In weiteren Ausführungsformen könnte das System 106 eine Cloud oder ein behälterbasiertes Verarbeitungssystem beinhalten.
  • Somit ermöglichen einige Ausführungsformen eine zusammenwirkende Prozesssteuerung zwischen der Fahrzeugsteuerung 132 und dem System 106. Beispielsweise kann die Fahrzeugsteuerung 132 das Zündungsüberwachungsmodul 138 und das Kamerasteuerungsmodul 140 umsetzen. Die Fahrzeugsteuerung 132 kann Bilder zum Verarbeiten und/oder zur Analyse an das System 106 übertragen. In einer weiteren Ausführungsform kann die Fahrzeugsteuerung 132 Bilder zu einem Remote-System 156 übertragen. Das Remote-System 156 könnte zum Beispiel ein Rechensystem für eine Versicherungsgesellschaft oder ein Rechensystem einschließen, das durch Nothelfer verwendet wird.
  • Zusätzlich zu den bordeigenen Kameras an dem Fahrzeug 102 können in 1 Bilder außerdem von einer oder mehreren nicht-bordeigenen Kameras erhalten und verarbeitet werden, die der Umgebungsinfrastruktur 104 zugeordnet sind. Dieser Prozess kann Vorteile bereitstellen, wenn das Fahrzeug 102 über keine ausreichenden bordeigenen Kameras verfügt, um Bilder des Fahrzeugs oder von bestimmten Oberflächen davon zu erhalten. Beispielsweise sind bordeigene Kameras unter Umständen nicht in der Lage, die Dachplattenflächen des Fahrzeugs ausreichend abzubilden. Trotz dieses Grundes können die Systeme und Verfahren in dieser Schrift Bilder nutzen, die durch Kameras erhalten wurden, wie etwa eine Kamera 154, die der Umgebungsinfrastruktur 104 zugeordnet ist. Wenn das System 106 verwendet wird, um Bilder zu verarbeiten, kann das System 106 einen Zeitstempel identifizieren, der einem Bild zugeordnet ist, das von der Umgebungsinfrastruktur 104 erhalten wurde. In weiteren Ausführungsformen kann die Fahrzeugsteuerung 132 konfiguriert sein, um mit der Kamera 154 der Umgebungsstruktur 104 über das Netzwerk 141 zu kommunizieren und die Kamera 154 anzuweisen, ein Bild während eines Schlüsseleinschalt- und/oder Schlüsselausschaltereignisses oder ungefähr, wenn die bordeigenen Kameras des Fahrzeugs 102 Bilder erhalten, zu erhalten.
  • Zusätzlich zu Bildern, die Ansichten der Oberflächen des Fahrzeugs beinhalten, können einige bordeigene Fahrzeugkameras oder Kameras, die der Umgebungsinfrastruktur 104 zugeordnet sind, Bilder eines allgemeinen Bereichs erhalten, in dem das Fahrzeug 102 positioniert ist. Das System 106 kann konfiguriert sein, um diese Bilder zu verarbeiten, um Merkmale zu identifizieren, wie etwa Fahrzeuge, Nummernschilder, menschliche Gesichter oder andere Merkmale oder Objekte nahe dem Fahrzeug 102. Wenn eine Beschädigung des Fahrzeugs 102 erfasst wird, kann das System 106 diese allgemeinen Bereichsbilder verarbeiten, um mögliche Verantwortliche und/oder Zeugen zu identifizieren. Wenn zum Beispiel ein Überwachungskameravideo des allgemeinen Bereichs um das Fahrzeug 102 erhalten wird, kann das System 106 das zweite Fahrzeug 112 und außerdem ein Nummernschild identifizieren, das dem zweiten Fahrzeug 112 zugeordnet ist.
  • Gemäß einigen Ausführungsformen kann ein Fahrer 158 des Fahrzeugs 102 ein Smartphone 160 nutzen, um Bilder des Fahrzeugs 102 zu erhalten. Diese Bilder können in Kombination mit Bildern verwendet werden, die von den bordeigenen Kameras des Fahrzeugs 102 erhalten wurden. Die Fahrzeugsteuerung 132 des Fahrzeugs 102 oder das System 106 kann diese Bilder von dem Smartphone 160 erhalten und kann diese einem aktuellen Schlüsseleinschalt- oder Schlüsselausschaltereignis zuordnen. Das Smartphone 160 kann Bilder des Fahrzeugs 102 erhalten, die eine höhere Auflösung aufweisen als die, die durch die bordeigenen Kameras des Fahrzeugs 102 bereitgestellt werden. Wenn die Analyseeinrichtung 142 der Fahrzeugsteuerung 132 (oder des Systems 106) einen Bereich des Fahrzeugs 102 findet, der scheinbar beschädigt ist, die Analyseeinrichtung 142 jedoch keine definitive Bestimmung vornehmen kann, kann die Fahrzeugsteuerung 132 in einigen Fällen den Fahrer 158 anweisen, zusätzliche Bilder mit seinem Smartphone 160 zu erhalten. Diese zusätzlichen Bilder können verwendet werden, um die mögliche Beschädigung des Fahrzeugs zu bestätigen oder abzulehnen.
  • Veranschaulichende Verfahren und Vorgänge
  • Die folgenden Beschreibungen stellen zusätzliche Details der funktionalen und methodischen Aspekte der vorliegenden Offenbarung bereit, die in den gesamten vorangehend offenbarten Architekturen und/oder Systemen bereitgestellt sind. 3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung. Das Verfahren beinhaltet im Allgemeinen eine Schritt 302 des Erhaltens eines detaillierten 360-Grad-Bildes eines Fahrzeugs zu dem Kaufzeitpunkt. Dieser Satz von Bildern wird als ein erster Satz von Bildern oder ein Basissatz von Bildern bezeichnet. Diese Bilder werden auf dem Speicher des Fahrzeugs und/oder einem Remote-System gesammelt und gespeichert. Dieser Schritt kann bei dem Händler oder durch einen Fahrzeughersteller durchgeführt werden.
  • Als Nächstes beinhaltet das Verfahren einen Schritt 304 des Erfassens eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für das Fahrzeug. Als Reaktion auf dieses Schlüsseleinschalt- oder Schlüsselausschaltereignis beinhaltet das Verfahren einen Schritt 306 des Erhaltens einer weiteren nachfolgenden detaillierten 360-Grad-Aufnahme (z. B. eines zweiten Satzes von Bildern) des Fahrzeugs bei dem erfassten Schlüsseleinschalt- oder Schlüsselausschaltereignis. Dieser Schritt kann Bestimmen von Zündungsereignissen und Veranlassen beinhalten, dass bordeigene Fahrzeugkameras einen zweiten Satz von Bildern erhalten. In weiteren Ausführungsformen kann ein Fahrer oder eine andere Person Bilder des Fahrzeugs unter Verwendung seines/ihres Smartphones erhalten und diese Bilder an einen Server oder eine Cloud der vorliegenden Offenbarung übertragen.
  • Wie hierin angemerkt, kann das Verfahren einen Schritt 308 des Vergleichens des zweiten Satzes von Bildern mit dem ersten Satz von Bildern beinhalten, um eine Beschädigung an einem Abschnitt des Fahrzeugs zu identifizieren. Wenn eine Beschädigung identifiziert wird, kann das Verfahren einen Schritt 310 des Berichterstattens über die Beschädigung an den Fahrer des Fahrzeugs beinhalten, wie etwa durch eine Mensch-Maschine-Schnittstelle.
  • In einigen Ausführungsformen beinhaltet das Verfahren einen Schritt 312 des Ersetzens des ersten Satzes von Bildern durch den zweiten Satz von Bildern. Der zweite Satz von Bildern, der als der aktuelle Satz von Bildern bezeichnet wird, ersetzt den ersten Satz von Bildern, der als der Basissatz von Bildern bezeichnet wird, sodass der zweite Satz von Bildern nun zu dem Basissatz von Bildern wird. Bei jedem aufeinanderfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignis wird das Verfahren von Schritt 304 bis Schritt 312 wiederholt.
  • 4 ist ein Ablaufdiagramm eines weiteren beispielhaften Verfahrens der vorliegenden Offenbarung. Das Verfahren kann einen Schritt 402 des Erfassens eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug zu einem zweiten Zeitpunkt beinhalten. Es versteht sich, dass sich der zweite Zeitpunkt auf einen Zeitrahmen bezieht, der eintritt, nachdem ein Basissatz von Bildern für das Fahrzeug erhalten wurde. In einigen Ausführungsformen wurde der Basissatz von Bildern für das Fahrzeug bei einem aktuellsten vergangenen Schlüsseleinschalt- oder Schlüsselausschaltereignis erhalten.
  • Als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses beinhaltet das Verfahren einen Schritt 404 des Erhaltens von einem aktuellen Satz von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs. Wie vorangehend angemerkt, kann dies Aktivieren von bordeigenen Kameras für das Fahrzeug sowie nicht-bordeigenen Kameras um das Fahrzeug herum beinhalten. In einigen Ausführungsformen werden Bilder außerdem von einer mobilen Vorrichtung erhalten.
  • In verschiedenen Ausführungsformen beinhaltet das Verfahren einen Schritt 406 des Zugreifens auf einen Basissatz von Bildern für das Fahrzeug, die zu einem ersten Zeitpunkt erhalten werden, der dem zweiten Zeitpunkt vorangeht. Als Nächstes kann das Verfahren einen Schritt 408 des Vergleichens des aktuellen Satzes von Bildern mit dem Basissatz von Bildern beinhalten, um eine Beschädigung der einen oder den mehreren Oberflächen zu bestimmen. Selbstverständlich kann dieser Prozess unter Verwendung eines Systems des maschinellen Lernens oder der künstlichen Intelligenz durchgeführt werden, das trainiert wurde, um eine Beschädigung von Fahrzeugoberflächen zu erfassen. In einigen Ausführungsformen kann dies Nutzen von fortschrittlichen Techniken des maschinellen Lernens und der Mustererkennung beinhalten, wie etwa Techniken auf Grundlage eines Deep Neural Networks, Random Forest, Boosted Trees oder Naiver Bayes-Klassifikator, um Vorher-Nachher-Bilder für Zwecke des Erfassens von Ereignissen einer schwachen Beschädigung zu vergleichen. Wenn eine Beschädigung erfasst wird, kann das Verfahren einen Schritt 410 des Darstellens einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt, umfassen.
  • Wie vorangehend angemerkt, kann der aktuelle Satz von Bildern bei jedem Schlüsseleinschalt- oder Schlüsselausschaltereignis erhalten werden und umfasst der Basissatz von Bildern einen aktuellsten Basisbildsatz, der von dem Fahrzeug erhalten und auf einem Speicher des Fahrzeugs gespeichert wurde. Dieser Prozess ermöglicht ein iteratives Austauschen des Basissatzes von Bilder im Verlauf der Zeit, wobei neuere Sätze von Bildern an Schlüsseleinschalt- und Schlüsselausschaltereignisse gebunden sind.
  • In verschiedenen Ausführungsformen kann das Verfahren Übertragen der Nachricht an ein Remote-System umfassen. In einigen Ausführungsformen kann die Nachricht den aktuellen Satz von Bildern und den Basissatz von Bildern beinhalten. Wenn eine Beschädigung erfasst wird, wird ein Bereich der Beschädigung an dem aktuellen Satz von Bildern identifiziert. Das Remote-System kann zum Beispiel ein System einer Versicherungsgesellschaft oder eines Nothelfers einschließen.
  • In einigen Ausführungsformen werden Bilder zeitgestempelt und können die Bilder eine 360-Grad-Ansicht von einer oder mehreren Oberflächen des Fahrzeugs bilden. In weiteren Ausführungsformen werden Bilder für weniger als eine 360-Grad-Ansicht des Fahrzeugs erhalten.
  • 5 veranschaulicht ein weiteres beispielhaftes Verfahren der vorliegenden Offenbarung, das einen Schritt 502 des Erfassens eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug zu einem ersten Zeitpunkt umfasst. Als Nächstes kann das Verfahren einen Schritt 504 des Erhaltens von einem ersten Satz von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses beinhalten. In verschiedenen Ausführungsformen kann das Verfahren einen Schritt 506 des Erfassens eines nachfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses für das Fahrzeug zu einem zweiten Zeitpunkt beinhalten. In verschiedenen Ausführungsformen beinhaltet das Verfahren einen Schritt 508 des Erhaltens von einem zweiten Satz von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung der einen oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des nachfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses. In einer oder mehreren Ausführungsformen beinhaltet das Verfahren einen Schritt 510 des Vergleichens des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um eine Beschädigung der einen oder mehreren Oberflächen unter Verwendung eines Algorithmus zum maschinellen Lernen, der konfiguriert ist, um eine Oberflächenbeschädigung zu erfassen, zu bestimmen. In einigen Ausführungsformen kann das Verfahren einen Schritt 512 des Darstellens einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt, beinhalten.
  • Ausführungsbeispiele
  • In manchen Fällen können die folgenden Beispiele zusammen oder separat durch die in dieser Schrift beschriebenen Systeme und Verfahren umgesetzt werden.
  • Beispiel 1 kann ein Verfahren beinhalten, das Folgendes umfasst: Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug; Erhalten eines aktuellen Satzes von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Erhalten eines Basissatzes von Bildern für das Fahrzeug; Vergleichen des aktuellen Satzes von Bildern mit dem Basissatz von Bildern, um eine Beschädigung der einen oder mehreren Oberflächen zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.
  • Beispiel 2 kann das Verfahren nach Beispiel 1 beinhalten, wobei der aktuelle Satz von Bildern bei jedem Schlüsseleinschalt- oder Schlüsselausschaltereignis erhalten wird und der Basissatz von Bildern einen aktuellsten Basisbildsatz umfasst, der von dem Fahrzeug erhalten und auf einem Speicher des Fahrzeugs gespeichert wurde.
  • Beispiel 3 kann das Verfahren nach Beispiel 1 und/oder einem anderen Beispiel in dieser Schrift beinhalten, ferner umfassend Erhalten von Bildern von einer Infrastrukturkamera, die sich außerhalb des Fahrzeugs befindet.
  • Beispiel 4 kann das Verfahren nach Beispiel 1 und/oder einem anderen Beispiel in dieser Schrift beinhalten, ferner umfassend Übertragen einer Nachricht an ein Remote-System, wobei die Nachricht den aktuellen Satz von Bildern und den Basissatz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem aktuellen Satz von Bildern identifiziert wird.
  • Beispiel 5 kann das Verfahren nach Beispiel 1 und/oder einem anderen Beispiel in dieser Schrift beinhalten, ferner umfassend Zeitstempeln eines von dem aktuellen Satz von Bildern und dem Basissatz von Bildern.
  • Beispiel 6 kann das Verfahren nach Beispiel 1 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei der aktuelle Satz von Bildern und der Basissatz von Bildern eine 360-Grad-Ansicht der einen oder mehreren Oberflächen des Fahrzeugs umfassen.
  • Beispiel 7 kann das Verfahren nach Beispiel 1 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei der aktuelle Satz von Bildern zu einem zweiten Zeitpunkt erhalten wird und der Basissatz von Bildern zu einem ersten Zeitpunkt erhalten wird, der dem zweiten Zeitpunkt vorangeht.
  • Beispiel 8 kann ein Verfahren beinhalten, das Folgendes umfasst: Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug zu einem ersten Zeitpunkt; Erhalten eines ersten Satzes von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Erfassen eines nachfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses für ein Fahrzeug zu einem zweiten Zeitpunkt; Erhalten eines zweiten Satzes von Bildern der einen oder mehreren Oberflächen des Fahrzeugs unter Verwendung der einen oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des nachfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Vergleichen des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um unter Verwendung eines Algorithmus zum maschinellen Lernen, der konfiguriert ist, um eine Oberflächenbeschädigung zu erfassen, eine Beschädigung der einen oder mehreren Oberflächen zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.
  • Beispiel 9 kann das Verfahren nach Beispiel 8 beinhalten, wobei der erste Satz von Bildern und der zweite Satz von Bildern jeweils eine 360-Grad-Ansicht der einen oder mehreren Oberflächen des Fahrzeugs umfasst.
  • Beispiel 10 kann das Verfahren nach Beispiel 8 und/oder einem anderen Beispiel in dieser Schrift beinhalten, ferner umfassend Übertragen der Nachricht an ein Remote-System, wobei die Nachricht den ersten Satz von Bildern und den zweiten Satz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem zweiten Satz von Bildern identifiziert wird.
  • Beispiel 11 kann ein System beinhalten, das Folgendes umfasst: ein Fahrzeug, das ein Zündsystem, eine oder mehrere bordeigene Kameras, eine Mensch-Maschine-Schnittstelle und eine Fahrzeugsteuerung umfasst, wobei die Fahrzeugsteuerung einen Prozessor umfasst, der zu Folgendem konfiguriert ist: Ausführen eines Zündungsüberwachungsmoduls zum Erfassen von Schlüsseleinschalt- oder Schlüsselausschaltereignissen; und Ausführen eines Kamerasteuerungsmoduls zum Aktivieren der einen oder mehreren bordeigenen Kameras, um einen zweiten Satz von Bildern des Fahrzeugs zu erhalten, als Reaktion auf die Schlüsseleinschalt- oder Schlüsselausschaltereignisse; und eine Analyseeinrichtung, die zu Folgendem konfiguriert ist: Erhalten eines ersten Satzes von Bildern, der auf einem Speicher gespeichert ist; Vergleichen des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um eine Beschädigung des Fahrzeugs zu identifizieren; und Generieren einer Meldung zur Anzeige an der Mensch-Maschine-Schnittstelle, welche die Beschädigung angibt.
  • Beispiel 12 kann das System nach Beispiel 11 beinhalten, ferner umfassend eine Vergleichseinrichtung mit maschinellem Lernen der Analyseeinrichtung, die den ersten Satz von Bildern mit dem zweiten Satz von Bildern vergleicht, wobei die Vergleichseinrichtung mit maschinellem Lernen einen Algorithmus zum maschinellen Lernen umsetzt, der konfiguriert ist, um eine Fahrzeugbeschädigung zu erfassen.
  • Beispiel 13 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei die Analyseeinrichtung ein Modul ist, das durch die Fahrzeugsteuerung ausgeführt werden kann.
  • Beispiel 14 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei sich die Analyseeinrichtung auf einem Server oder in einer Cloud befindet, der/die entfernt zu dem Fahrzeug ist, wobei die Fahrzeugsteuerung den zweiten Satz von Bildern zu dem Server oder der Cloud und dem ersten Satz von Bildern überträgt, der auf dem Speicher des Servers oder der Cloud gespeichert ist.
  • Beispiel 15 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei die Fahrzeugsteuerung konfiguriert ist, um den zweiten Satz von Bildern bei jedem zukünftigen Schlüsseleinschalt- oder Schlüsselausschaltereignis zu erhalten, und den ersten Satz von Bildern einen aktuellsten Basisbildsatz umfassen, der auf Grundlage eines vorangehenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses erhalten und gespeichert wurde.
  • Beispiel 16 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei die Fahrzeugsteuerung konfiguriert ist, um Bilder von einer Infrastrukturkamera zu erhalten, die sich bezogen auf das Fahrzeug außerhalb befindet, wobei die Bilder von der Infrastrukturkamera bei dem Vergleich zum Identifizieren einer Beschädigung des Fahrzeugs genutzt werden.
  • Beispiel 17 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei die Fahrzeugsteuerung konfiguriert ist, um die Nachricht an ein Remote-System zu übertragen, wobei die Nachricht den ersten Satz von Bildern und den zweiten Satz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem zweiten Satz von Bildern identifiziert wird.
  • Beispiel 18 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei die Fahrzeugsteuerung konfiguriert ist, um den zweiten Satz von Bildern zeitzustempeln.
  • Beispiel 19 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei einer von dem ersten Satz von Bildern und dem zweiten Satz von Bildern eine 360-Grad-Ansicht des Fahrzeugs umfasst.
  • Beispiel 20 kann das System nach Beispiel 11 und/oder einem anderen Beispiel in dieser Schrift beinhalten, wobei die Nachricht, die an der Mensch-Maschine-Schnittstelle angezeigt wird, eines von den Bildern des zweiten Satzes von Bildern mit identifizierter Beschädigung umfasst.
  • In der vorangehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Bestandteil davon bilden und konkrete Umsetzungen veranschaulichen, in denen die vorliegende Offenbarung praktisch umgesetzt werden kann. Es versteht sich, dass auch andere Umsetzungen verwendet und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann; jede Ausführungsform muss jedoch nicht notwendigerweise diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich solche Formulierungen nicht notwendigerweise auf dieselbe Ausführungsform. Ferner wird der Fachmann ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen erkennen, wenn diese(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der hierin offenbarten Systeme, Einrichtungen, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie sie hierin erläutert werden. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Somit können Umsetzungen der vorliegenden Offenbarung beispielsweise und nicht einschränkend zumindest zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Zu Computerspeichermedien (-vorrichtungen) gehören RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - SSDs) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher (phase-change memory - PCM), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder festverdrahtet, drahtlos oder eine beliebige Kombination aus festverdrahtet oder drahtlos) auf einen Computer übertragen oder einem Computer bereitgestellt werden, sieht der Computer die Verbindung zweckgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus dem Vorangehenden sollten ebenfalls im Umfang computerlesbarer Medien enthalten sein.
  • Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Patentansprüche offenbart.
  • Der Fachmann wird erkennen, dass die vorliegende Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen umgesetzt werden kann, einschließlich Armaturenbrett-Fahrzeugcomputern, PCs, Desktop-Computern, Laptopcomputern, Nachrichtenprozessoren, Handheld-Vorrichtungen, Multiprozessorsystemen, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedener Speichervorrichtungen und dergleichen. Die Offenbarung kann zudem in verteilten Systemumgebungen umgesetzt werden, in denen sowohl lokale Computersysteme als auch Remote-Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine beliebige Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer verteilten Systemumgebung können sich Programmmodule sowohl in den lokalen Speichervorrichtungen als auch den Remote-Speichervorrichtungen befinden.
  • Ferner können die hierin beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (application specific integrated circuits - ASICs) können zum Beispiel programmiert sein, um eines/einen oder mehrere der hierin beschriebenen Systeme und Vorgänge ausführen. Bestimmte Ausdrücke werden in der gesamten Beschreibung und den Ansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Der Fachmann wird verstehen, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es ist anzumerken, dass die vorangehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um zumindest einen Teil ihrer Funktionen auszuführen. Ein Sensor kann zum Beispiel einen Computercode beinhalten, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hierin zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt sein, wie es dem einschlägigen Fachmann bekannt ist.
  • Zumindest einige Ausführungsformen der vorliegenden Offenbarung sind auf Computerprogrammprodukte ausgerichtet, die eine derartige Logik (z. B. in Form von Software) umfassen, die in einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • Während vorangehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Der Fachmann auf dem einschlägigen Gebiet wird erkennen, dass verschiedene Änderungen bezüglich Form und Detail daran vorgenommen werden können, ohne vom Wesen und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten Breite und Umfang der vorliegenden Offenbarung durch keine der vorangehend beschriebenen beispielhaften Ausführungsformen eingeschränkt, sondern lediglich gemäß den folgenden Ansprüchen und deren Äquivalenten definiert werden. Die vorangehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die genaue offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorangehenden Lehren möglich. Ferner ist anzumerken, dass beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybrid-Umsetzungen der vorliegenden Offenbarung zu bilden. Beispielsweise können alle Funktionen, die in Bezug auf eine bestimmte Vorrichtung oder Komponente beschrieben wurden, von einer anderen Vorrichtung oder Komponente durchgeführt werden. Des Weiteren wurden zwar konkrete Vorrichtungseigenschaften beschrieben, doch können sich Ausführungsformen der Offenbarung auf zahlreiche andere Vorrichtungseigenschaften beziehen. Des Weiteren wurden Ausführungsformen zwar in für Strukturmerkmale und/oder methodische Maßnahmen spezifischer Sprache beschrieben, doch versteht es sich, dass die Offenbarung nicht notwendigerweise auf die konkreten Merkmale oder Handlungen beschränkt ist. Stattdessen sind die konkreten Merkmale und Handlungen als veranschaulichende Formen zum Umsetzen der Ausführungsformen offenbart. Sprache, die konditionale Zusammenhänge ausdrückt, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll im Allgemeinen vermitteln, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Umsetzungen diese nicht beinhalten können, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit ist eine Sprache, die konditionale Zusammenhänge ausdrückt, nicht so gemeint, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug; Erhalten eines aktuellen Satzes von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Erhalten eines Basissatzes von Bildern für das Fahrzeug; Vergleichen des aktuellen Satzes von Bildern mit dem Basissatz von Bildern, um eine Beschädigung der einen oder mehreren Oberflächen zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.
  • Gemäß einer Ausführungsform wird der aktuelle Satz von Bildern bei jedem Schlüsseleinschalt- oder Schlüsselausschaltereignis erhalten und umfasst der Basissatz von Bildern einen aktuellsten Basisbildsatz, der von dem Fahrzeug erhalten und auf einem Speicher des Fahrzeugs gespeichert wurde.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch Erhalten von Bildern von einer Infrastrukturkamera gekennzeichnet, die sich außerhalb des Fahrzeugs befindet.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch Übertragen einer Nachricht an ein Remote-System gekennzeichnet, wobei die Nachricht den aktuellen Satz von Bildern und den Basissatz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem aktuellen Satz von Bildern identifiziert wird.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch Zeitstempeln eines von dem aktuellen Satz von Bildern und dem Basissatz von Bildern gekennzeichnet.
  • Gemäß einer Ausführungsform umfassen der aktuelle Satz von Bildern und der Basissatz von Bildern eine 360-Grad-Ansicht der einen oder mehreren Oberflächen des Fahrzeugs.
  • Gemäß einer Ausführungsform wird der aktuelle Satz von Bildern zu einem zweiten Zeitpunkt erhalten und wird der Basissatz von Bildern zu einem ersten Zeitpunkt erhalten, der dem zweiten Zeitpunkt vorangeht.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug zu einem ersten Zeitpunkt; Erhalten eines ersten Satzes von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Erfassen eines nachfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses für das Fahrzeug zu einem zweiten Zeitpunkt; Erhalten eines zweiten Satzes von Bildern der einen oder mehreren Oberflächen des Fahrzeugs unter Verwendung der einen oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des nachfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Vergleichen des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um unter Verwendung eines Algorithmus zum maschinellen Lernen, der konfiguriert ist, um eine Oberflächenbeschädigung zu erfassen, eine Beschädigung der einen oder mehreren Oberflächen zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.
  • Gemäß einer Ausführungsform umfasst der erste Satz von Bildern und der zweite Satz von Bildern jeweils eine 360-Grad-Ansicht der einen oder mehreren Oberflächen des Fahrzeugs.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch Übertragen der Nachricht an ein Remote-System gekennzeichnet, wobei die Nachricht den ersten Satz von Bildern und den zweiten Satz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem zweiten Satz von Bildern identifiziert wird.
  • Gemäß der vorliegenden Erfindung ist ein System bereitgestellt, das Folgendes aufweist: ein Fahrzeug, das ein Zündsystem, eine oder mehrere bordeigene Kameras, eine Mensch-Maschine-Schnittstelle und eine Fahrzeugsteuerung umfasst, wobei die Fahrzeugsteuerung einen Prozessor umfasst, der zu Folgendem konfiguriert ist: Ausführen eines Zündungsüberwachungsmoduls zum Erfassen von Schlüsseleinschalt- oder Schlüsselausschaltereignissen; und Ausführen eines Kamerasteuerungsmoduls zum Aktivieren der einen oder mehreren bordeigenen Kameras, um einen zweiten Satz von Bildern des Fahrzeugs zu erhalten, als Reaktion auf die Schlüsseleinschalt- oder Schlüsselausschaltereignisse; und eine Analyseeinrichtung, die zu Folgendem konfiguriert ist: Erhalten eines ersten Satzes von Bildern, der auf einem Speicher gespeichert ist; Vergleichen des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um eine Beschädigung des Fahrzeugs zu identifizieren; und Generieren einer Meldung zur Anzeige an der Mensch-Maschine-Schnittstelle, welche die Beschädigung angibt.
  • Gemäß einer Ausführungsform ist die Erfindung ferner durch eine Vergleichseinrichtung mit maschinellem Lernen der Analyseeinrichtung gekennzeichnet, die den ersten Satz von Bildern mit dem zweiten Satz von Bildern vergleicht, wobei die Vergleichseinrichtung mit maschinellem Lernen einen Algorithmus zum maschinellen Lernen umsetzt, der konfiguriert ist, um eine Fahrzeugbeschädigung zu erfassen.
  • Gemäß einer Ausführungsform ist die Analyseeinrichtung ein Modul, das durch die Fahrzeugsteuerung ausgeführt werden kann.
  • Gemäß einer Ausführungsform befindet sich die Analyseeinrichtung auf einem Server oder in einer Cloud, der/die entfernt zu dem Fahrzeug ist, wobei die Fahrzeugsteuerung den zweiten Satz von Bildern zu dem Server oder der Cloud und dem ersten Satz von Bildern überträgt, der auf dem Speicher des Servers oder der Cloud gespeichert ist.
  • Gemäß einer Ausführungsform ist die Fahrzeugsteuerung konfiguriert, um den zweiten Satz von Bildern bei jedem zukünftigen Schlüsseleinschalt- oder Schlüsselausschaltereignis zu erhalten, und umfasst der erste Satz von Bildern einen aktuellsten Basisbildsatz, der auf Grundlage eines vorangehenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses erhalten und gespeichert wurde.
  • Gemäß einer Ausführungsform ist die Fahrzeugsteuerung konfiguriert, um Bilder von einer Infrastrukturkamera zu erhalten, die sich bezogen auf das Fahrzeug außerhalb befindet, wobei die Bilder von der Infrastrukturkamera bei dem Vergleich zum Identifizieren einer Beschädigung des Fahrzeugs genutzt werden.
  • Gemäß einer Ausführungsform ist die Fahrzeugsteuerung konfiguriert, um die Nachricht an ein Remote-System zu übertragen, wobei die Nachricht den ersten Satz von Bildern und den zweiten Satz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem zweiten Satz von Bildern identifiziert wird.
  • Gemäß einer Ausführungsform ist die Fahrzeugsteuerung konfiguriert, um den zweiten Satz von Bildern zeitzustempeln.
  • Gemäß einer Ausführungsform umfasst einer von dem ersten Satz von Bildern und dem zweiten Satz von Bildern jeweils eine 360-Grad-Ansicht des Fahrzeugs.
  • Gemäß einer Ausführungsform umfasst die Nachricht, die an der Mensch-Maschine-Schnittstelle angezeigt wird, eines der Bilder von dem zweiten Satz von Bildern mit identifizierter Beschädigung.

Claims (15)

  1. Verfahren, umfassend: Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug; Erhalten von einem aktuellen Satz von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselaus schaltere ignis ses; Erhalten eines Basissatzes von Bildern für das Fahrzeug; Vergleichen des aktuellen Satzes von Bildern mit dem Basissatz von Bildern, um eine Beschädigung der einen oder den mehreren Oberflächen zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.
  2. Verfahren nach Anspruch 1, wobei der aktuelle Satz von Bildern bei jedem Schlüsseleinschalt- oder Schlüsselausschaltereignis erhalten wird und der Basissatz von Bildern einen aktuellsten Basisbildsatz umfasst, der von dem Fahrzeug erhalten und auf einem Speicher des Fahrzeugs gespeichert wurde.
  3. Verfahren nach Anspruch 1, ferner umfassend Erhalten von Bildern von einer Infrastrukturkamera, die sich außerhalb des Fahrzeugs befindet.
  4. Verfahren nach Anspruch 1, ferner umfassend Übertragen einer Nachricht an ein Remote-System, wobei die Nachricht den aktuellen Satz von Bildern und den Basissatz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem aktuellen Satz von Bildern identifiziert wird.
  5. Verfahren nach Anspruch 1, ferner umfassend Zeitstempeln eines von dem aktuellen Satz von Bildern und dem Basissatz von Bildern.
  6. Verfahren nach Anspruch 1, wobei der aktuelle Satz von Bildern und der Basissatz von Bildern eine 360-Grad-Ansicht der einen oder mehreren Oberflächen des Fahrzeugs umfassen.
  7. Verfahren nach Anspruch 1, wobei der aktuelle Satz von Bildern zu einem zweiten Zeitpunkt erhalten wird und der Basissatz von Bildern zu einem ersten Zeitpunkt erhalten wird, der dem zweiten Zeitpunkt vorangeht.
  8. Verfahren, umfassend: Erfassen eines von einem Schlüsseleinschalt- oder Schlüsselausschaltereignis für ein Fahrzeug zu einem ersten Zeitpunkt; Erhalten von einem ersten Satz von Bildern von einer oder mehreren Oberflächen des Fahrzeugs unter Verwendung von einer oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des Schlüsseleinschalt- oder Schlüsselausschaltereignisses; Erfassen eines nachfolgenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses für ein Fahrzeug zu einem zweiten Zeitpunkt; Erhalten von einem zweiten Satz von Bildern der einen oder mehreren Oberflächen des Fahrzeugs unter Verwendung der einen oder mehreren bordeigenen Kameras des Fahrzeugs als Reaktion auf das Erfassen des nachfolgenden Schlüsseleinschalt- oder Schlüsselaus schaltere ignis ses; Vergleichen des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um eine Beschädigung der einen oder mehreren Oberflächen unter Verwendung eines Algorithmus zum maschinellen Lernen, der konfiguriert ist, um eine Oberflächenbeschädigung zu erfassen, zu bestimmen; und Darstellen einer Nachricht durch eine Mensch-Maschine-Schnittstelle des Fahrzeugs, welche die Beschädigung angibt.
  9. Verfahren nach Anspruch 8, wobei der erste Satz von Bildern und der zweite Satz von Bildern jeweils eine 360-Grad-Ansicht der einen oder mehreren Oberflächen des Fahrzeugs umfasst.
  10. Verfahren nach Anspruch 8, ferner umfassend Übertragen der Nachricht an ein Remote-System, wobei die Nachricht den ersten Satz von Bildern und den zweiten Satz von Bildern umfasst, wobei ein Bereich der Beschädigung an dem zweiten Satz von Bildern identifiziert wird.
  11. System, umfassend: ein Fahrzeug, das ein Zündsystem, eine oder mehrere bordeigene Kameras, eine Mensch-Maschine-Schnittstelle und eine Fahrzeugsteuerung umfasst, wobei die Fahrzeugsteuerung einen Prozessor umfasst, der zu Folgendem konfiguriert ist: Ausführen eines Zündungsüberwachungsmoduls zum Erfassen von Schlüsseleinschalt- oder Schlüsselausschaltereignissen; und Ausführen eines Kamerasteuerungsmoduls zum Aktivieren der einen oder mehreren bordeigenen Kameras, um einen zweiten Satz von Bildern des Fahrzeugs zu erhalten, als Reaktion auf die Schlüsseleinschalt- oder Schlüsselausschaltereignisse; und eine Analyseeinrichtung, die zu Folgendem konfiguriert ist: Erhalten eines ersten Satzes von Bildern, der auf einem Speicher gespeichert ist; Vergleichen des ersten Satzes von Bildern mit dem zweiten Satz von Bildern, um eine Beschädigung des Fahrzeugs zu identifizieren; und Generieren einer Meldung zur Anzeige an der Mensch-Maschine-Schnittstelle, welche die Beschädigung angibt.
  12. System nach Anspruch 11, ferner umfassend eine Vergleichseinrichtung mit maschinellem Lernen der Analyseeinrichtung, die den ersten Satz von Bildern mit dem zweiten Satz von Bildern vergleicht, wobei die Vergleichseinrichtung mit maschinellem Lernen einen Algorithmus zum maschinellen Lernen umsetzt, der konfiguriert ist, um eine Fahrzeugbeschädigung zu erfassen.
  13. System nach Anspruch 11, wobei die Analyseeinrichtung ein Modul ist, das durch die Fahrzeugsteuerung ausgeführt werden kann.
  14. System nach Anspruch 11, wobei sich die Analyseeinrichtung auf einem Server oder in einer Cloud befindet, der/die entfernt zu dem Fahrzeug ist, wobei die Fahrzeugsteuerung den zweiten Satz von Bildern zu dem Server oder der Cloud und dem ersten Satz von Bildern überträgt, der auf dem Speicher des Servers oder der Cloud gespeichert ist.
  15. System nach Anspruch 11, wobei die Fahrzeugsteuerung konfiguriert ist, um den zweiten Satz von Bildern bei jedem zukünftigen Schlüsseleinschalt- oder Schlüsselausschaltereignis zu erhalten, und der erste Satz von Bildern einen aktuellsten Basisbildsatz umfasst, der auf Grundlage eines vorangehenden Schlüsseleinschalt- oder Schlüsselausschaltereignisses erhalten und gespeichert wurde.
DE102020100496.6A 2019-01-14 2020-01-10 Systeme und verfahren zum erfassen von fahrzeugbeschädigungsereignissen und berichterstatten über diese Pending DE102020100496A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/247,189 US11049233B2 (en) 2019-01-14 2019-01-14 Systems and methods for detecting and reporting vehicle damage events
US16/247,189 2019-01-14

Publications (1)

Publication Number Publication Date
DE102020100496A1 true DE102020100496A1 (de) 2020-07-16

Family

ID=71132409

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020100496.6A Pending DE102020100496A1 (de) 2019-01-14 2020-01-10 Systeme und verfahren zum erfassen von fahrzeugbeschädigungsereignissen und berichterstatten über diese

Country Status (3)

Country Link
US (1) US11049233B2 (de)
CN (1) CN111435564A (de)
DE (1) DE102020100496A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7501264B2 (ja) * 2020-09-15 2024-06-18 株式会社アイシン 異常検出装置、異常検出プログラム、および異常検出システム
US11676397B2 (en) 2020-10-15 2023-06-13 Denso International America, Inc. System and method for detecting an object collision
US11919479B2 (en) * 2021-05-18 2024-03-05 Ford Global Technologies, Llc Systems and methods for providing security to a vehicle

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332097B2 (en) 2007-12-14 2012-12-11 Denso International America, Inc. Method of detecting an object near a vehicle
TWI393081B (zh) 2009-09-23 2013-04-11 Utechzone Co Ltd Parking vehicle monitoring system
US9323993B2 (en) 2013-09-05 2016-04-26 Xerox Corporation On-street parking management methods and systems for identifying a vehicle via a camera and mobile communications devices
GB2532715B (en) * 2014-11-05 2019-05-01 Ford Global Tech Llc A method of predicting the future operation of a vehicle
US11144889B2 (en) * 2016-04-06 2021-10-12 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
US20180072269A1 (en) 2016-09-09 2018-03-15 GM Global Technology Operations LLC Vehicle intrusion detection via a surround view camera
US10421436B2 (en) * 2017-03-24 2019-09-24 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for surveillance of a vehicle using camera images
US20190095725A1 (en) * 2017-09-22 2019-03-28 Aurora Flight Sciences Corporation Detection System for a Vehicle
US10679071B2 (en) * 2018-01-10 2020-06-09 International Business Machines Corporation Capturing digital images during vehicle collisions

Also Published As

Publication number Publication date
CN111435564A (zh) 2020-07-21
US20200226734A1 (en) 2020-07-16
US11049233B2 (en) 2021-06-29

Similar Documents

Publication Publication Date Title
DE202019005891U1 (de) Fahrzeugtelematik von Fahrzeugunfällen
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102019117618A1 (de) Fahrzeugklassifizierungssystem
DE102013209055A1 (de) Datenquellenidentifizierung, Datensammlung und Datenspeicherung für Verkehrsereignisse
DE102018101318A1 (de) Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung
DE102017130041A1 (de) Automatische leckerkennung bei fahrzeugen
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE102018109413A1 (de) Flecken- und abfallerkennungssysteme und -verfahren
DE102020100496A1 (de) Systeme und verfahren zum erfassen von fahrzeugbeschädigungsereignissen und berichterstatten über diese
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
DE102019115693A1 (de) Auslöserbasierte fahrzeugüberwachung
DE102021125734A1 (de) Systeme und verfahren zur identifizierung von fahrzeugschaden und vorfallverwaltung
DE102019203345A1 (de) Verfahren zur Überwachung des Umfelds eines Fahrzeugs
DE102020103673A1 (de) Erzeugen synthetisierter fahrzeugdarstellungen für fahrzeuganzeigen mittels nahbereich-kommunikation
DE102022122260A1 (de) Systeme und Verfahren zur Erfassung von Bildern rund um das Fahrzeug für die Bearbeitung von Versicherungsansprüchen
DE102014107916A1 (de) Vorrichtung und Verfahren für eine Fahrzeugselbstdiagnose
DE102019122235A1 (de) Drohnenbasierte ereignisrekonstruktion
DE102015205978A1 (de) Dokumentieren eines Kraftfahrzeug-Zustands
DE102015223412A1 (de) Verfahren zum Bereitstellen eines Unfalldatensatzes, Verfahren zum Erkennen eines Verkehrsunfalls im Umfeld eines Fahrzeugs und Verfahren zum Reagieren auf einen Verkehrsunfall im Umfeld eines Fahrzeugs
DE102020122171A1 (de) Verfahren und System zum kooperativen Sammeln von Videodaten von Fahrtenschreibern
DE102019001092A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger
DE102018222683A1 (de) Verfahren zum Erstellen einer Umgebungsrepräsentationskarte zur Überwachung eines Fahrzeugs und/oder eines Fahrzeuganhängers unter Verwendung eines Kamerasystems
DE102017219292A1 (de) Verfahren und vorrichtung zum erfassen von ereignisbezogenen daten bezüglich eines fahrzeugs
DE102020215885A1 (de) Verfahren und system zur erkennung und mitigation von störungen
WO2018065325A1 (de) Ermittlung von identifizierungsmerkmalen eines unfallteilnehmers bei einem unfall des unfallteilnehmers mit einem kraftfahrzeug

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE