DE102021125734A1 - Systeme und verfahren zur identifizierung von fahrzeugschaden und vorfallverwaltung - Google Patents

Systeme und verfahren zur identifizierung von fahrzeugschaden und vorfallverwaltung Download PDF

Info

Publication number
DE102021125734A1
DE102021125734A1 DE102021125734.4A DE102021125734A DE102021125734A1 DE 102021125734 A1 DE102021125734 A1 DE 102021125734A1 DE 102021125734 A DE102021125734 A DE 102021125734A DE 102021125734 A1 DE102021125734 A1 DE 102021125734A1
Authority
DE
Germany
Prior art keywords
vehicle
damage
camera
determining
camera images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021125734.4A
Other languages
English (en)
Inventor
Vidhya Iyer
Romil Shah
Shounak Athavale
Sakthi Narayanan Balasubramanian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102021125734A1 publication Critical patent/DE102021125734A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • Technology Law (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Diese Offenbarung stellt Systeme und Verfahren zur Identifizierung von Fahrzeugschaden und Vorfallverwaltung bereit. Hierin sind Systeme und Verfahren zur Identifizierung von Fahrzeugschaden und Vorfallverwaltung bereitgestellt. Ein beispielhaftes Verfahren kann Folgendes beinhalten: Bestimmen eines Auftretens eines Schadensereignisses für ein erstes Fahrzeug auf Grundlage eines Fahrzeugsensorsignals, Bestimmen einer Stelle an dem ersten Fahrzeug, an der ein Schaden aufgetreten ist, unter Verwendung des Fahrzeugsensorsignals, Aktivieren einer Kamera auf einer Seite des ersten Fahrzeugs, die mit der Stelle an dem ersten Fahrzeug übereinstimmt, an der der Schaden aufgetreten ist, oder benachbart dazu ist, Bestimmen, aus Kamerabilden, von identifizierenden Informationen in Bezug auf ein in den Kamerabildern aufgenommenes Objekt und Übertragen einer Nachricht an einen Empfänger, die die identifizierenden Informationen beinhaltet.

Description

  • GEBIET DER TECHNIK
  • Die vorliegende Offenbarung ist im Allgemeinen auf Systeme und Verfahren gerichtet, die es vernetzten und nicht vernetzten Fahrzeugen ermöglichen, Fahrzeugschäden zu identifizieren und eine Vorfallverwaltung und -meldung durchzuführen.
  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeuge sind, wenn sie geparkt sind, geringfügigen oder größeren Schäden ausgesetzt. Kleinere Kratzer, Dellen und Glasschäden bleiben oft unbemerkt. Schäden können dadurch verursacht werden, dass ein anderes Fahrzeug gegen das Fahrzeug stößt oder kratzt, Schlüsselkratzer und Fahrräder/Fußgänger gegen das Fahrzeug stoßen - um nur einige zu nennen.
  • KURZDARSTELLUNG
  • Die vorliegende Offenbarung betrifft Systeme und Verfahren, die Fahrzeugschäden in Echtzeit identifizieren und Benutzer von vernetzten und nicht vernetzten Fahrzeugen warnen. Beispielhafte Verfahren können das Unterscheiden zwischen Arten von Schäden und der Intensität des Schadens beinhalten. Eine Nachricht oder ein Bericht, wie etwa ein Vorfallanspruchsformular, das auf den Schaden hinweist, kann an einen Fahrzeughalter, einen Vermieter oder Dritte, wie etwa Polizei, Versicherung und/oder EMS (emergency management service - Notfallverwaltungsdienst), kommuniziert werden. Die Kommunikation von Nachrichten, wie etwa den hierin beschriebenen, kann auf der Schadensart und/oder der/dem Schadensintensität/-schweregrad beruhen. Ein Schaden kann unter Verwendung von Sensoren an einem Fahrzeug unter Verwendung eines Modells für maschinelles Lernen (machine learning - ML) unter überwachtem Lernen bestimmt werden. Sobald ein Modell trainiert wurde, kann eine kontinuierliche Signalausgabereaktion von den Sensoren in das trainierte Modell integriert werden, das dann den Schaden in verschiedene Kategorien oder Arten klassifizieren kann. Ein anderes Modell kann dazu trainiert werden, die Art und/oder Intensität des Schadens zu identifizieren. Konstante Geräusche oder Schwingungen, die in einem statischen Fahrzeug vorhanden sind, können ebenfalls durch das Modell trainiert und beseitigt werden (z. B. ML-Geräuschmodell). Eingaben können von mehreren Sensoren wie Beschleunigungsmessern, Gyroskopen, Geräuschen oder Vibrationen integriert werden - um nur einige zu nennen - um die Art des Schadens und seine Intensität zu identifizieren.
  • Wenn ein Schaden detektiert wird und als erheblicher Schaden klassifiziert wurde (z. B. Schaden, der den Schwellenwert überschreitet), können die Fahrzeugkameras in Echtzeit oder nahezu in Echtzeit aktiviert werden, um eine Stelle an dem Fahrzeug (wie etwa eine Karosserieplatte, ein Fenster, einem Stoßfänger usw.) aufzuzeichnen, an der der Schaden aufgetreten ist. Andere Kameras an dem Fahrzeug können in Abhängigkeit von der Richtung des Schadens und der Fähigkeit der Kamera, zu schwenken oder sich zu neigen, aktiviert und auf den Schadensbereich gerichtet werden. Diese Art der Kameraeinstellung kann dazu verwendet werden, ein Objekt (Auto, Fahrrad, Person usw.) aufzunehmen, das den Schaden wahrscheinlich verursacht hat. Die hierin offenbarten Systeme und Verfahren können auch einzigartige Merkmale wie etwa Nummernschilder oder menschliche Gesichter bestimmen, um das Fahrzeug oder die Person zu identifizieren, das/die den Schaden verursacht haben kann. Zum Beispiel könnte Text auf dem Fahrzeug als „Rental Service Co.“ identifiziert werden, der Bericht kann eine nahegelegene Rental Service Co. beinhalten, die kontaktiert werden kann, um den Schaden zu melden. Der Fahrzeugtyp, die Marke und das Modell können identifiziert werden, wenn bestimmte Seiten des Fahrzeugs, wie die Rückseite, zu sehen sind.
  • Hier offenbarte Systeme und Verfahren können verwendet werden, um den Fahrzeugschaden in Echtzeit zu bestimmen, zum Beispiel, wenn eines der zwei (oder mehr) fraglichen Fahrzeuge nicht in Bewegung ist. Die Verfahren können auch zur Verwendung in sich bewegenden Fahrzeugen durch Filtern von Basisfahrzeugsensorgeräuschen des Fahrzeugs angepasst werden. Einige Verfahren können einen Blockchain-Prozess beinhalten, um den Schaden an relevante Parteien zu kommunizieren. Die Kommunikation mit einer Versicherungsgesellschaft entweder des beschädigten Fahrzeugs oder des schadenverursachenden Fahrzeugs für den Prozess von Versicherungsansprüchen kann ebenfalls automatisiert werden.
  • Beispielhafte Anwendungsfälle können in nicht vernetzten Fahrzeugen sowie vernetzten Fahrzeugen umgesetzt werden. Die Systeme und Verfahren in dieser Schrift ziehen eine sofortige Meldung für kleine Schäden wie Kratzer oder Beulen zur sofortigen Erstellung von Versicherungsansprüchen sowie eine Identifizierung des Fahrzeugs, das den Schaden verursacht hat, in Betracht. Die Systeme und Verfahren in dieser Schrift können verwendet werden, um nahegelegene Wartungszentren für Reparaturen zu identifizieren, sowie zur Kommunikation mit Strafverfolgungsbehörden, um relevante Informationen zu liefern, die nützlich sein können, um Zielobjekte wie gestohlene Fahrzeuge zu identifizieren.
  • Figurenliste
  • Die detaillierte Beschreibung wird unter Bezugnahme auf die beigefügten Zeichnungen dargelegt. Die Verwendung der gleichen Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten als die in den Zeichnungen veranschaulichten genutzt werden und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Ausdrücke im Singular und Plural je nach Kontext synonym verwendet werden können.
    • 1 stellt eine veranschaulichende Architektur dar, in der Techniken und Strukturen zum Bereitstellen der in dieser Schrift offenbarten Systeme und Verfahren umgesetzt sein können.
    • 2-5 veranschaulichen graphisch Sensorsignale und Abweichungen, die auf Schadensereignisse hinweisen.
    • 6A und 6B bilden gemeinsam einen Schadensereignisdatensammelprozess unter Verwendung von Kameras eines Fahrzeugs ab.
    • 7 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung.
    • 8 ist ein Ablaufdiagramm eines weiteren beispielhaften Verfahrens der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Es wird nun auf die Zeichnungen Bezug genommen, in denen 1 eine veranschaulichende Architektur 100 darstellt, in der Techniken und Strukturen der vorliegenden Offenbarung umgesetzt sein können. Die Architektur 100 kann ein erstes Fahrzeug 102, ein zweites Fahrzeug 104, eine Person 106, einen Dienstanbieter 108 und ein Netzwerk 110 umfassen. Im Allgemeinen können die in der Architektur identifizierten Objekte dazu konfiguriert sein, das Netzwerk 110 zur Kommunikation zu verwenden. Das Netzwerk 110 kann eine beliebige oder eine Kombination aus mehreren unterschiedlichen Netzwerkarten beinhalten, wie etwa Kabelnetzwerke, das Internet, drahtlose Netzwerke und andere private und/oder öffentliche Netzwerke. In einigen Fällen kann das Netzwerk 110 Mobilfunk, Wi-Fi oder Wi-Fi Direct beinhalten. Zum Beispiel kann das erste Fahrzeug 102 ein Kommunikationsmodul 103 beinhalten, das dazu verwendet wird, Daten über das Netzwerk 110 an andere Entitäten, wie etwa den Dienstanbieter 108, zu übertragen und zu empfangen.
  • Das erste Fahrzeug 102 kann dazu konfiguriert sein, Schadensereignisse zu detektieren, zu klassifizieren und zu melden. Alternativ kann das erste Fahrzeug 102 dazu konfiguriert sein, Sensordaten zu sammeln und diese an den Dienstanbieter 108 weiterzuleiten. Der Dienstanbieter 108 kann Schadensereignisse klassifizieren und melden. Das erste Fahrzeug 102 kann einen oder mehrere Sensoren 112A-112N, eine oder mehrere Kameras 114A-114N und eine Steuerung 116 umfassen. Im Allgemeinen können der eine oder die mehreren Sensoren 112A - 112N eine beliebige Kombination aus Audiosensoren oder Bewegungssensoren umfassen. Dieser eine oder diese mehreren Sensoren 112A-112N könnten einen beliebigen Mechanismus beinhalten, der dazu in der Lage ist, Schall, Vibration, Beschleunigung und so weiter zu detektieren. Der eine oder die mehreren Sensoren 112A-112N könnten zum Beispiel ein Mikrophon, einen Beschleunigungsmesser und ein Gyroskop - um nur einige zu nennen - beinhalten.
  • Die eine oder mehreren Kameras 114A-114N können eine erste Kamera 114A, die mit einer rechten Seite des ersten Fahrzeugs 102 zusammenhängt, und eine zweite Kamera 114B, die mit einem Heck des ersten Fahrzeugs 102 zusammenhängt, wie etwa eine Rückfahrkamera, beinhalten. Das erste Fahrzeug 102 kann andere Kameras als die vorstehend beschriebenen beinhalten, aber diese spezifischen Kameras wurden zu dem nicht einschränkenden Zweck der Beschreibung einiger Aspekte der vorliegenden Offenbarung beschrieben. Einige Kameras können in ihrer Position fixiert sein, was es diesen Kameras ermöglicht, Bilder in einem festen Sichtfeld zu erlangen. Andere Kameras des ersten Fahrzeugs 102 könnten dazu konfiguriert sein, zu schwenken, sich zu neigen oder sich anderweitig zu bewegen. In dem vorstehenden Beispiel kann die erste Kamera 114A eine Kamera mit fester Position sein, während die zweite Kamera 114B schwenken und/oder sich neigen kann. Im Allgemeinen können die Kameras unter Verwendung der Steuerung 116 gesteuert werden, wie in dieser Schrift ausführlicher erörtert wird.
  • Die Steuerung 116 kann einen Prozessor 118 und einen Speicher 120 umfassen. Der Speicher 120 speichert Anweisungen, die durch den Prozessor 118 ausgeführt werden, um Aspekte der Sensorsignaldetektion, der Schadensereignisdetektion sowie anderer hierin beschriebener Merkmale durchzuführen. Wenn auf Vorgänge Bezug genommen wird, die durch die Steuerung 116 ausgeführt werden, versteht es sich, dass dies die Ausführung von Anweisungen durch den Prozessor 118 beinhaltet.
  • Allgemein kann die Steuerung 116 dazu konfiguriert sein, kommunikativ mit dem einen oder den mehreren Sensoren 112A-112N gekoppelt zu werden, wenn sich das erste Fahrzeug 102 in einem Überwachungsmodus befindet. Der Überwachungsmodus kann ad hoc umgesetzt werden oder wenn sich das erste Fahrzeug 102 in einer stationären Position befindet, wie etwa, wenn das erste Fahrzeug 102 auf einem Parkplatz geparkt ist oder an einer Ampel steht. Erneut sind dies lediglich Beispiele für Situationen, in denen die Steuerung 116 den einen oder die mehreren Sensoren 112A-112N auf Signale überwachen kann. In anderen Konfigurationen erlangt die Steuerung 116 kontinuierlich Sensorsignale von dem einen oder den mehreren Sensoren 112A-112N (z. B. ein kontinuierliches Fahrzeugsensorsignal).
  • Die von der Steuerung 116 empfangenen Sensorsignale können verarbeitet werden, um zu bestimmen, wenn ein Schadensereignis aufgetreten ist. Vor dem Verarbeiten von Signalen, die von dem einen oder den mehreren Sensoren 112A-112N empfangen werden, kann die Steuerung 116 dazu konfiguriert sein, einen Basisfahrzeuggeräuschpegel anzuwenden. Der Basisfahrzeuggeräuschpegel kann anhand von empirischen Informationen bestimmt werden, die von einem Fahrzeughersteller erlangt werden. Alternativ kann die Steuerung 116 den Basisfahrzeuggeräuschpegel aus einer kontinuierlichen Sensorsignaleingabe bestimmen, die von dem Basisfahrzeuggeräuschpegel empfangen wird. 2 veranschaulicht ein beispielhaftes Beschleunigungsmessersignaldiagramm 200, das eine kontinuierliche Vibration des ersten Fahrzeugs 102 angibt. Diese kontinuierliche Schwingung, die in der Beschleunigungsmesserausgabe 202 identifiziert wird, könnte aufgrund von Fahrzeugbewegung, Fahrzeugmotorbetrieb oder anderen bewegungsinduzierenden Ereignissen relativ zu dem ersten Fahrzeug 102 auftreten. Wie in 3 veranschaulicht, kann ein Schadensereignis detektiert werden, wenn eine Abweichung 300 der Beschleunigungsmessersignalstärke relativ zum Basisfahrzeuggeräuschpegel (z. B. Beschleunigungsmesserausgabe 302) detektiert wird. Die Abweichung 300 kann sich zum Beispiel auf einen Kratzer beziehen, der durch Fahrzeugkontakt durch ein anderes Fahrzeug oder von einem Fahrrad verursacht wird. Verfahren zum Bestimmen sowohl der Schadensart als auch der/des Schadensintensität/-schweregrads sind nachstehend ausführlicher offenbart.
  • 4 ist ein weiteres beispielhaftes Beschleunigungsmesserdiagramm 400, das eine Basiswertausgabe 402 mit einem Abweichungsbereich 404 beinhaltet, der durch ein Schadensereignis, wie etwa einen Kratzer, verursacht werden kann. In 5 beinhaltet ein weiteres beispielhaftes Beschleunigungsmesserdiagramm 500 eine Basiswertausgabe 502 mit einem Abweichungsbereich 504, der durch ein Schadensereignis, wie etwa eine Delle, verursacht werden kann. Zum Beispiel kann eine Tür des zweiten Fahrzeugs 104 auf eine Tür des ersten Fahrzeugs 102 aufprallen. Zusammen und einzeln stellen 2-5 Visualisierungen verschiedener Zustände und entsprechende Sensordaten bereit.
  • Unter erneuter Bezugnahme auf 1 kann die Steuerung 116 eine Logik, wie etwa Maschinenlernen, um einen beliebigen Grundgeräuschpegel des Fahrzeugs sowie eine Schadensereignisdetektion und -klassifizierung zu bestimmen, umsetzen. Die Steuerung 116 kann ein Modell 117 für maschinelles Lernen wie etwa Long Short-Term Memory (LSTM) oder Gated Recurrent Units (GRU) trainieren. Im Allgemeinen können die hierin offenbarten Modelle für maschinelles Lernen an Eingaben von mehreren Sensoren wie etwa Beschleunigungsmessern, Gyroskopen, Geräuschen oder Vibrationen trainiert und verarbeitet werden, die alle bewertet werden können, um die Art des Schadens und seine Intensität zu klassifizieren/identifizieren.
  • Unter Verwendung von überwachtem Lernen können Proben von Sensorsignalen von verschiedenen Bedingungen (z. B. Kratzer, Delle, Aufprall, Unfall usw.) bestimmt und in separate Klassen unterteilt werden, die als Schadensarten oder -klassen bezeichnet werden. Während LSTM/GRU-Verfahren beschrieben worden sind, ist die vorliegende Offenbarung nicht darauf beschränkt und es können andere geeignete Trainings- und Detektionsmaschinenlernalgorithmen verwendet werden. Sobald ein Modell für maschinelles Lernen trainiert wurde, kann die kontinuierliche Signalausgabereaktion des einen oder der mehreren Sensoren 112A-112N zu dem trainierten Modell gerichtet werden, das dann dazu verwendet werden kann, den Schaden in verschiedene Kategorien/Arten zu klassifizieren. In einigen Fällen kann mehr als ein Modell für maschinelles Lernen verwendet werden. Somit können ein oder mehrere Klassifikatormodelle verwendet werden, wie etwa ein Schadensartklassifikator und ein Schadensschweregradklassifikator.
  • Sobald eine Bestimmung der Schadensklassifizierung abgeschlossen ist, kann die Steuerung 116 ein oder mehrere Schadensschweregradmodelle anwenden, um eine Größe oder Intensität eines Schadensereignisses zu bestimmen. In einem Beispiel könnte der Schweregrad der Beschädigung durch Messen der Dauer und Größe einer Abweichung der Sensorausgabe bestimmt werden. Unter erneuter Bezugnahme auf 3 könnte eine Größe eines Schadensereignisses, wie etwa ein Kratzer, durch eine Größe (z. B. Höhe) der Abweichung 300 angegeben werden.
  • Sobald ein Schaden identifiziert wurde und in einigen Anwendungsfällen in Bezug auf Art und/oder Schweregrad klassifiziert wurde, kann die Steuerung 116 dazu konfiguriert sein, eine Stelle an dem ersten Fahrzeug 102 zu bestimmen, an dem der Schaden aufgetreten ist. Zum Beispiel könnte die Beschädigung an einer Fläche des Fahrzeugs auftreten, wie etwa einer Tür, einer Seitenverkleidung, einem Fenster oder anderen ähnlichen Fahrzeugstrukturen. In einem beispielhaften Anwendungsfall prallt eine Tür des zweiten Fahrzeugs 104 auf die rechte Seite des ersten Fahrzeugs 102, wie etwa eine Tür, und verursacht einen Schaden der Art Delle. Die Steuerung 116 identifiziert eine Stelle an dem ersten Fahrzeug 102, wie etwa der Tür. Die Steuerung 116 kann dann den Schaden in Bezug auf Art und/oder Schweregrad klassifizieren. Die Stelle der Beschädigung könnte im Allgemeinen so bestimmt werden, dass er auf einer spezifischen Seite, Vorderseite oder Rückseite des Fahrzeugs auftritt. Eine spezifischere Bestimmung der Schadensstelle könnte auftreten, wenn Sensoren, die an verschiedenen Stellen an dem Fahrzeug positioniert sind, in Kombination verwendet werden. Eine Art von Signaturtriangulationsprozess könnte verwendet werden, um eine spezifischere Stelle des Schadens an dem Fahrzeug zu identifizieren.
  • Sobald eine allgemeine oder spezifische Stelle des Schadens bekannt ist, kann die Steuerung 116 die erste Kamera 114A aktivieren, die der Seite entspricht, auf der der Schaden aufgetreten ist. Wie in 6A (unter Bezugnahme auf die schematischen Steuerungsaspekte aus 1) kann die Steuerung 116 eine Kamera auf einer Seite des ersten Fahrzeugs aktivieren, die der Stelle an dem ersten Fahrzeug entspricht, an der ein Schaden aufgetreten ist, oder benachbart zu dieser ist.
  • Die erste Kamera 114A weist ein Sichtfeld 123 auf und es können Kamerabilder des zweiten Fahrzeugs 104 erlangt werden. Die Bilder können das Fahrzeug identifizierende Informationen wie etwa Marke, Modell, Stil, Fahrzeugtyp oder andere Informationen beinhalten. In diesem Beispiel ist nur ein kleiner Abschnitt des zweiten Fahrzeugs 104 im Sichtfeld 123 vorhanden. Somit kann die Steuerung 116 weiterhin Bilder des zweiten Fahrzeugs 104 unter Verwendung einer anderen Kamera mit einem zweiten Sichtfeld 125 erlangen.
  • Wie in 6B veranschaulicht, kann die Steuerung 116 zusätzliche Kameras aktivieren, wie etwa die zweite Kamera 114B, die zusätzliche Bilder des zweiten Fahrzeugs 104 aufnehmen können. Zum Beispiel kann die zweite Kamera 114B Bilder des hinteren Teils des zweiten Fahrzeugs 104 aufnehmen, was das Aufnehmen von identifizierenden Informationen, wie etwa ein Nummernschild oder eine Fahrzeugmarke, beinhalten kann. Somit kann das zweite Fahrzeug 104 zunächst durch die erste Kamera 114A und dann durch die zweite Kamera 114B verfolgt werden. Die Steuerung 116 kann bewirken, dass die zweite Kamera 114B schwenkt oder sich neigt, um das zweite Fahrzeug 104 aufzuzeichnen, wenn es sich von dem ersten Fahrzeug 102 wegbewegt.
  • Wenn Kamerabilder erlangt werden, kann die Steuerung 116 die Bilder verarbeiten, um identifizierende Informationen in den Bildern zu bestimmen. Zum Beispiel kann die Steuerung 116 eine Fahrzeugmarke oder ein Fahrzeugmodell anhand von auf dem Fahrzeug vorhandenen Zeichen identifizieren. Die Steuerung 116 könnte andere Informationen identifizieren, wie etwa den Besitzer des Fahrzeugs. Wenn das Fahrzeug zum Beispiel eine Mieteinheit ist, kann die Steuerung 116 einen Namen des Mietunternehmens auf einem Aufkleber oder anderen Zeichen, die auf dem Fahrzeug vorhanden sind, identifizieren. Andere identifizierende Informationen könnten ein Nummernschild, Stoßstangenaufkleber oder andere visuell unterscheidbare Informationen beinhalten. Identifizierende Informationen in den Bildern können zum Beispiel unter Verwendung von künstlicher Intelligenz mit Mustererkennung gefunden werden. In einigen Fällen können die identifizierenden Informationen einen entsprechenden Schadensbereich beinhalten, der an dem zweiten Fahrzeug 104 identifiziert wurde. Zum Beispiel wird ein beschädigter Bereich 121 an dem zweiten Fahrzeug 104 anhand von Kamerabildern identifiziert.
  • Die Kamerabilder können an eine mobile Vorrichtung 122 eines Benutzers, wie etwa des Besitzers des Fahrzeugs, weitergeleitet werden. Identifizierende Informationen können als Grundlage zum Bestimmen einer empfangenden Partei 124 für die Bilder verwendet werden. Wenn zum Beispiel die identifizierenden Informationen ein Nummernschild oder einen Fahrzeughalter beinhalten, können die identifizierenden Informationen verwendet werden, um die Kamerabilder und andere Informationen an die empfangende Partei 124, wie etwa einen Versicherungsträger, Polizei oder einen Notfalldienst, weiterzuleiten. In einigen Fällen ist die mobile Vorrichtung 122 bei dem Fahrzeug registriert.
  • In einem anderen beispielhaften Anwendungsfall könnte die Steuerung 116 bestimmen, dass ein Schadensereignis, wie etwa ein Schlüsselkratzer, detektiert wurde. Die erste Kamera 114A kann dazu aktiviert werden, Bilder zu erlangen. Die Bilder können verarbeitet werden, um eine Person 106 zu identifizieren, die einen Schlüssel 115 hält, der möglicherweise dazu verwendet wurde, den Schlüsselkratzschaden zu erzeugen. In einigen Fällen kann der von der Person 106 gehaltene Schlüssel als identifizierende Information betrachtet werden, da die Steuerung 116 die Schadensart als einen Schlüsselkratzer identifiziert hat. Die Bilder der Person können ausgewertet werden, um andere identifizierende Informationen, wie etwa Gesichtserkennung oder identifizierende Kleidung oder Zeichen, zu bestimmen.
  • Zusätzlich zum Weitergeben von Kamerabildern kann die Steuerung 116 dazu konfiguriert sein, eine Versicherungsanspruchvorlage auszufüllen. Wenn zum Beispiel ein Schadensereignis auftritt, kann die Steuerung 116 ein Anspruchsformular zusammenstellen, das identifizierende Informationen für das erste Fahrzeug 102 sowie das Objekt, das das Schadensereignis verursacht hat, wie etwa das zweite Fahrzeug 104, beinhalten kann (könnte ein beliebiges anderes Objekt beinhalten z. B. eine Person, ein Fahrrad oder dergleichen). Standortinformationen sowie Tag und Zeit können gesammelt werden. Diese Informationen können zusammen mit den Kamerabildern sowie beliebigen identifizierenden Informationen, die in den Kamerabildern zu finden sind, an die empfangende Partei 124, wie etwa einen Versicherungsträger, übertragen werden. Einige identifizierende Informationen können aus den Bildern extrahiert und in das Versicherungsformular eingefügt werden. Zum Beispiel könnte ein Nummernschild einem Feld des Versicherungsformulars hinzugefügt werden. Andere zugehörige Funktionen zur Verarbeitung von Versicherungsansprüchen können unter Verwendung der gesammelten Informationen, wie etwa Schadensschätzung und Bestätigung des Schadens und der Schätzung mit dem Besitzer des beschädigten Fahrzeugs, erleichtert werden.
  • In einem Anwendungsfall könnte ein Verfahren Empfangen einer Angabe, dass der Schaden als einforderbarer Schaden klassifiziert wurde (z. B. über einem bestimmten Intensitätsniveau oder Schweregrad), beinhalten. Das Verfahren kann Erzeugen eines Versicherungsanspruchs mit den Kamerabildern sowie Übertragen des Versicherungsanspruchs mit den Kamerabildern an einen Versicherungsträger beinhalten.
  • In den vorstehend beschriebenen Beispielen können die während der Überwachung, Verarbeitung und/oder Berichterstattung gesammelten Daten in einem Blockchain-Verzeichnis gespeichert werden. Blockchain kann verwendet werden, um Beweise wie etwa Bilder/Videoclips, Nummernschilder, Standort, Art des Fahrzeugs, Art des Schadens, die Intensität des Schadens, ungefähre Kosten zu erfassen und an den Versicherungsnehmer zu senden. Einige der fahrzeuginternen Parameter, wie etwa Geschwindigkeit, Fahrzeugwarnungen, können ebenfalls entscheidend sein, um den Auslöser des Schadens zu verstehen, der ebenfalls erfasst werden kann.
  • Wie vorstehend angemerkt, kann der Dienstanbieter 108 ähnlich konfiguriert sein, um Fahrzeugschäden zu empfangen, zu verarbeiten und zu melden, während die vorstehend beschriebenen Merkmale als auf Fahrzeugebene auftretend offenbart wurden. Der Dienstanbieter 108 kann Sensordaten von dem Fahrzeug empfangen und die Sensordaten verarbeiten. Der Dienstanbieter 108 kann die vorstehend beschriebenen Modelle für maschinelles Lernen speichern und ausführen, um Schäden auf Grundlage der Art und des Schweregrads zu klassifizieren. Der Dienstanbieter 108 kann auch die Meldefunktionen bereitstellen, indem er der mobilen Vorrichtung 122 oder der empfangenden Partei 124 beliebige der vorstehend erwähnten Schadensereignisinformationen bereitstellt, die kontextuelle Fahrzeuginformationen wie etwa Standort, Richtung, Geschwindigkeit und dergleichen zusammen mit Informationen bezüglich des Objekts, das den Schaden verursacht hat, beinhalten können.
  • In einem Anwendungsfall sind Schäden, die an einem Fahrzeug auf einem Parkplatz auftreten, ein übliches Szenario. Das Identifizieren des Grundes für den Schaden kann sich auf Informationen stützen, die von Überwachungskameras erlangt werden. Hier offenbarte Verfahren können die Art des Schadens und seine Intensität unter Verwendung von grundlegenden Fahrzeugsensoren eindeutig identifizieren. Die Kameras des Fahrzeugs können dazu verwendet werden, zusätzliche Beweise für den Schaden zu erzeugen und zu bestätigen. Dies reduziert den Aufwand beim Erstellen von Berichten und dient als Mechanismus, um Dritte, wie etwa Versicherungsunternehmen, zu benachrichtigen. Diese Lösungen sind selbst für kleinere Schadensereignisse anwendbar, die unbemerkt bleiben können. Es können mehrere kleinere Berichte erzeugt werden, sodass, wenn das Fahrzeug in Betrieb ist, alle erforderlichen Berichte eingefordert werden können.
  • 7 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung. Das Verfahren beinhaltet einen Schritt 602 zum Erlangen von Sensorsignalen von Sensoren eines Fahrzeugs. Das Verfahren kann einen Schritt 604 zum Bestimmen eines Schadensereignisses aus den Sensorsignalen beinhalten. In einigen Fällen kann das Verfahren einen Schritt 606 zum Klassifizieren der Schadensart und einen Schritt 608 zum Klassifizieren der Schadensintensität/-schwere beinhalten. Wenn kein Schaden detektiert wurde, können die verarbeiteten Sensorsignalinformationen dazu verwendet werden, das maschinelle Lernen in Bezug auf die allgemeine Schadensereignisdetektion in Schritt 604 zu trainieren. Zum Beispiel können Sensorsignalinformationen, die nicht mit einem Schaden zusammenhängen, dazu verwendet werden, die Ausgangssensorausgabe zu aktualisieren, die verwendet werden kann, um Ausgangssensorrauschen zu entfernen, das zum Beispiel durch Motorvibration, Klimasystemaktivität und dergleichen verursacht wird.
  • In einigen Fällen kann das Verfahren einen Schritt 610 zum Bestimmen beinhalten, ob das Schadensereignis eine Datensammlung als Reaktion darauf rechtfertigt. Zum Beispiel kann eine Datensammlung als Reaktion, wie etwa eine Kameraaktivierung, nicht erfolgen, es sei denn, es wird bestimmt, dass der Schaden von einer bestimmten Art oder Intensität ist. In einem Beispiel kann die Datensammlung als Reaktion nicht erfolgen, bis Beschleunigungsmessersignale einen Beschleunigungsschwellenwert überschreiten. Schritt 610 ist in einigen Konfigurationen des Verfahrens optional.
  • Das Verfahren kann einen Schritt 612 beinhalten, der eine Datensammlung und -meldung als Reaktion durchführt. Die Datensammlung als Reaktion kann Aktivieren von Fahrzeugkameras beinhalten, um Bilder zu erlangen. Wie vorstehend angemerkt, kann dies das Aktivieren von Kameras auf einer Seite des Fahrzeugs, an der der Schaden detektiert wurde (oder sogar von benachbarten Kameras) beinhalten. Die Bilder werden dann verarbeitet, um Informationen in Bezug auf das Objekt zu identifizieren, das den Schaden verursacht hat (oder den Schaden verursacht haben kann). Kamerabilder/-videos und/oder identifizierenden Informationen können an eine mobile Vorrichtung des Besitzers des beschädigten Fahrzeugs sowie an beliebige identifizierte Dritte, wie etwa Versicherungsträger, Rettungsdienste und dergleichen, übertragen werden. Daten, die während dieses Zeitraums gesammelt werden, können in einer Blockchain gespeichert werden und ein Bericht kann nach Wunsch erzeugt und an einen Dritten übertragen werden. Wie vorstehend angemerkt, können fahrzeuginterne Parameter des beschädigten Fahrzeugs gesammelt werden, wie etwa Geschwindigkeit, Fahrzeugwarnungen, Reifendruck, Fahrzeugstandort und so weiter.
  • 8 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung. Das Verfahren kann einen Schritt 702 zum Bestimmen des Auftretens eines Schadensereignisses für ein erstes Fahrzeug auf Grundlage eines Fahrzeugsensorsignals beinhalten. Um sicherzugehen, könnte das Fahrzeugsensorsignal Sensorsignale von vielen verschiedenen Arten von Sensoren beinhalten, die im Allgemeinen Geräusche und Bewegungssensoren beinhalten. Das Verfahren beinhaltet einen Schritt 704 zum Bestimmen einer Stelle an dem ersten Fahrzeug, an der ein Schaden aufgetreten ist, unter Verwendung des Fahrzeugsensorsignals. Zum Beispiel kann ein hinterer Stoßfänger eines Fahrzeugs beschädigt werden. Als Nächstes kann das Verfahren einen Schritt 706 zum Aktivieren einer Kamera auf einer Seite des Fahrzeugs, die der Stelle an dem ersten Fahrzeug entspricht, an der ein Schaden aufgetreten ist, oder dazu benachbart ist beinhalten. Das Verfahren kann einen Schritt 708 zum Bestimmen von identifizierenden Informationen in Bezug auf ein in den Kamerabildern aufgenommenes Objekt aus Kamerabildern sowie einen Schritt 710 zum Übertragen einer Nachricht an einen Empfänger beinhalten, die die Identifizierungsinformationen beinhaltet.
  • Vorteilhafterweise können Aspekte der vorliegenden Offenbarung in nicht vernetzten Fahrzeugen sowie in vernetzten Fahrzeugen verwendet werden. Die in dieser Schrift offenbarten Verfahren und Systeme können dazu konfiguriert sein, eine sofortige Meldung (z. B. in Echtzeit) für kleine Schäden wie Kratzer oder Beulen sowie eine Vereinfachung von sofortigen Versicherungsschadensersatzforderungen und Identifizierung des Fahrzeugs, das den Schaden verursacht hat, bereitzustellen. Die Systeme und Verfahren können verwendet werden, um nahegelegene Wartungszentren für Reparaturen zu identifizieren und/oder Strafverfolgungsbehörden zu informieren, um relevante Informationen zu senden, die nützlich sein können, um Zielobjekte wie ein gestohlenes Fahrzeug zu identifizieren. Standortbasierte Merkmale können sich auf Standortinformationen stützen, die von einem vernetzten Fahrzeug erlangt werden. Dienste in der Nähe können unter Verwendung eines aktuellen Standorts des beschädigten Fahrzeugs lokalisiert werden, zum Beispiel durch einen Karten- oder Navigationsdienst, der für das Fahrzeug oder den Dienstanbieter verfügbar ist.
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil hiervon bilden und konkrete Umsetzungen veranschaulichen, in denen die vorliegende Offenbarung angewandt werden kann. Es versteht sich, dass andere Umsetzungen genutzt und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“, „eine beispielhafte Ausführungsform“ und dergleichen geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Eigenschaft, Struktur oder Merkmal beinhalten kann, doch es muss nicht unbedingt jede Ausführungsform diese(s) bestimmte Eigenschaft, Struktur oder Merkmal beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner wird, wenn ein(e) konkrete(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, der Fachmann ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen erkennen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der hierin offenbarten Systeme, Einrichtungen, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie sie hierin erörtert sind. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische und andere computerlesbare Medien zum Transportieren oder Speichern computerausführbarer Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, in denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien(-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Somit können Umsetzungen der vorliegenden Offenbarung zum Beispiel und nicht einschränkend mindestens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - SSDs) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenwechselspeicher (phase-change memory - PCM), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder festverdrahtet, drahtlos oder eine beliebige Kombination aus festverdrahtet oder drahtlos) an einen Computer übertragen oder einem Computer bereitgestellt werden, sieht der Computer die Verbindung entsprechend als Übertragungsmedium an.Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in der Form computerausführbarer Anweisungen oder Datenstrukturen zu tragen, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen des Vorstehenden sollen ebenfalls im Umfang computerlesbarer Medien eingeschlossen sein.
  • Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Wenngleich der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben worden ist, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist.Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen zum Umsetzen der Patentansprüche offenbart.
  • Der Fachmann wird verstehen, dass die vorliegende Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen umgesetzt sein kann, zu denen Armaturenbrett-Fahrzeugcomputer, Personal Computer, Desktop-Computer, Laptop-Computer, Nachrichtenprozessoren, Handheld-Vorrichtungen, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und dergleichen gehören.Die Offenbarung kann außerdem in Umgebungen mit verteilten Systemen angewandt werden, in denen sowohl lokale als auch entfernte Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine beliebige Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen als auch in entfernten Datenspeichervorrichtungen befinden.
  • Ferner können die in dieser Schrift beschriebenen Funktionen gegebenenfalls in einem oder mehreren von Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten durchgeführt werden. Zum Beispiel können eine oder mehrere anwendungsspezifische integrierte Schaltungen (application specific integrated circuits - ASICs) dazu programmiert sein, eine(s) oder mehrere der hierin beschriebenen Systeme und Prozesse auszuführen. Bestimmte Ausdrücke, die in der gesamten Beschreibung und den Patentansprüchen verwendet werden, beziehen sich auf konkrete Systemkomponenten. Für den Fachmann liegt auf der Hand, dass die Komponenten mit anderen Benennungen bezeichnet werden können. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich der Benennung nach unterscheiden, nicht jedoch hinsichtlich ihrer Funktion.
  • Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um zumindest einen Teil ihrer Funktionen durchzuführen. Zum Beispiel kann ein Sensor Computercode, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und eine Hardware-Logikschaltung/elektrische Schaltung, die durch den Computercode gesteuert wird, beinhalten. Diese beispielhaften Vorrichtungen sind in dieser Schrift zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein.Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie sie dem einschlägigen Fachmann bekannt wären. Zumindest einige Ausführungsformen der vorliegenden Offenbarung sind auf Computerprogrammprodukte ausgerichtet, die eine derartige Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist.Derartige Software bewirkt, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, dass eine Vorrichtung wie in dieser Schrift beschrieben arbeitet.
  • Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele und nicht der Einschränkung dienen.Der Fachmann auf dem einschlägigen Gebiet wird erkennen, dass verschiedene Änderungen bezüglich Form und Detail daran vorgenommen werden können, ohne vom Wesen und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten Breite und Umfang der vorliegenden Offenbarung durch keine der vorangehend beschriebenen beispielhaften Ausführungsformen eingeschränkt, sondern lediglich gemäß den folgenden Ansprüchen und deren Äquivalenten definiert werden.Die vorhergehende Beschreibung ist zum Zwecke der Veranschaulichung und Beschreibung dargelegt worden. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die exakte offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorangehenden Lehren möglich. Ferner ist anzumerken, dass eine beliebige oder alle der vorstehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridumsetzungen der vorliegenden Offenbarung zu bilden. Zum Beispiel können beliebige der unter Bezugnahme auf eine bestimmte Vorrichtung oder Komponente beschriebenen Funktionen durch eine andere Vorrichtung oder Komponente durchgeführt werden. Ferner wurden zwar konkrete Vorrichtungseigenschaften beschrieben, doch können sich Ausführungsformen der Offenbarung auf zahlreiche andere Vorrichtungseigenschaften beziehen. Ferner versteht es sich, dass, obwohl Ausführungsformen in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben worden sind, die Offenbarung nicht notwendigerweise auf die konkreten beschriebenen Merkmale oder Handlungen beschränkt ist. Die konkreten Merkmale und Handlungen werden vielmehr als veranschaulichende Formen der Umsetzung der Ausführungsformen offenbart. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll vermittelt werden, dass bestimmte Ausführungsformen bestimmte Merkmale, Elemente und/oder Schritte beinhalten könnten, während andere Ausführungsformen diese unter Umständen nicht beinhalten, es sei denn, es ist ausdrücklich etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, im Allgemeinen nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäß einer Ausführungsform der Erfindung ist der Dienstanbieter dazu konfiguriert, eine Nachricht an einen Empfänger zu übertragen, die identifizierende Informationen für ein Objekt beinhaltet, das in den Kamerabildern gefunden wird.
  • Gemäß einer Ausführungsform überträgt der Dienstanbieter die Kamerabilder an eine mobile Vorrichtung, die bei dem Fahrzeug registriert ist.
  • Gemäß einer Ausführungsform umfasst der Dienstanbieter eine Schadensartklassifizierung, die zu Folgendem konfiguriert ist: Bestimmen eines Grundgeräuschmodells für das Fahrzeug; Empfangen des kontinuierlichen Fahrzeugsensorsignals; und Identifizieren einer Schadensart anhand des kontinuierlichen Fahrzeugsensorsignals unter Verwendung des Grundgeräuschmodells.
  • Gemäß einer Ausführungsform umfasst der Dienstanbieter eine Schadensschweregradklassifizierung, die dazu konfiguriert ist, einen Schadensschweregrad des Schadens unter Verwendung eines Schadensschweregradmodells unter Verwendung des Grundgeräuschmodells zu bestimmen.
  • Gemäß einer Ausführungsform wird das kontinuierliche Fahrzeugsensorsignal von einer Vielzahl von Sensoren erlangt, die einen Beschleunigungsmesser, ein Gyroskop, einen Audiosensor und Kombinationen davon umfasst.

Claims (15)

  1. Verfahren, das Folgendes umfasst: Bestimmen eines Auftretens eines Schadensereignisses für ein erstes Fahrzeug auf Grundlage eines Fahrzeugsensorsignals; Bestimmen einer Stelle an dem ersten Fahrzeug, an der ein Schaden aufgetreten ist, unter Verwendung des Fahrzeugsensorsignals; Aktivieren einer Kamera auf einer Seite des ersten Fahrzeugs, die mit der Stelle an dem ersten Fahrzeug übereinstimmt, an der der Schaden aufgetreten ist, oder benachbart dazu ist; Bestimmen, aus Kamerabilden, von identifizierenden Informationen in Bezug auf ein in den Kamerabildern aufgenommenes Objekt; und Übertragen einer Nachricht an einen Empfänger, die die identifizierenden Informationen beinhaltet.
  2. Verfahren nach Anspruch 1, wobei, wenn das Objekt ein zweites Fahrzeug ist, die identifizierenden Informationen eine Fahrzeugmarke, einen Fahrzeugtyp, ein Fahrzeugmodell, ein Nummernschild, einen Fahrzeugstandort, ein einzigartiges Design an dem zweiten Fahrzeug und Kombinationen oder Permutationen davon umfassen.
  3. Verfahren nach Anspruch 1, das ferner Übertragen der Kamerabilder an eine mobile Vorrichtung in Echtzeit über ein Netzwerk umfasst.
  4. Verfahren nach Anspruch 1, das ferner Verfolgen des Objekts, nachdem das Schadensereignis auftritt, unter Verwendung der Kamera umfasst.
  5. Verfahren nach Anspruch 1, wobei das Schadensereignis auf Grundlage von Signalen bestimmt wird, die von einem beliebigen von einem Bewegungssensor, einem Audiosensor oder Kombinationen davon empfangen werden.
  6. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Klassifizieren einer Schadensart des Schadens unter Verwendung eines oder mehrerer Klassifikatorschadensartmodelle; und Bestimmen eines Schadensschweregrads des Schadens unter Verwendung eines oder mehrerer Klassifikatorschadensschweregradmodelle.
  7. Verfahren nach Anspruch 6, das ferner Folgendes umfasst: Trainieren und Anwenden eines Geräuschmodells, um Basisfahrzeuggeräusche oder - vibrationen zu identifizieren; und Anwenden der Basisfahrzeuggeräusche oder -vibrationen beim Klassifizieren der Schadensart und Bestimmen des Schadensschweregrads.
  8. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Empfangen einer Angabe, dass der Schaden als einforderbarer Schaden klassifiziert wurde; Erzeugen eines Versicherungsanspruchs mit den Kamerabildern; und Übertragen des Versicherungsanspruchs mit den Kamerabildern an einen Versicherungsträger.
  9. Vorrichtung, die Folgendes umfasst: einen Prozessor; und einen Speicher zum Speichern von Anweisungen, wobei der Prozessor die Anweisungen zu Folgendem ausführt: Bestimmen eines Auftretens eines Schadensereignisses für ein erstes Fahrzeug auf Grundlage eines Fahrzeugsensorsignals; Bestimmen einer Stelle an dem ersten Fahrzeug, an der ein Schaden aufgetreten ist, unter Verwendung des Fahrzeugsensorsignals; Aktivieren einer ersten Kamera auf einer Seite des ersten Fahrzeugs, die mit der Stelle an dem ersten Fahrzeug übereinstimmt, an der der Schaden aufgetreten ist; Bestimmen, aus Kamerabilden, von identifizierenden Informationen in Bezug auf ein in den Kamerabildern aufgenommenes Objekt; und Übertragen einer Nachricht an einen Empfänger, die die identifizierenden Informationen beinhaltet.
  10. Vorrichtung nach Anspruch 9, wobei der Prozessor zu Folgendem konfiguriert ist: Klassifizieren einer Schadensart des Schadens unter Verwendung eines oder mehrerer Klassifikatormodelle auf Grundlage der Sensorart; Bestimmen eines Schadensschweregrads des Schadens unter Verwendung eines Klassifikatorschadensschweregradmodells; Trainieren und Anwenden eines Geräuschmodells, um Basisfahrzeuggeräusche oder - vibrationen zu identifizieren; und Anwenden der Basisfahrzeuggeräusche oder -vibrationen beim Klassifizieren der Schadensart und Bestimmen des Schadensschweregrads.
  11. Vorrichtung nach Anspruch 9, wobei der Prozessor dazu konfiguriert ist, eine zweite Kamera benachbart zu der ersten Kamera zu aktivieren, um zusätzliche Kamerabilder aufzunehmen.
  12. Vorrichtung nach Anspruch 11, wobei der Prozessor dazu konfiguriert ist, das Objekt mit der ersten Kamera oder der zweiten Kamera zu verfolgen, wenn sich das Objekt relativ zu dem ersten Fahrzeug bewegt.
  13. Vorrichtung nach Anspruch 11, wobei der Prozessor dazu konfiguriert ist, die Kamerabilder an einen Dienstanbieter zu übertragen, wobei der Dienstanbieter die Kamerabilder an eine mobile Vorrichtung überträgt, die für das erste Fahrzeug registriert ist.
  14. Vorrichtung, die Folgendes umfasst: einen Prozessor; und einen Speicher zum Speichern von Anweisungen, wobei der Prozessor die Anweisungen zu Folgendem ausführt: Erlangen eines Fahrzeugsensorsignals von einem Fahrzeugsensor eines Fahrzeugs; Übertragen eines kontinuierlichen Fahrzeugsensorsignals an einen Dienstanbieter; wobei der Dienstanbieter zu Folgendem konfiguriert ist: Bestimmen eines Auftretens eines Schadensereignisses für das Fahrzeug auf Grundlage des kontinuierlichen Fahrzeugsensorsignals; Bestimmen einer Stelle an dem Fahrzeug, an der ein Schaden aufgetreten ist, unter Verwendung des Fahrzeugsensorsignals; Aktivieren einer ersten Kamera auf einer Seite des Fahrzeugs, die der Stelle entspricht, auf Grundlage einer von dem Dienstanbieter empfangenen Angabe, dass ein Schadensereignis aufgetreten ist, um Kamerabilder zu erlangen; und Übertragen der Kamerabilder an den Dienstanbieter.
  15. Vorrichtung nach Anspruch 14, wobei der Dienstanbieter dazu konfiguriert ist, die identifizierenden Informationen zu bestimmen, die sich auf ein in den Kamerabildern aufgenommenes Objekt beziehen.
DE102021125734.4A 2020-10-06 2021-10-04 Systeme und verfahren zur identifizierung von fahrzeugschaden und vorfallverwaltung Pending DE102021125734A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/063,988 2020-10-06
US17/063,988 US11562570B2 (en) 2020-10-06 2020-10-06 Vehicle damage identification and incident management systems and methods

Publications (1)

Publication Number Publication Date
DE102021125734A1 true DE102021125734A1 (de) 2022-04-07

Family

ID=80738234

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021125734.4A Pending DE102021125734A1 (de) 2020-10-06 2021-10-04 Systeme und verfahren zur identifizierung von fahrzeugschaden und vorfallverwaltung

Country Status (3)

Country Link
US (1) US11562570B2 (de)
CN (1) CN114387780A (de)
DE (1) DE102021125734A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3722161A1 (de) * 2019-04-12 2020-10-14 Aptiv Technologies Limited Verfahren zur detektion des zufügens von kratzern und stössen
US11807188B2 (en) * 2021-01-14 2023-11-07 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for controlling image capture sessions with external devices
US20220383256A1 (en) * 2021-05-26 2022-12-01 Microsoft Technology Licensing, Llc Post-vehicular incident reconstruction report
CN117710118A (zh) * 2023-12-28 2024-03-15 中保金服(深圳)科技有限公司 一种智能理赔分析方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101582441B1 (ko) * 2015-05-20 2016-01-06 서울대학교산학협력단 영상 정보 수집 시스템 및 이동 객체에 대한 영상 정보를 수집하는 방법
DE102017203661A1 (de) 2017-03-07 2018-09-13 Audi Ag Verfahren zur Schadenserkennung an einem Prüfobjekt, insbesondere an einem Kraftfahrzeug, sowie Prüfvorrichtung
WO2018191421A1 (en) 2017-04-11 2018-10-18 Alibaba Group Holding Limited Image-based vehicle damage determining method, apparatus, and electronic device
US11250054B1 (en) * 2017-05-10 2022-02-15 Waylens, Inc. Dynamic partitioning of input frame buffer to optimize resources of an object detection and recognition system
US20190095877A1 (en) * 2017-09-26 2019-03-28 Panton, Inc. Image recognition system for rental vehicle damage detection and management

Also Published As

Publication number Publication date
US11562570B2 (en) 2023-01-24
CN114387780A (zh) 2022-04-22
US20220108115A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
DE102021125734A1 (de) Systeme und verfahren zur identifizierung von fahrzeugschaden und vorfallverwaltung
DE102017114122A1 (de) Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102016112908A1 (de) Ereignismeldung und –rekonstruktion durch Crowdsourcing
DE202019005891U1 (de) Fahrzeugtelematik von Fahrzeugunfällen
DE102013209055A1 (de) Datenquellenidentifizierung, Datensammlung und Datenspeicherung für Verkehrsereignisse
DE112013004591T5 (de) Erhebung und Nutzung von erfassten Fahrzeugdaten
DE102017125484A1 (de) System und verfahren zum einschätzen des innenraums eines autonomen fahrzeugs
DE102017125421A1 (de) Objektklassifikationsanpassung anhand einer fahrzeugkommunikation
DE102017113596A1 (de) Erkennen von gefahren in erwartung sich öffnender fahrzeugtüren
DE102017113260A1 (de) Verfahren und vorrichtung zur sicherheitswahrnehmung und warnung zwischen fahrzeugen
DE102014211986A1 (de) Kennzeichenschild-Erkennungssystem und Standort-Vorausberechnung
DE102018109413A1 (de) Flecken- und abfallerkennungssysteme und -verfahren
DE60201343T2 (de) Verfahren und gerät zur überwachung
DE102016225437A1 (de) Vorrichtung, Verfahren und Computerprogramm für ein Fahrzeug zum Bereitstellen einer Unfallmeldung über einen Unfall an eine Notrufstelle
DE112018003637T5 (de) Datenanalyse in intelligenten städten zur verbesserten unfallrekonstruktion und für bessere lösungen
DE102020100496A1 (de) Systeme und verfahren zum erfassen von fahrzeugbeschädigungsereignissen und berichterstatten über diese
DE102016216522A1 (de) Verfahren zum Bereitstellen wenigstens einer Information über einen Unfall zwischen mindestens zwei Verkehrsteilnehmern
DE102022112255A1 (de) Bereitstellen von sicherheit über fahrzeugbasierte überwachung von benachbarten fahrzeugen
DE102020122171A1 (de) Verfahren und System zum kooperativen Sammeln von Videodaten von Fahrtenschreibern
DE102017219292A1 (de) Verfahren und vorrichtung zum erfassen von ereignisbezogenen daten bezüglich eines fahrzeugs
DE102018222683A1 (de) Verfahren zum Erstellen einer Umgebungsrepräsentationskarte zur Überwachung eines Fahrzeugs und/oder eines Fahrzeuganhängers unter Verwendung eines Kamerasystems
WO2018065325A1 (de) Ermittlung von identifizierungsmerkmalen eines unfallteilnehmers bei einem unfall des unfallteilnehmers mit einem kraftfahrzeug
DE102020215885A1 (de) Verfahren und system zur erkennung und mitigation von störungen
DE102020103029A1 (de) Verfahren und vorrichtung zum erhalten von ereignisbezogenen daten

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06Q0050300000

Ipc: G06Q0050400000