DE102020103903B4 - Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, Telematikeinrichtung, und Servervorrichtung - Google Patents

Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, Telematikeinrichtung, und Servervorrichtung Download PDF

Info

Publication number
DE102020103903B4
DE102020103903B4 DE102020103903.4A DE102020103903A DE102020103903B4 DE 102020103903 B4 DE102020103903 B4 DE 102020103903B4 DE 102020103903 A DE102020103903 A DE 102020103903A DE 102020103903 B4 DE102020103903 B4 DE 102020103903B4
Authority
DE
Germany
Prior art keywords
damage
describes
data
motor vehicle
diagnostic data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020103903.4A
Other languages
English (en)
Other versions
DE102020103903A1 (de
Inventor
Simon Brandl
Serge Volodarski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102020103903.4A priority Critical patent/DE102020103903B4/de
Publication of DE102020103903A1 publication Critical patent/DE102020103903A1/de
Application granted granted Critical
Publication of DE102020103903B4 publication Critical patent/DE102020103903B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs (10), wobei eine Telematikeinrichtung (32) einer kraftfahrzeugexternen Benutzerschnittstelle (26):- über eine drahtlose Datenkommunikationsverbindung (38) aus einer Sensoreinrichtung (16) eines vorgegebenen mobilen Endgeräts (14) mindestens einen Schadbilddatensatz empfängt, der ein Schadbildelement des Kraftfahrzeugs (10) beschreibt (S1),- Diagnosedaten feststellt, die anhand des empfangenen Schadbilddatensatzes ein Schadbild des Schadbildelements beschreiben (S2),- eine die festgestellten Diagnosedaten berücksichtigende Verbesserungsvorschrift feststellt, die ein Abändern der Diagnosedaten beschreibt, wobei die festgestellte Verbesserungsvorschrift ein vorgegebenes Diagnoseverbesserungskriterium erfüllt (S3),- zum Feststellen der Diagnosedaten und/oder zu einem Feststellen der Verbesserungsvorschrift aus der Sensoreinrichtung (16) ein Abtastsignal empfängt, das eine haptisch und/oder taktil wahrnehmbaren Struktur des Schadbildelements beschreibt,- eine den abgeänderten Diagnosedaten zugeordnete Handlungsempfehlung feststellt, die eine Maßnahme zum Behandeln des Schadbildelements beschreibt, sowie ein Empfangsgerät (22) zum Empfangen der Handlungsempfehlung festlegt (S5), das ein unbemanntes Luftfahrzeug (18) ist, und wobei das unbemannte Luftfahrzeug (18) das mobile Endgerät (14) mit der Sensoreinrichtung (16) ist, welche eine Abtastvorrichtung (20) aufweist, und- ein Steuersignal erzeugt, das die zugeordnete Handlungsempfehlung beschreibt, und das erzeugte Steuersignal an das festgelegte Empfangsgerät (22) überträgt (S6).

Description

  • Die Erfindung betrifft ein Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, also als Reaktion auf einen Schaden oder vermutlichen Schaden des Kraftfahrzeugs.
  • Durch Kameras und Machine-Learning werden heutzutage mechanische und/oder physische Schäden am Exterieur oder Interieur eines Kraftfahrzeugs mit einer sehr hohen Fehlerquote automatisch erkannt.
  • Oft werden Verschmutzungen oder Spiegelungen fälschlicherweise als Schaden erkannt, und es ist eine physische Anwesenheit eines Mechanikers oder Gutachters zur Fahrzeugbewertung oder Justierung notwendig. Außerdem ist eine Position einer Kamera für jedes Fahrzeug beziehungsweise für jeden Schaden so individuell, dass hier kein allgemeingültiger Pfad für die Kamera festgelegt werden kann, beziehungsweise kann ein Laie die richtige Position für den richtigen Schaden oft nicht erkennen. So werden viele Schäden nicht erkannt. Es kann auch passieren, dass etwas als Schaden dokumentiert wird, was eigentlich nur zum Beispiel nur eine Verschmutzung ist.
  • Die US 2010/0063668 A1 beschreibt ein System und Verfahren zum telemetrischen Messen von diagnostischen Daten eines Kraftfahrzeugs auf der Straße.
  • Die DE 10 2017 200 855 A1 beschreibt ein Verfahren zur Diagnose eines Zustands mindestens einer Komponente eines Fahrzeugs.
  • Aus der DE 10 2019 100 695 A1 ist ein System bekannt, das einen Prozessor beinhaltet, der konfiguriert ist zum Empfangen eines Fahrzeugdiagnoseberichts von einem Fahrzeug.
  • Die US 10,510,142 B1 beschreibt Techniken zum Durchführen von Schätzungen basierend auf einer Bildanalyse.
  • Aus der DE 10 2017 002 689 A1 ist in einer Ausführungsform ein unbemanntes Luftfahrzeug mit einer Abtasteinrichtung bekannt, welche eine haptische und/oder taktile Erfassung von Messwerten ermöglicht.
  • Ein Fahrzeugdiagnosebericht, der vom Kraftfahrzeug bereitgestellt wird, ist von einer Sensorik des Kraftfahrzeugs abhängig. Lackschäden beispielsweise können über einen vom Fahrzeug bereitgestellten Fahrzeugdiagnosebericht nicht erkannt werden. Eine Verbesserung einer Diagnose wird durch den genannten Stand der Technik also nur bedingt erreicht. Gegebenenfalls muss fachliches Personal, zum Beispiel ein Mechaniker, das Kraftfahrzeug ansehen, wozu der Mechaniker zum Kraftfahrzeug reisen muss oder das Kraftfahrzeug in die Werkstatt gebracht werden muss.
  • Eine der Erfindung zugrunde liegende Aufgabe ist das Verbessern einer Diagnose eines möglichen Schadens eines Kraftfahrzeugs.
  • Die gestellte Aufgabe wird durch das erfindungsgemäße Verfahren und die erfindungsgemäßen Vorrichtungen gemäß der nebengeordneten Patentansprüche gelöst. Vorteilhafte Weiterbildungen sind durch die Unteransprüche gegeben.
  • Die Erfindung basiert auf der Idee, eine „verlängerte Hand“ des Mechanikers bereitzustellen, wobei zum Beispiel ein Fahrzeugbenutzer die Schadensdokumentation übernehmen kann und als „verlängerte Hand“ agiert. Festgestellte Diagnosedaten, also Daten, die zum Beispiel ein Schadbild „Steinschlag“, „Verfärbung der Außenhaut“ oder „Lackschaden“ diagnostizieren können, werden in einem Überprüfungsschritt verbessert. Die verbesserten Diagnosedaten dienen dann als Grundlage für eine Handlungsempfehlung, wobei die Handlungsempfehlung eine Empfehlung einer Maßnahme ist, die zum Beispiel die Diagnose des Schadbilds durch zusätzliche Daten konkretisieren kann, und/oder die zum Beispiel einen Schaden beheben kann. Eine Handlungsempfehlung kann zum Beispiel eine bessere oder andere Ausrichtung einer Kamera auf zum Beispiel die Karosserie vorgeben, oder eine Anleitung zum Reparieren eines Schadbildes, falls dies zum Beispiel durch den Fahrzeugbenutzer durchgeführt werden kann oder falls zum Beispiel ein autonom steuerbares Gerät zum Reparieren vor Ort ist.
  • Unter einem Schadbild wird dabei etwas verstanden, das zum Beispiel wie ein Schaden aussieht, sich wie eine Funktionsstörung anhört, oder das anhand von Messdaten ein Schaden sein könnte. Mit anderen Worten kann unter einem Schadbild zum Beispiel eine Abweichung von einem Soll-Aussehen verstanden werden, eine Abweichung von einer Soll-Erscheinung oder einer Soll-Funktionsweise einer Komponente oder Stelle des Kraftfahrzeugs, also zum Beispiel eine Verfärbung der Karosserie, eine wie ein Steinschlag aussehende Stelle auf der Windschutzscheibe, ein ungewöhnliches Motorgeräusch, ein ungewöhnliches Auspuffgeräusch, oder auffällige Motordaten. Insbesondere kann das Schadbild eine Abweichung vom Soll-Aussehen oder einer Soll-Erscheinung sein, zum Beispiel eine Verfärbung der Karosserie oder eine wie ein Steinschlag aussehende Stelle auf der Windschutzscheibe.
  • Fachpersonal, also zum Beispiel ein Mechaniker oder Gutachter, muss nicht vor Ort sein. Deutlich viel mehr Schäden können richtig erkannt werden, und bereits bestehende Algorithmen werden durch Training verbessert, falls bei der Diagnose und/oder bei der Generierung der Handlungsempfehlung eine künstliche Intelligenz eingesetzt wird.
  • Das erfindungsgemäße Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs wird durch eine Telematikeinrichtung einer kraftfahrzeugexternen Benutzerschnittstelle durchgeführt.
  • Unter einer Telematikeinrichtung wird ein Gerät, eine Gerätegruppe oder eine Gerätekomponente verstanden, die zum Empfangen und Auswerten von Signalen ausgestaltet und eingerichtet ist, sowie zum Erzeugen von Steuersignalen. Die Telematikeinrichtung ist Teil einer kraftfahrzeugexternen Benutzerschnittstelle, also zum Beispiel ein Steuerschaltkreis oder ein Steuerchip eines Computers oder Datenservers.
  • Über eine drahtlose Datenkommunikationsverbindung, zum Beispiel eine Mobilfunkverbindung, empfängt die Telematikeinrichtung aus einer Sensoreinrichtung eines vorgegebenen mobilen Endgeräts mindestens einen Schadbilddatensatz, der ein Schadbildelement des Kraftfahrzeugs beschreibt und/oder dokumentiert. Unter einem Schadbildelement wird dabei ein Anteil oder Teil des Kraftfahrzeugs verstanden, das das Schadbild zeigt, zum Beispiel ein Teil der Karosserie mit der der Schmutz- oder Schadstelle, oder die Windschutzscheibe mit dem vermuteten Steinschlag, eine Anzeige auf der Schalttafel, die Werte von zum Beispiel Motortemperatur und/oder Daten eines Katalysators zeigt, oder ein Bauteil oder ein Kraftfahrzeugsystem. Unter einer Sensoreinrichtung wird ein Gerät oder eine Gerätegruppe zum Erfassen zum Beispiel einer chemischen, physischen und/oder optischen Eigenschaft verstanden, also ein Gerät oder Geräteteil mit mindestens einem Sensor. Der Sensor kann dabei vorzugsweise eine Kamera, entweder zum Beispiel eine gängige Kamera und/oder zum Beispiel eine Infrarotkamera, sein, oder zum Beispiel ein Mikrofon, oder zum Beispiel ein Modul zum Empfangen von Fahrzeugdaten. Das mobile Endgerät kann zum Beispiel als Smartphone und Tablet-PC ausgestaltet sein.
  • Die Telematikeinrichtung stellt Diagnosedaten fest, die anhand des empfangenen Schadbilddatensatzes ein Schadbild des Schadbildelements beschreiben. Die Diagnosedaten können dabei zum Beispiel einen „Steinschlag“ beschreiben einen „Lackschaden“, eine „Karosserieverfärbung“ oder eine „Auspufffunktionsstörung“.
  • Um nicht nur die Diagnose zu verbessern, sondern um optional auch eine Quelle der Diagnosedaten, zum Beispiel ein neuronales Netzwerk, zu trainieren, stellt die Telematikeinrichtung eine die festgestellten Diagnosedaten berücksichtigende Verbesserungsvorschrift fest. Die festgestellte Verbesserungsvorschrift, zum Beispiel eine vorgegebene Verbesserungsvorschrift, kann zum Beispiel beschreiben: „Schadstelle detaillierter überprüfen“, oder „Auspuffdaten überprüfen“. Vorzugsweise kann die vorgegebene Verbesserungsvorschrift in Abhängigkeit von den festgestellten Diagnosedaten ermittelt werden. Hierzu kann die Telematikeinrichtung zum Beispiel voreingestellte Zuordnungslisten zum Heraussuchen einer sinnvollen Verbesserungsvorschrift durchführen, die zum Beispiel auf Erfahrungswerten beruhen kann, oder zum Beispiel mit Hilfe eines neuronalen Netzwerkes eine sinnvolle Verbesserungsvorschrift erstellen.
  • Die vorgegebene Verbesserungsvorschrift beschreibt ein Abändern der Diagnosedaten, wobei die festgestellte Verbesserungsvorschrift ein vorgegebenes Diagnoseverbesserungskriterium erfüllt. Das vorgegebene Diagnoseverbesserungskriterium kann zum Beispiel in einem Datenspeicher der Telematikeinrichtung abgelegt sein und eine Mindestwahrscheinlichkeit einer Verbesserung der Diagnose durch das Abändern der Diagnosedaten vorgeben. So kann zum Beispiel ein weiteres Foto aus einem anderen Winkel eine Verbesserung der Diagnose um zum Beispiel einen vorgegebenen Wert von 50% erhöhen.
  • Eine entsprechend verbesserte Diagnose kann zum Beispiel sein: „Farbabweichung des Lacks“, sodass unklar ist, ob es tatsächlich ein Lackschaden oder nur eine Verfärbung oder Schmutz auf der Karosserie ist; oder „Katalysator- und/oder Auspuffproblem“.
  • Eine solche verbesserte Diagnose bewirkt dann, dass im nachfolgenden Schritt als Handlungsempfehlung nicht sofort die Empfehlung einer Fahrt in die Lackiererei oder Werkstatt ausgegeben wird, sondern dass zum Konkretisieren der Diagnose beziehungsweise zum Verifizieren des vermeintlichen Lackschadens zum Beispiel ein Benutzer des Kraftfahrzeugs noch mal mit dem Finger an der Schadstelle, also an dem Schadstellenelement, reiben soll und/oder nochmal ein weiteres Kamerabild aus einem anderen Winkel aufnehmen soll. Im anderen Beispiel wird der Benutzer zum Beispiel angeleitet, zusätzlich Informationen zu dem Auspuff zu schicken, um festzustellen, ob vielleicht gar nicht der Katalysator defekt ist, sondern das Geräusch vom Auspuff selbst verursacht wird.
  • Ohne die Verbesserung der Diagnosedaten würde der Benutzer zum Beispiel also sofort in die Lackiererei geschickt, oder in die Werkstatt. Aufgrund der verbesserten Diagnosedaten überprüft der Benutzer zum Beispiel erst noch einmal durch Reiben auf der Karosseriestelle, ob es sich nicht vielleicht um Schmutz handelt, und durch ein weiteres Kamerabild kann dann zum Beispiel verifiziert werden, dass nicht nur der Lack betroffen ist, sondern dass die Karosserie auch zerkratzt ist. Alternativ kann der Benutzer zum Beispiel den Auspuff fotografieren, wodurch dann der Auspuff zum Beispiel auf Löcher oder Risse untersucht werden kann, oder es können Motordaten vom Fahrzeug angefordert und an die Telematikeinrichtung übertragen werden.
  • Das Ändern oder Abändern der Diagnosedaten kann optional von der Telematikeinrichtung durchgeführt werden.
  • Die Telematikeinrichtung stellt also eine den abgeänderten Diagnosedaten zugeordnete Handlungsempfehlung fest, die eine Maßnahme zum Behandeln des Schadbildelements, also eine Reaktion auf das Schadbild und damit auf den vermeintlichen Schaden, beschreibt. Die Handlungsempfehlung kann zum Beispiel eine Reparaturmaßnahme sein, oder die Anweisung zum Fotografieren des Schadbildelements mit dem Schadbild aus einem anderen Winkel.
  • Die Telematikeinrichtung legt ebenfalls ein Empfangsgerät zum Empfangen der Handlungsempfehlung fest. Das festgelegte Empfangsgerät ist ein unbemanntes Luftfahrzeug, also ein unbemanntes Fluggerät. Insbesondere kann das unbemannte Luftfahrzeug ein unbemanntes, ferngesteuertes oder autonom fliegendes Luftfahrzeug sein, zum Beispiel eine Drohne mit einer Kamera oder ein Quadrocopter mit einer Kamera. Die Handlungsempfehlung kann optional zusätzlich Steuerdaten zum Steuern der Drohne und zum optimalen Ausrichten der Drohnen-Kamera umfassen.
  • Das unbemannte Luftfahrzeug ist das mobile Endgerät mit der Sensoreinrichtung ist, und die Sensoreinrichtung weist eine Abtastvorrichtung auf. Die Telematikeinrichtung empfängt zum Feststellen der Diagnosedaten und/oder zu einem Feststellen der Verbesserungsvorschrift aus der Sensoreinrichtung ein Abtastsignal. Das empfangene Abtastsignal beschreibt dabei eine haptisch und/oder taktil wahrnehmbare Struktur des Schadbildelements. Geeignete Fühler oder Taster sind dem Fachmann dabei aus dem Stand der Technik bekannt. Unter einer Abtastvorrichtung wird dabei ein Gerät oder eine Gerätekomponente zum Erfassen der Struktur verstanden. Die Handlungsempfehlung kann dann zum Beispiel ein Wischen über die Schadbildstelle beschreiben oder ein Erfassen der haptisch und/oder taktil wahrnehmbaren Struktur des Schadbildelements. Dadurch, dass gemäß dieser Ausführungsform das Wischen oder Abtasten nicht durch einen Laien erfolgt, der unter Umständen nicht die richtigen Worte für die Struktur haben kann, werden sowohl Diagnose als auch eine etwaige Folge-Handlungsempfehlung noch besser spezifiziert.
  • Optional kann die zugeordnete Handlungsempfehlung ein Abtasten der Schadbildstelle beschreiben.
  • Die Telematikeinrichtung erzeugt entsprechend ein Steuersignal, das die zugeordnete Handlungsempfehlung beschreibt und überträgt das erzeugte Steuersignal an das festgelegte Empfangsgerät.
  • Es ergeben sich die oben beschriebenen Vorteile. Im Unterschied zu einem Laien würde ein Mechaniker vor Ort bei zum Beispiel bei einem Schadbild, das wie ein Lackschaden aussieht, die Schadbildstelle zunächst aus verschiedenen Perspektiven anschauen, und mit der Fingeroberfläche auf dem vermeintlichen Lackschaden reiben, um auszuschließen, dass es sich lediglich um Schmutz handelt. Durch das erfindungsgemäße Verfahren muss der Mechaniker nun nicht mehr vor Ort sein, denn ein Benutzer des Kraftfahrzeugs kann durch die erfindungsgemäß erzeugte und übertragene Handlungsempfehlung als „verlängerter Arm“ des Mechanikers agieren und wird durch die Handlungsempfehlung angeleitet. Dadurch, dass der Schadbilddatensatz aus dem mobilen Endgerät empfangen wird, braucht der Benutzer keinen Mechaniker vor Ort, sondern kann zunächst mit seinen eigenen Mitteln Daten über den vermeintlichen Schaden bereitstellen. Außerdem ist der Benutzer des Kraftfahrzeugs nicht davon abhängig, dass das Kraftfahrzeug über ein funktionsfähiges Datenkommunikationsmodul verfügt oder selbst eine funktionierende Verbindung zu einem entfernten Datenserver bereitstellen kann. Umfasst die Handlungsempfehlung zum Beispiel Reparaturschritte durch einen Reparaturroboter, muss der Mechaniker ebenfalls nicht vor Ort sein, und der Benutzer des Kraftfahrzeugs muss über kein Fachwissen zum Bedienen des Reparaturroboters verfügen.
  • Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens kann der empfangene Schadbilddatensatz beschreibt: a) ein Kamerabild aus einer Kamera des mobilen Endgeräts, wobei das Kamerabild ein Schadbild als Schadbildelement dokumentiert; und/oder b) eine Aufnahme eines Geräuschs des Kraftfahrzeugs als Schadbildelement beschreibt. Mithilfe dieser optischen und/oder akustischen „Symptome“, die sich unkompliziert mit einem mobilen Endgerät erfassen lassen, können viele vermeintliche Schäden, die ein Laie schlecht selbst beurteilen kann, gut untersucht werden. Das beispielhafte Kamerabild kann zum Beispiel eine verfärbte Stelle an der Karosserie zeigen oder eine abfotografierte Drehzahlanzeige. Die beispielhafte Aufnahme kann zum Beispiel von einem Motorgeräusch oder Auspuffgeräusch sein.
  • Gemäß einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens kann die Telematikeinrichtung die Diagnosedaten und/oder die den festgestellten Diagnosedaten zugeordnete Handlungsempfehlung aus einer Deep-Learning-Engine empfangen. Anhand der festgestellten Verbesserungsvorschrift kann die Telematikeinrichtung einen Trainingsdatensatz zum maschinellen Lernen bereitstellen, also zusätzliche Erfahrungswerte für die Deep-Learning-Engine zum Verbessern ihrer Beurteilung. Ein Trainingsdatensatz beschreibt das mindestens eine Kamerabild und die festgestellte Verbesserungsvorschrift, optional das Abändern der festgestellten Diagnosedaten. Der bereitgestellte Trainingsdatensatz kann vorzugsweise auch die den abgeänderten Diagnosedaten zugeordnete Handlungsempfehlung beschreiben. Der bereitgestellte Trainingsdatensatz wird an die Deep-Learning-Engine übertragen. Dadurch wird die Deep-Learning-Engine trainiert, und zukünftige Diagnosedaten sind noch zutreffender und verlässlicher.
  • Eine Deep-Learning-Engine („Deep-Learning-Einrichtung“) ist ein Gerät, eine Gerätekomponente oder ein Programm, welches sogenanntes Deep-Learning (tiefgehendes Lernen, maschinelles Lernen) auf eine Vielzahl von Daten anwenden kann. Mit anderen Worten ist die Deep-Learning-Engine eine hoch entwickelte Einrichtung zum Durchführen von tiefgehendem Lernen, also eine Umsetzung von künstlicher Intelligenz. Mit anderen Worten sind sowohl künstliche Intelligenz, als auch Maschinenlernen und tiefgehen-des Lernen, mittels der Deep-Learning-Engine umsetzbar. Die Deep-Learning-Engine kann beispielsweise als tiefgehendes, künstliches neuronales Netz ausgebildet oder ausgestaltet sein, also, mit anderen Worten, dazu eingerichtet sein, mittels einer Methode des maschinellen Lernens eine Vielzahl von Erfahrungswerten, Trainingsdaten, die im Folgenden auch Trainierdatensatz bezeichnet werden, oder einem Dataset, nach einem vorbestimmten Algorithmus und anhand der bereits gespeicherten Vielzahl von Erfahrungswerten auszuwerten, beispielsweise über eine darin enthaltene Logik, zum Beispiel eine Korrelation. Hierdurch können auch weitere logische Verknüpfungen in der Deep-Learning-Engine erstellt werden. Erfahrungswerte oder Trainingsdaten können dabei zum Beispiel zu einer Vielzahl von Schadbildern, zum Beispiel zu einer Vielzahl von Fotos und/oder Motordaten und/oder Geräuschaufnahmen, eines oder mehrere Schadbildelemente statistisch zusammengefasst werden.
  • Mit anderen Worten können die Trainingsdaten oder Erfahrungswerte zum Beispiel als künstliches neuronales Netz zusammengefasst sein, und beispielsweise aus einer Datenbank stammen. Vorzugsweise können solche Daten zu 20 Genmustern in einer Anzahl von >1000, insbesondere >10.000, zum Trainieren der Deep-Learning-Engine verwendet werden, wobei die Trainingsdaten vorzugsweise über einen vorbestimmten Beobachtungszeitraum erfasst wurden. Ein solcher Datensatz kann als Big-Data-Datensatz bezeichnet werden.
  • Optional kann die Telematikeinrichtung die Diagnosedaten anhand des empfangenen Schadbilddatensatzes, zum Beispiel anhand des empfangenen Kamerabilds, feststellen, zum Beispiel ermitteln, und/oder die zugeordnete Handlungsempfehlung anhand der festgestellten Diagnosedaten ermitteln, also zum Beispiel die Diagnosedaten und/oder die Handlungsempfehlung berechnen. Ein menschlicher Mechaniker oder Gutachter ist dann gar nicht mehr notwendig. Vorzugsweise kann diese Ausführungsform des erfindungsgemäßen Verfahrens von einer Telematikeinrichtung durchgeführt werden, die die Deep-Learning-Engine umfasst.
  • Idealerweise kann die Telematikeinrichtung zum Feststellen der Diagnosedaten kraftfahrzeugspezifische Fahrzeugdaten des Kraftfahrzeugs des Benutzers berücksichtigen, also zum Beispiel einen aktuellen Kilometerstand, eine Fahrgestellnummer und/oder eine Reparatur- und Wartungshistorie. Zusätzlich oder alternativ kann die Telematikeinrichtung Trenddaten berücksichtigen, die einen statistisch ermittelten Schadbildtrend für das Kraftfahrzeug des Benutzers beschreiben. Solche Trenddaten können zum Beispiel beschreiben, dass bei dem Model XY ein Bauteil nach zum Beispiel zwei Jahren besonders häufig ausgetauscht werden muss. Hierdurch wird die Genauigkeit der Diagnose und damit die der Handlungsempfehlung synergistisch verbessert.
  • Das festgelegte Empfangsgerät kann vorzugsweise das mobile Endgerät des Benutzers sein, und das erzeugte Steuersignal kann ein Positioniersignal sein, das ein Ausrichten eines Sensors der Sensoreinrichtung in einer Soll-Position zu dem Schadbildelement beschreiben kann. Die Telematikeinrichtung kann dann aus der Sensoreinrichtung des in die Soll-Position ausgerichteten mobilen Endgeräts idealerweise mindestens ein Kamerabild empfangen, insbesondere ein weiteres Kamerabild, und in eine Folgeanalyse miteinbeziehen. Dadurch wird der Benutzer des Kraftfahrzeugs angeleitet, die Schadbildstelle noch einmal nach einem fachmännischen Kriterium zu erfassen. Dies ist vor allem der Fall, falls der Schadbilddatensatz ein Kamerabild und/oder eine Aufnahme eines Geräuschs beschreibt.
  • Das unbemannte Luftfahrzeug kann vorzugsweise ein steuerbares Werkzeugelement aufweisen, zum Beispiel einen drehbaren Schraubenzieher, ein steuerbares Schweißgerät oder Poliergerät. Der Benutzer des Kraftfahrzeugs kann dann im Kraftfahrzeug sitzen bleiben. Das Fluggerät kann in sehr vielen unterschiedlichen Positionen zu dem Kraftfahrzeug positioniert werden und ist so wendiger als der Benutzer.
  • Die zugeordnete Handlungsempfehlung kann optional eine Navigationsanweisung sein, und das erzeugte Steuersignal kann Steuerdaten zum Steuern des unbemannten, autonomen Luftfahrzeugs beschreiben. Die Vorteile wurden bereits oben erläutert.
  • Das Luftfahrzeug kann aus sehr vielen unterschiedlichen Blickwinkeln die Schadbildstelle fotografieren, filmen oder ein Kraftfahrzeuggeräusch aufnehmen, insbesondere bei einem fahrenden Kraftfahrzeug. Das Luftfahrzeug mit der Sensoreinrichtung kann also optional das mobile Endgerät sein, das den Schadbilddatensatz, insbesondere das Kamerabild oder eine Audioaufnahme, geliefert hat. Außerdem kann das Luftfahrzeug zum Beispiel den Motorraum filmen, während der Benutzer des Kraftfahrzeugs im Kraftfahrzeug sitzt und das Kraftfahrzeug bedient.
  • Die zugeordnete Handlungsempfehlung kann optional ein Positioniersignal sein, das ein Ausrichten eines Sensors der Sensoreinrichtung des Luftfahrzeugs in eine Soll-Position zu dem Schadbildelement beschreibt. Auch hier wurden die Vorteile bereits erläutert.
  • Zu der Erfindung gehört auch die Telematikeinrichtung. Die Telematikeinrichtung kann zum Beispiel als Steuergerät oder Steuerchip ausgestaltet sein, und vorzugsweise eine Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen FPGA (Field Programmable Gate Array) und/oder zumindest einen DSP (Digital Signal Processor) aufweisen. Des Weiteren kann die Prozessoreinrichtung einen Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.
  • Vorzugsweise kann die Telematikeinrichtung die Deep-Learning-Engine umfassen. Die Telematikeinrichtung kann dazu eingerichtet sein, die Deep-Learning-Engine dazu zu betreiben, die Diagnosedaten anhand des empfangenen Kamerabilds zu ermitteln, und/oder die zugeordnete Handlungsempfehlung anhand der festgestellten Diagnosedaten zu ermitteln.
  • Beim Betreiben der Deep-Learning-Engine sind zu einer Vielzahl von diagnostizierten Schäden und Schadbildern jeweils ein oder mehrere Handlungsempfehlungen statistisch zusammengefasst. Die Kombination der jeweiligen einen Handlungsempfehlung und dem entsprechenden Schadbild kann dabei als Erfahrungswert bezeichnet werden, mit dem die Deep-Learning-Engine antrainiert worden sein kann. Durch einen Trainingsvorgang der Deep-Learning-Engine kann diese einen Zusammenhang zwischen Schadbild und Diagnose herstellen, optional auch zwischen Schadbild, Diagnose und Handlungsempfehlung. Unter einem Erfahrungswert wird ein Wert oder eine Angabe verstanden, der/die zum Beispiel auf empirischen Messungen oder Untersuchung basierend eine Aussage darüber trifft, ob zum Beispiel das Schadbild mit der Handlungsempfehlung korreliert und dazu beiträgt, einen Schaden zu beheben und/oder besser zu untersuchen. Mit anderen Worten kann der Erfahrungswert zum Beispiel ein numerischer Wert oder ein Zuordnungswert sein.
  • Unter einem Erfahrungswert wird auch eine funktionelle Abhängigkeit oder eine funktionale Zuordnung verstanden, die eine Aussage darüber trifft, ob oder zu welchem Schadbild und/oder Schaden die Handlungsempfehlung zugeordnet werden kann. Unter einem Erfahrungswert wird, mit anderen Worten, deswegen auch eine auf numerischen Werten basierende Regel für die Zuordnung verstanden.
  • Die oben gestellte Aufgabe wird gelöst durch eine Servervorrichtung zum Betreiben im Internet, aufweisend eine Ausführungsform der erfindungsgemäßen Telematikeinrichtung. Die Servervorrichtung kann beispielsweise als Computer, Server im Internet, oder Serververbund ausgestaltet sein, oder zum Beispiel als Daten-Wolke, also als sogenannte „Daten-Cloud“.
  • Zu der Erfindung gehören auch Weiterbildungen der erfindungsgemäßen Telematikeinrichtung und der erfindungsgemäßen Servervorrichtung, die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Verfahrens beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen der erfindungsgemäßen Telematikeinrichtung und der erfindungsgemäßen Servervorrichtung hier nicht noch einmal beschrieben.
  • Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen.
  • Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt die einzige Figur („Fig.“): eine schematische Darstellung zu einem Ausführungsbeispiel der erfindungsgemäßen Vorrichtungen und des erfindungsgemäßen Verfahrens.
  • Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.
  • Die Figur veranschaulicht das Prinzip des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Vorrichtungen anhand eines Ausführungsbeispiels. Das in der Figur dargestellte Verfahren kann optional als „Machine Learning Customer Mechanic Recognition“ bezeichnet werden. Hierzu zeigt die Figur ein Kraftfahrzeug 10 eines Benutzers 12, und der Benutzer 12 hat ein mobiles Endgerät 14, um zum Beispiel eine auffällige Stelle auf der Karosserie, die er gesehen hat, zu dokumentieren. Das mobile Endgerät 12 umfasst eine Sensoreinrichtung 16, von der in der Figur ein als Kamera ausgestalteter Sensor symbolisiert ist.
  • Im Beispiel der Figur befindet sich der Benutzer 12 an einem Ort A, zum Beispiel bei sich zu Hause vor der Garage. Alternativ kann das mobile Endgerät 14 zum Beispiel als Drohne oder Quadrocopter ausgestaltet sein und Fotos von der Karosserie aufnehmen. Das unbemannte Luftfahrzeug 18 kann optional eine Abtastvorrichtung 20 aufweisen, zum Beispiel einen Fühler oder ein anderes, dem Fachmann aus dem Stand der Technik bekanntes Bauelement zum Erfassen einer Struktur. Die Abtastvorrichtung 20 kann optional zum Wischen ausgestaltet sein. In einer weiteren Variante können sowohl als mobiles Endgerät 14, das als Smartphone ausgestaltet sein kann, und ein weiteres Endgerät 14, das Luftfahrzeug 18, als Empfangsgerät 22 für unterschiedliche und/oder sich ergänzende Handlungsempfehlungen verwendet werden.
  • An einem anderen Ort, dem Ort B, zum Beispiel eine Mechanikerzentrale, kann optional eine weitere Person 24, zum Beispiel ein Mechaniker, eine kraftfahrzeugexterne Benutzerschnittstelle 26 zum Beispiel zum Erstellen der Diagnosedaten verwenden. Optional kann eine weitere Kamera 28 implementiert werden, die zum Beispiel die weitere Person 24 zeigen kann, so dass der Benutzer 12 zum Beispiel direkt mit der weiteren Person 24 sprechen kann.
  • Die kraftfahrzeugexterne Benutzerschnittstelle 26 kann zum Beispiel ein empfangenes Kamerabild anzeigen, eine empfangene Audioaufnahme abspielen und/oder empfangene Daten, zum Beispiel Motordaten, anzeigen. Die Benutzerschnittstelle 26 kann vorzugsweise eine Schalttafel, ein sogenanntes „Dashboard“, umfassen. Alternativ kann am „Ort B“ keine weitere Person 24 aktiv tätig sein, und das Verfahren kann allein durch die Telematikeinrichtung 32 durchgeführt werden. In beiden Varianten kann die Benutzerschnittstelle 26 Teil einer kraftfahrzeugexternen Servervorrichtung 30 sein.
  • Die Telematikeinrichtung 32 kann vorzugsweise in die Benutzerschnittstelle 26 integriert sein. Im Beispiel der Figur kann die Telematikeinrichtung 32 auch zum Beispiel einen Bildschirm zum Anzeigen der Daten und/oder des Kamerabilds umfassen. Die Telematikeinrichtung 32 kann optional eine Prozessoreinrichtung 34 aufweisen und/oder einen Datenspeicher 36.
  • Der empfangene Schadbilddatensatz kann ein Kamerabild des mobilen Endgeräts 14 beschreiben, einen Audiodatensatz mit zum Beispiel einem aufgenommenen Motorengeräusch und/oder andere Daten des Kraftfahrzeugs 10, zum Beispiel Motordaten. Im Folgenden wird ein Beispiel beschrieben, in dem exemplarisch der Schadbilddatensatz exemplarisch ein Kamerabild beschreiben kann.
  • Das Kamerabild kann von dem mobilen Endgerät 14 über eine Datenkommunikationsverbindung 38, zum Beispiel eine Mobilfunkverbindung, an die Telematikeinrichtung 32 übertragen werden, die das Kamerabild dann empfängt (S1). Optional kann die weitere Person 24 dann, nach Sichtung des Kamerabildes, Diagnosedaten erzeugen, indem sie zum Beispiel eine Diagnose über die Benutzerschnittstelle 26 eintippt. Mit dem Empfang solcher eingetippten Diagnosedaten werden diese festgestellt (S2). Alternativ können die Diagnosen festgestellt werden (S2), indem solche Daten aus einer Deep-Learning-Engine 40 empfangen werden. Erzeugt die Deep-Learning-Engine 40 die Diagnosedaten, kann diese von der Telematikeinrichtung 32 das Kamerabild für eine Auswertung empfangen. Die Deep-Learning-Engine 40 kann in einer Variante Bestandteil der Telematikeinrichtung 32 sein. Die Kommunikation zwischen der Deep-Learning-Engine 40 und der Telematikeinrichtung 32 kann über eine drahtlose oder drahtgebundene Datenkommunikationsverbindung 38 erfolgen, also zum Beispiel über eine WLAN- oder Mobilfunkverbindung, oder über ein Kabel.
  • Das Schadbildelement im Beispiel der Figur kann zum Beispiel eine verfärbte Stelle an der Karosserie des Kraftfahrzeugs 10 sein. Das Schadbild ist dann ein vermeintlicher Lackschaden. Zum Feststellen der Diagnosedaten S2 können optional kraftfahrzeugspezifische Daten berücksichtigt werden, die zum Beispiel von einem Datenserver 42 übermittelt werden, oder direkt vom Kraftfahrzeug 10. Alternativ oder zusätzlich kann eine weitere analytische Datenbank 44 anonymisierte statistische Werte zu zum Beispiel einem Modell des Kraftfahrzeugs 10 bereitstellen. Optional können die genannten Daten auch als Trainierdaten oder zusätzliche kraftfahrzeugspezifische Daten an die Deep-Learning-Engine 40 übertragen werden.
  • Beim Feststellen einer Verbesserungsvorschrift zu den festgestellten Diagnosedaten (S3) kann zum Beispiel eine Beurteilung der weiteren Person 24 das Abändern der festgestellten Diagnosedaten beeinflussen. Wurden die Diagnosedaten zum Beispiel von der Deep-Learning-Engine 40 festgestellt (S2), kann vor dem Zuordnen der Handlungsempfehlung zum Beispiel die weitere Person 24 das Ergebnis der Deep-Learning-Engine 40 überprüfen und die Verbesserungsvorschrift vorgeben. Dies kann zum Beispiel festgestellt werden (S3), indem eine entsprechende Eingabe durch die weiteren Person 24 empfangen wird. Die Verbesserungsvorschrift kann zum Beispiel vorsehen, dass die Diagnosedaten in die Diagnose „Lackschaden oder Verschmutzung“ abgeändert werden. Alternativ kann die Verbesserungsvorschrift durch die Telematikeinrichtung 32 vorgegeben werden, beispielsweise durch Zuordnen der Verbesserungsvorschrift zu den festgestellten Diagnosedaten anhand einer digitalen Zuordnungsliste.
  • Durch die Telematikeinrichtung 32 kann dann ein Abändern der Diagnosedaten erfolgen (S4). Die Handlungsempfehlung kann beispielsweise anhand einer digitalen Zuordnungsliste festgestellt werden (S5). Die Handlungsempfehlung kann optional eine Navigationsanweisung 45 zum Repositionieren der Kamera beschreiben. Diese kann dann Anweisung geben, dass der Benutzer 12 einen bestimmten Weg entlang laufen und von bestimmten Standorten aus die Schadstelle aus entsprechenden Winkeln zu fotografieren. Die Handlungsempfehlung wird dann über die drahtlose Datenkommunikationsverbindung 38 an das festgelegte Empfangsgerät 22 übertragen (S6).
  • Optional kann die Telematikeinrichtung 32 aus dem mobilen Endgerät 14 ein Feedback 46 empfangen, also zum Beispiel ein weiteres Kamerabild und/oder eine Einschätzung des Benutzers 12.
  • Optional kann von der Deep-Learning-Engine 40 ein Feedback des Benutzers 12 mittels des mobilen Endgeräts 14 empfangen werden, wobei das Feedback zum Beispiel Bilder umfassen kann oder zum Beispiel Informationen darüber, ob der Benutzer eine bestimmte Manipulation am Kraftfahrzeug gemacht hat, zum Beispiel an der Karosserieoberfläche gekratzt oder gewischt hat, optional auch, was er dabei gesehen hat. Vorzugsweise kann auch eine direkte Rückmeldung der Telematikeinrichtung 32 an die Deep-Learning-Engine 40 erfolgen.
  • Vorzugsweise kann die Telematikeinrichtung 32 im Verfahrensschritt S7 einen Trainingsdatensatz bereitstellen und diesen an die Deep-Learning-Engine 40 übertragen (S8). Der bereitgestellte Trainingsdatensatz kann vorzugsweise das Kamerabild sowie das Abändern der festgestellten Diagnosedaten; oder das zumindest eine Kamerabild und die Verbesserungsvorschrift beschreiben. Optional kann der Trainingsdatensatz zusätzlich die Handlungsempfehlung beschreiben. Dieser Trainingsdatensatz bündelt also das Wissen darüber, dass die erste Diagnose vielleicht weniger zutreffend war, und wie, beziehungsweise mit welcher Verbesserungsvorschrift, die Diagnosedaten derart geändert werden konnten, dass die Diagnose besser und die Handlungsempfehlung spezifischer ist. Die Deep-Learning-Engine 40 kann den Trainingsdatensatz dann als Dataset von Erfahrungswerten verwenden, um dazu zu lernen.
  • Insgesamt zeigen die Beispiele, wie durch die Erfindung eine Schadenserkennung bereitgestellt werden kann.
  • In einem weiteren Ausführungsbeispiel kann die weitere Person 24, zum Beispiel ein Mechaniker oder Gutachter, mit dem Benutzer 12 „over the air“ verbunden sein. Der Benutzer 12 dient als „verlängerter Arm“ für die weitere Person 24. Im Prozess geben die beiden Personen dem Machine Learning System, also der Deep-Learning-Engine 40 oder einer Kombination aus Telematikeinrichtung 32 und der Deep-Learning-Engine 40, Feedback, um die Algorithmen besser und schneller zu trainieren. Die weitere Person 24, alternativ die Telematikeinrichtung 32, lenkt den Benutzer 12 und gibt Anweisungen. Als Unterstützung kann eine weitere Person 24, zum Beispiel über ein Dashboard, alle notwendigen Informationen bekommen. Sowohl bekommt die weitere Person 24 Zugriff auf fahrzeugspezifische Daten und/oder allgemeingültige Analysedaten. So arbeiten die Machine Learning Algorithmen mit den Personen (die Zugang zu Live- und Analysedaten haben können) Hand in Hand und trainieren sich gegenseitig.

Claims (11)

  1. Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs (10), wobei eine Telematikeinrichtung (32) einer kraftfahrzeugexternen Benutzerschnittstelle (26): - über eine drahtlose Datenkommunikationsverbindung (38) aus einer Sensoreinrichtung (16) eines vorgegebenen mobilen Endgeräts (14) mindestens einen Schadbilddatensatz empfängt, der ein Schadbildelement des Kraftfahrzeugs (10) beschreibt (S1), - Diagnosedaten feststellt, die anhand des empfangenen Schadbilddatensatzes ein Schadbild des Schadbildelements beschreiben (S2), - eine die festgestellten Diagnosedaten berücksichtigende Verbesserungsvorschrift feststellt, die ein Abändern der Diagnosedaten beschreibt, wobei die festgestellte Verbesserungsvorschrift ein vorgegebenes Diagnoseverbesserungskriterium erfüllt (S3), - zum Feststellen der Diagnosedaten und/oder zu einem Feststellen der Verbesserungsvorschrift aus der Sensoreinrichtung (16) ein Abtastsignal empfängt, das eine haptisch und/oder taktil wahrnehmbaren Struktur des Schadbildelements beschreibt, - eine den abgeänderten Diagnosedaten zugeordnete Handlungsempfehlung feststellt, die eine Maßnahme zum Behandeln des Schadbildelements beschreibt, sowie ein Empfangsgerät (22) zum Empfangen der Handlungsempfehlung festlegt (S5), das ein unbemanntes Luftfahrzeug (18) ist, und wobei das unbemannte Luftfahrzeug (18) das mobile Endgerät (14) mit der Sensoreinrichtung (16) ist, welche eine Abtastvorrichtung (20) aufweist, und - ein Steuersignal erzeugt, das die zugeordnete Handlungsempfehlung beschreibt, und das erzeugte Steuersignal an das festgelegte Empfangsgerät (22) überträgt (S6).
  2. Verfahren nach Anspruch 1, wobei der empfangene Schadbilddatensatz beschreibt: a) ein Kamerabild aus einer Kamera des mobilen Endgeräts (14), wobei das Kamerabild ein Schadbild als Schadbildelement dokumentiert; und/oder b) eine Aufnahme eines Geräuschs des Kraftfahrzeugs (10) als Schadbildelement beschreibt.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Telematikeinrichtung (32): - die festgestellten Diagnosedaten und/oder die den festgestellten Diagnosedaten zugeordnete Handlungsempfehlung aus einer Deep-Learning-Engine (40) empfängt, - anhand der festgestellten Verbesserungsvorschrift einen Trainierdatensatz zum maschinellen Lernen bereitstellt, der das mindestens eine Kamerabild und die festgestellte Verbesserungsvorschrift beschreibt (S7), vorzugsweise zusätzlich die den abgeänderten Diagnosedaten zugeordnete Handlungsempfehlung, und -den bereitgestellten Trainierdatensatz an die Deep-Learning-Engine (40) überträgt (S8).
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Telematikeinrichtung (32): - die Diagnosedaten anhand des empfangenen Schadbilddatensatzes feststellt (S2), und/oder -die zugeordnete Handlungsempfehlung anhand der festgestellten Diagnosedaten ermittelt (S5).
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Telematikeinrichtung (32) zum Feststellen der Diagnosedaten kraftfahrzeugspezifische Fahrzeugdaten des Kraftfahrzeugs (10) des Benutzers (12) und/oder Trenddaten, die einen statistisch ermittelten Schadbildtrend für das Kraftfahrzeug (10) beschreiben, berücksichtigt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das festgelegte Empfangsgerät (22) das mobile Endgerät (14) ist, und wobei das erzeugte Steuersignal ein Positioniersignal ist, das ein Ausrichten eines Sensors der Sensoreinrichtung (16) in eine Soll-Position zu dem Schadbildelement beschreibt; und wobei die Telematikeinrichtung (32) aus der Sensoreinrichtung (16) des in die Soll-Position ausgerichteten, vorgegebenen mobilen Endgeräts (14) mindestens ein Kamerabild empfängt, insbesondere ein weiteres Kamerabild.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das unbemannte Luftfahrzeug (18) ein steuerbares Werkzeugelement aufweist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei -die zugeordnete Handlungsempfehlung eine Navigationsanweisung ist, und wobei das erzeugte Steuersignal Steuerdaten zum Steuern des unbemannten Luftfahrzeugs (18) beschreibt; und/oder -das unbemannte Luftfahrzeug (18) das mobile Endgerät (14) mit der Sensoreinrichtung (16) ist, und die zugeordnete Handlungsempfehlung ein Positioniersignal, das ein Ausrichten eines Sensors der Sensoreinrichtung in eine Soll-Position zu dem Schadbildelement beschreibt.
  9. Telematikeinrichtung (32), die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  10. Telematikeinrichtung (32) nach Anspruch 9, die eine Deep-Learning-Engine (40) aufweist und dazu eingerichtet ist, die Deep-Learning-Engine (40) dazu zu betreiben, den Verfahrensschritt des Verfahrens nach Anspruch 4 durchzuführen.
  11. Servervorrichtung (30) zum Betreiben im Internet, die eine Telematikeinrichtung (32) nach Anspruch 9 oder 10 aufweist.
DE102020103903.4A 2020-02-14 2020-02-14 Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, Telematikeinrichtung, und Servervorrichtung Active DE102020103903B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020103903.4A DE102020103903B4 (de) 2020-02-14 2020-02-14 Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, Telematikeinrichtung, und Servervorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020103903.4A DE102020103903B4 (de) 2020-02-14 2020-02-14 Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, Telematikeinrichtung, und Servervorrichtung

Publications (2)

Publication Number Publication Date
DE102020103903A1 DE102020103903A1 (de) 2021-08-19
DE102020103903B4 true DE102020103903B4 (de) 2024-06-13

Family

ID=77060555

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020103903.4A Active DE102020103903B4 (de) 2020-02-14 2020-02-14 Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, Telematikeinrichtung, und Servervorrichtung

Country Status (1)

Country Link
DE (1) DE102020103903B4 (de)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100063668A1 (en) 2008-09-05 2010-03-11 Gm Global Technology Operations, Inc. Telematics-enabled aggregated vehicle diagnosis and prognosis
DE102013211005A1 (de) 2013-06-13 2014-12-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln eines Zustands eines Fahrzeugs nach einer Benutzung des Fahrzeugs und entsprechendes System
DE102015223427A1 (de) 2015-11-26 2017-06-01 Robert Bosch Gmbh Vorrichtung und Verfahren zur Visualisierung und Dokumentation von Schäden
US20170270612A1 (en) 2016-03-17 2017-09-21 Conduent Business Services, Llc Image capture system for property damage assessment
DE102017002689A1 (de) 2017-03-21 2017-10-19 Daimler Ag Selbstlernende Erfassungs- und Bewertungseinheit
US20170352100A1 (en) 2016-06-03 2017-12-07 Conduent Business Services, Llc Image segmentation system for verification of property roof damage
DE102017200855A1 (de) 2017-01-19 2018-07-19 Audi Ag Verfahren und System zur Diagnose von Komponenten eines Fahrzeugs
US20190073641A1 (en) 2017-09-01 2019-03-07 Allstate Insurance Company Analyzing Images and Videos of Damaged Vehicles to Determine Damaged Vehicle Parts and Vehicle Asymmetries
DE102019100695A1 (de) 2018-01-12 2019-07-18 Ford Global Technologies, Llc Verfahren und Vorrichtung zur Fahrzeugunterstützung mit Fernunterstützung
WO2019157288A1 (en) 2018-02-09 2019-08-15 Nano Techgalaxy, Inc. D/B/A Galaxy.Ai Systems and methods for physical object analysis
US10497108B1 (en) 2016-12-23 2019-12-03 State Farm Mutual Automobile Insurance Company Systems and methods for machine-assisted vehicle inspection
US10510142B1 (en) 2017-01-13 2019-12-17 United Services Automobile Association (Usaa) Estimation using image analysis

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100063668A1 (en) 2008-09-05 2010-03-11 Gm Global Technology Operations, Inc. Telematics-enabled aggregated vehicle diagnosis and prognosis
DE102013211005A1 (de) 2013-06-13 2014-12-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln eines Zustands eines Fahrzeugs nach einer Benutzung des Fahrzeugs und entsprechendes System
DE102015223427A1 (de) 2015-11-26 2017-06-01 Robert Bosch Gmbh Vorrichtung und Verfahren zur Visualisierung und Dokumentation von Schäden
US20170270612A1 (en) 2016-03-17 2017-09-21 Conduent Business Services, Llc Image capture system for property damage assessment
US20170352100A1 (en) 2016-06-03 2017-12-07 Conduent Business Services, Llc Image segmentation system for verification of property roof damage
US10497108B1 (en) 2016-12-23 2019-12-03 State Farm Mutual Automobile Insurance Company Systems and methods for machine-assisted vehicle inspection
US10510142B1 (en) 2017-01-13 2019-12-17 United Services Automobile Association (Usaa) Estimation using image analysis
DE102017200855A1 (de) 2017-01-19 2018-07-19 Audi Ag Verfahren und System zur Diagnose von Komponenten eines Fahrzeugs
DE102017002689A1 (de) 2017-03-21 2017-10-19 Daimler Ag Selbstlernende Erfassungs- und Bewertungseinheit
US20190073641A1 (en) 2017-09-01 2019-03-07 Allstate Insurance Company Analyzing Images and Videos of Damaged Vehicles to Determine Damaged Vehicle Parts and Vehicle Asymmetries
DE102019100695A1 (de) 2018-01-12 2019-07-18 Ford Global Technologies, Llc Verfahren und Vorrichtung zur Fahrzeugunterstützung mit Fernunterstützung
WO2019157288A1 (en) 2018-02-09 2019-08-15 Nano Techgalaxy, Inc. D/B/A Galaxy.Ai Systems and methods for physical object analysis

Also Published As

Publication number Publication date
DE102020103903A1 (de) 2021-08-19

Similar Documents

Publication Publication Date Title
EP2676115B1 (de) System und verfahren zum identifizieren, diagnostizieren, warten und reparieren eines fahrzeugs
EP2721586B1 (de) Verfahren und system zum automatischen herstellen einer kommunikationsverbindung mit einem fahrzeug
DE10034606A1 (de) Verfahren zur Bereitstellung von fertigungsbezogenen Daten in einer Serienfertigung von Fertigungsobjekten, insbesondere von Kraftfahrzeugen
DE102016215541A1 (de) Testen eines autonom steuerbaren Kraftfahrzeugs
WO2012110262A1 (de) Mobile kommunikationsschnittstelle, system mit mobiler kommunikationsschnittstelle und verfahren zum identifizieren, diagnostizieren, warten und reparieren eines fahrzeugs
DE102011076378A1 (de) Diagnosevorrichtung für Kraftfahrzeuge und Diagnoseverfahren
EP3234873A1 (de) Identifikations- und prüfunterstützungs-vorrichtung und -verfahren
DE10215885A1 (de) Automatische Prozesskontrolle
WO2021084065A1 (de) System zur verwaltung einer fahrzeugflotte
WO2011120624A1 (de) Mobile wartungseinheit
DE102015011466A1 (de) Verfahren zur Abfahrtskontrolle eines Kraftfahrzeugs sowie System zur Abfahrtskontrolle eines Kraftfahrzeugs
DE102021104739B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs, System für ein Kraftfahrzeug und Kraftfahrzeug
WO2020074722A1 (de) Verfahren und robotersystem zur eingabe eines arbeitsbereichs
DE102019205915A1 (de) Verfahren zur Sicherheitsbeurteilung, Computerprogramm, maschinenlesbares Speichermedium und Sicherheitsbeurteilungseinrichtung
DE102009027267A1 (de) Verfahren und Vorrichtung zur vereinfachten Fehlerverarbeitung an einer Werkzeugmaschine
DE102020103903B4 (de) Verfahren zum Bereitstellen einer Handlungsempfehlung als Reaktion auf einen vermeintlichen Schaden eines Kraftfahrzeugs, Telematikeinrichtung, und Servervorrichtung
DE102014114204A1 (de) Verfahren und System zum Erfassen der zum Abschluss und zur Durchführung eines Wartungs- und/oder Reparaturvertrages erforderlichen Informationen
DE102020114456A1 (de) Maschinenlernvorrichtung, Robotersystem und Maschinenlernverfahren zum Lernen eines Zustands eines Kabels
DE102019208448A1 (de) Verfahren zur Überprüfung eines Geräts oder einer Maschine
EP3002717A1 (de) Verfahren und system zum erfassen der zum abschluss und zur durchführung eines wartungs- und/oder reparaturvertrages erforderlichen informationen
DE102015214987B4 (de) Bestimmung eines defekten Bauteils eines Fahrzeugs
DE102022117277A1 (de) Verfahren zum trainieren eines neuronalen netzes
DE102020103904A1 (de) Verfahren zum Überwachen eines Kraftfahrzeugsystems, Telematikeinrichtung, und Servervorrichtung
DE102019220607A1 (de) Verwendung von ultraschallbasierten Subsystemen zur 360° Umfelderfassung
DE102018214414A1 (de) Verfahren zum Testen eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division