DE102018100192A1 - Erzeugen von Trainingsdaten zur automatischen Leckerkennung bei Fahrzeugen - Google Patents

Erzeugen von Trainingsdaten zur automatischen Leckerkennung bei Fahrzeugen Download PDF

Info

Publication number
DE102018100192A1
DE102018100192A1 DE102018100192.4A DE102018100192A DE102018100192A1 DE 102018100192 A1 DE102018100192 A1 DE 102018100192A1 DE 102018100192 A DE102018100192 A DE 102018100192A DE 102018100192 A1 DE102018100192 A1 DE 102018100192A1
Authority
DE
Germany
Prior art keywords
image
training data
training
departure
fluid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018100192.4A
Other languages
English (en)
Inventor
Ashley Elizabeth Micks
Jinesh J. Jain
Harpreetsingh Banvait
Bruno Sielly Jales Costa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102018100192A1 publication Critical patent/DE102018100192A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/007Leak detector calibration, standard leaks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Processing (AREA)

Abstract

Eine Fahrzeugsteuerung empfängt bei Ankunft und Abfahrt Bilder von einer Kamera. Ein Standort des Fahrzeugs kann erfasst werden und die durch die Kamera aufgenommenen Bilder können mit einem Standort markiert werden. Mit einem Ankunftsbild kann ein Abfahrtsbild verglichen werden, das am nächsten zu dem Standort des Ankunftsbildes aufgenommen wurde. Ein Restbild auf Grundlage eines Unterschieds zwischen dem Ankunfts- und Abfahrtsbild wird auf Anomalien hin ausgewertet. Attribute der Anomalie, wie etwa Textur, Farbe und dergleichen, werden bestimmt und die Anomalie wird auf Grundlage der Attribute klassifiziert. Falls die Klassifizierung ein Automobilfluid anzeigt, wird ein Alarm erzeugt. Ein maschineller Lernalgorithmus zum Erzeugen von Klassifizierungen aus Bilddaten kann unter Verwendung von Ankunfts- und Abfahrtsbildern trainiert werden, die durch Rendern eines dreidimensionalen Modells oder durch Hinzufügen von simulierten Fluidflecken zu zweidimensionalen Bildern erlangt werden.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft die automatisierte Erkennung von Fahrzeugfehlfunktionen.
  • ALLGEMEINER STAND DER TECHNIK
  • Ein Fluidleck unter dem Auto kann oft eine gefährliche Situation anzeigen, die besonderer Aufmerksamkeit bedarf. Eine unverzügliche Erkennung des Problems kann den Fahrzeugbesitzer davor bewahren, mehrere Tausend Dollar für Werkstattdienste auszugeben. Zwar können Fahrzeugsensoren eine Fehlfunktion aufgrund eines Fluidlecks erkennen, jedoch kann bereits ein umfangreicher Schaden entstanden sein.
  • Die hier offenbarten Vorrichtungen und Verfahren stellen einen verbesserten Ansatz zum Erkennen eines Fluidlecks von einem Automobil bereit.
  • Figurenliste
  • Damit die Vorteile der Erfindung ohne Weiteres verstanden werden, erfolgt durch Bezugnahme auf konkrete Ausführungsformen, die in den beigefügten Zeichnungen veranschaulicht sind, eine genauere Beschreibung der vorstehend kurz beschriebenen Erfindung. Unter der Kenntnisnahme, dass diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Umfang beschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch die Verwendung der beigefügten Zeichnungen beschrieben und erläutert, in denen Folgendes gilt:
    • 1 ist ein schematisches Blockdiagramm, das ein Fahrzeug veranschaulicht, für das eine Leckerkennung gemäß einer Ausführungsform der vorliegenden Erfindung durchgeführt werden kann;
    • 2 ist ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung, die zum Umsetzen von Verfahren gemäß den Ausführungsformen der Erfindung geeignet ist;
    • 3 ist ein Prozessablaufdiagramm eines Verfahrens zum Identifizieren von Ankunfts- und Abfahrtsbildern gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 4 ist ein Prozessablaufdiagramm eines Verfahrens zum Erkennen von Lecks gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 5A bis 5C veranschaulichen eine Bildverarbeitung zur Leckerkennung gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 6 ist ein Prozessablaufdiagramm eines Verfahrens zum Erzeugen von Trainingsdaten zur automatischen Leckerkennung unter Verwendung eines dreidimensionalen Modells gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 7A und 7B sind Veranschaulichungen eines beispielhaften Szenarios, das gerendert werden kann, um Trainingsdaten gemäß einer Ausführungsform der vorliegenden Erfindung zu erzeugen;
    • 8 ist ein Prozessablaufdiagramm eines Verfahrens zum Erzeugen von Trainingsdaten aus dreidimensionalen Bildern gemäß einer Ausführungsform der vorliegenden Erfindung; und
    • 9 ist ein Prozessablaufdiagramm eines Verfahrens zum Trainieren eines maschinellen Lemmodells unter Verwendung der Trainingsdaten gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Unter Bezugnahme auf 1 kann ein Fahrzeug 100 eine Steuerung 102 und eines oder beide von einem GPS-Empfänger 104 und einer inertialen Messeinheit (inertial measurement unit - IMU) 106 beinhalten. Die Steuerung 102 kann Ausgaben von einem oder beiden von dem GPS-Empfänger 104 und der IMU 106 dazu verwenden, eine Position des Fahrzeugs 100 zu bestimmen. Zum Beispiel können GPS-Koordinaten von dem GPS-Empfänger 104 empfangen werden und kleinere Bewegungen des Fahrzeugs 100 relativ zu diesen Koordinaten von der IMU 106 bestimmt werden. Insbesondere kann es sich bei der IMU 106 um eine auf einem Beschleunigungsmesser basierende Vorrichtung handeln, die eine Beschleunigung erkennt und diese in eines oder beide von Geschwindigkeits- und Abstandsmessungen auflöst.
  • Das Fahrzeug 100 kann eine oder beide von einer nach vorn gerichteten Kamera 108 und einer nach hinten gerichteten Kamera 110 beinhalten. Die hier offenbarten Verfahren beinhaltet das Auswerten von Bildern eines Parkplatzes. Da die meisten Menschen vorwärts in einen Parkplatz fahren, kann eine nach vorn gerichtete Kamera 108 bevorzugt sein. Für Fälle, in denen ein Fahrer rückwärts in einen Parkplatz fährt, kann jedoch eine nach hinten gerichtete Kamera 110 hilfreich sein. Für die Zwecke der folgenden Offenbarung wird Vorwärtseinparken angenommen und nur die nach vorn gerichtete Kamera 108 verwendet. Die hier beschriebenen Verfahren können jedoch zum Rückwärtseinparken verwendet werden, wobei die Kamera 110 auf die gleiche Art und Weise verwendet wird.
  • 2 ist ein Blockdiagramm, das eine beispielhafte Rechenvorrichtung 200 veranschaulicht. Die Rechenvorrichtung 200 kann dazu verwendet werden, verschiedene Vorgänge auszuführen, wie etwa die hier erörterten. Die Steuerung 102 kann einige oder alle der Attribute der Rechenvorrichtung 200 aufweisen.
  • Die Rechenvorrichtung 200 beinhaltet einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Ein-/Ausgabe-(E/A-)Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, die alle an einen Bus 212 gekoppelt sind. Der/Die Prozessor(en) 202 beinhaltet/beinhalten einen oder mehrere Prozessoren oder Steuerungen, der/die in der/den Speichervorrichtung(en) 204 und/oder der/den Massenspeichervorrichtung(en) 208 gespeicherte Anweisungen ausführen. Der/Die Prozessor(en) 202 kann/können zudem verschiedene Arten von computerlesbaren Medien beinhalten, wie etwa Cache-Speicher.
  • Die Speichervorrichtung(en) 204 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie etwa flüchtigen Speicher (z. B. Direktzugriffsspeicher (random access memory - RAM) 214) und/oder nichtflüchtigen Speicher (z. B. Festwertspeicher (read-only memory - ROM) 216). Die Speichervorrichtung(en) 204 kann/können zudem wiederbeschreibbaren ROM beinhalten, wie etwa Flash-Speicher.
  • Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie etwa Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z. B. Flash-Speicher) und so weiter. Wie in 2 gezeigt, ist eine besondere Massenspeichervorrichtung ein Festplattenlaufwerk 224. Zudem können verschiedene Laufwerke in der/den Massenspeichervorrichtung(en) 208 beinhaltet sein, um ein Auslesen aus und/oder Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten entfernbare Medien 226 und/oder nichtentfernbare Medien.
  • Die E/A-Vorrichtung(en) 210 beinhaltet/beinhalten verschiedene Vorrichtungen, die es ermöglichen, dass Daten und/oder andere Informationen in die Rechenvorrichtung 200 eingegeben oder daraus abgerufen werden. Zu (einer) beispielhaften E/A-Vorrichtung(en) 210 gehören Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Netzschnittstellenkarten, Modems, Linsen, CCDs oder andere Bilderfassungsvorrichtungen und dergleichen.
  • Die Anzeigevorrichtung 230 beinhaltet eine beliebige Art von Vorrichtung, die dazu in der Lage ist, einem oder mehreren Benutzern der Rechenvorrichtung 200 Informationen anzuzeigen. Zu Beispielen für eine Anzeigevorrichtung 230 gehören ein Monitor, ein Anzeigeendgerät, eine Videoprojektionsvorrichtung und dergleichen.
  • Die Schnittstelle(n) 206 beinhaltet/beinhalten verschiedene Schnittstellen, die der Rechenvorrichtung 200 ermöglichen, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zu interagieren. Zu (einer) beispielhaften Schnittstelle(n) 206 gehören eine beliebige Anzahl von unterschiedlichen Netzschnittstellen 220, wie etwa Schnittstellen zu lokalen Netzen (local area networks - LANs), Großraumnetzen (wide area networks - WANs), drahtlosen Netzen und dem Internet. Zu (einer) andere(n) Schnittstelle(n) gehören eine Benutzerschnittstelle 218 und eine Peripherievorrichtungsschnittstelle 222. Zu der/den Schnittstelle(n) 206 können zudem eine oder mehrere Peripherieschnittstellen gehören, wie etwa Schnittstellen für Zeigevorrichtungen (Mäuse, Trackpad etc.), Tastaturen und dergleichen.
  • Der Bus 212 ermöglicht dem/den Prozessor(en) 202, der/den Speichervorrichtung(en) 204, der/den Schnittstelle(n) 206, der/den Massenspeichervorrichtung(en) 208, der/den E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung 230, miteinander sowie mit anderen Vorrichtungen oder Komponenten, die an den Bus 212 gekoppelt sind, zu kommunizieren. Der Bus 212 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so weiter.
  • Zum Zwecke der Veranschaulichung sind Programme und andere ausführbare Programmkomponenten hier als diskrete Blöcke gezeigt, auch wenn es sich versteht, dass sich derartige Programme und Komponenten zu verschiedenen Zeitpunkten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung 200 befinden können, und werden durch den/die Prozessor(en) 202 ausgeführt. Alternativ können die hier beschriebenen Systeme und Vorgänge in Hardware oder einer Kombination aus Hardware, Software und/oder Firmware umgesetzt sein. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (application specific integrated circuits - ASICs) können zum Beispiel so programmiert sein, dass sie eines bzw. einen oder mehrere der hier beschriebenen Systeme und Vorgänge ausführen.
  • 3 veranschaulicht ein Verfahren 300, das durch die Steuerung 102 ausgeführt werden kann. Um Lecks zu identifizieren, können insbesondere Bilder, die von der Kamera 108 bei Ankunft an einem Parkplatz empfangen werden, mit Bildern, die von der Kamera 108 bei Abfahrt von dem Parkplatz empfangen werden, verglichen werden, um Veränderungen zu identifizieren, die ein ausgelaufenes Fluid anzeigen können.
  • Zum Beispiel kann das Verfahren 300 Empfangen 302 von einem oder mehreren Kamerabildern 108 beinhalten. Die Kamera 108 kann zum Beispiel einen Strom von Bildern in Form einer Videoübertragung oder eine Reihe von Standbildern mit einer vorgegebenen Bildwechselrate ausgeben.
  • Das Verfahren 300 kann ferner Bestimmen 304 des Standorts des Fahrzeugs 100 beinhalten. Dies kann Empfangen von Ausgaben von einem oder beiden von dem GPS-Empfänger 104 und der IMU 106 beinhalten. Die Art und Weise, auf die der Standort des Fahrzeugs 100 aus diesen Ausgaben bestimmt wird, kann gemäß einem beliebigen auf dem Fachgebiet bekannten Verfahren zum Bestimmen eines Standorts sein. Zum Beispiel können GPS-Koordinaten zu einem Zeitpunkt empfangen werden. Bewegungen des Fahrzeugs relativ zu diesen Koordinaten können dann auf Grundlage der Ausgaben der IMU 106 bestimmt werden.
  • Die Bilder aus Schritt 302 können mit den Standorten aus Schritt 304 markiert werden und vorübergehend in einem Zwischenspeicher gespeichert werden. Alternativ kann eine Anordnung von Bildern gespeichert werden und eine Anordnung von Standorten, die jedem Bild entsprechen, kann in einer separaten Anordnung gespeichert werden.
  • Das Verfahren 300 kann Bestimmen 306 beinhalten, ob Parken erkannt wurde. Parken kann erkannt werden, indem die Beendigung einer Bewegung des Fahrzeugs 100 für eine Zeitspanne oberhalb eines Schwellenwerts (z. B. 1 Minute oder mehr), die Entfernung des Schlüssels aus dem Fahrzeug, das Aussteigen des Fahrers aus dem Fahrzeug oder die Ankunft an einem bekannten Parkplatz, wie etwa dem Zuhause, dem Arbeitsplatz, dem Geschäft oder einem anderen häufig besuchten Ort des Fahrers erkannt wird. Ein Fahrer kann die Steuerung 102 so programmieren, dass sie bestimmte Orte als Parkplätze wiedererkennt.
  • Als Reaktion auf das Erkennen 306 des Parkens kann das Verfahren 300 Speichern 308 eines oder mehrerer Ankunftsbilder und ihrer entsprechenden Standorte aus den Bildern und Standorten aus Schritt 302, 304 beinhalten. Zum Beispiel können Bilder und Standorte aus Schritt 302, 304 vorübergehend gespeichert werden, sodass nur die letzten M Bilder und Standorte aufbewahrt werden. Nach dem Erkennen 306 des Parkens können die Ankunftsbilder aus diesen vorübergehend gespeicherten Bildern und entsprechenden Standorten ausgewählt werden. Alternativ können die Schritte 302-304 durchgeführt werden, nachdem eine Ankunft innerhalb einer näheren Umgebung eines bekannten Parkplatzes oder eine Verlangsamung des Fahrzeugs unter eine Schwellengeschwindigkeit, die ein mögliches Parken anzeigt, erkannt wurde.
  • Ein Satz des einen oder der mehreren Bilder und ihrer entsprechenden Standorte kann zum Beispiel unmittelbar vor der Beendigung der Bewegung an dem Parkplatz empfangen werden. Die Ankunftsbilder können derart ausgewählt werden, dass sie Bilder der Fläche sind, die sich unter dem Fahrzeug 100 befinden wird, während es parkt. Wenn das Fahrzeug ein Länge L aufweist, können zum Beispiel die Ankunftsbilder als die Bilder ausgewählt werden, die entsprechende Standorte innerhalb der Längen L + B + A und L + B - A von dem Standort des Fahrzeugs 100, wenn dieses parkt, aufweisen. B kann ein Korrekturfaktor sein, der experimentell oder mathematisch bestimmt wird, indem der Abstand von dem Standort des Fahrzeugs, wenn es parkt, in dem die Kamera 108 den Parkplatz in ihrem Sichtfeld aufweist, gemessen oder bestimmt wird. Der Wert von A kann derart ausgewählt werden, dass es eine Toleranz oder einen Bereich von Abständen gibt, für die/den Bilder als Ankunftsbilder gespeichert 308 werden. Zum Beispiel kann ein Bildstabilisierungsprozess durchgeführt werden, sodass mehrere Ankunftsbilder benötigt werden. Alternativ kann es sich bei den Ankunftsbildern um eine feste Anzahl von N Bildern handeln, die auf L + B zentrierte Standorte aufweisen und die ein letztes Bild mit einem zu L + B am nächsten gelegenen Standort oder ein zu L + B am nächsten gelegenes erstes Bild relativ zu den Standorten anderer Bilder aus Schritt 302 und 304 aufweisen.
  • Das Verfahren 300 kann Bestimmen 310 der Abfahrt des Fahrzeugs beinhalten. Dies kann das Erkennen des Startens des Fahrzeugs und den Beginn einer Bewegung des Fahrzeugs beinhalten. Das Verfahren 300 kann dann Auswählen 312 eines Abfahrtsbildes beinhalten. Das Abfahrtsbild kann so ausgewählt werden, dass es einen entsprechenden Standort aufweist, der annähernd der gleiche wie der des Ankunftsbildes ist, z. B. innerhalb von 15 cm, bevorzugt innerhalb von 5 cm, weiter bevorzugt innerhalb von 1 cm. Wie vorstehend angemerkt, können Ankunftsbilder für einen Standort oder einen Bereich von Standorten ausgewählt werden. Dementsprechend kann/können ein oder mehrere Abfahrtsbilder aus seinem Strom von Bildern von der Kamera 108 ausgewählt 312 werden, die entsprechende Standorte aufweisen, die dem Standort oder dem Bereich von Standorten für die Ankunftsbilder im Vergleich zu den Standorten anderer Abfahrtsbilder am nächsten sind. Die Art und Weise, auf die die Bilder nach der Abfahrt aufgenommen und mit Standorten markiert werden, kann so sein, wie sie vorstehend in Bezug auf Schritt 302 und 304 beschrieben ist.
  • Unter Verwendung des einen oder der mehreren gespeicherten Ankunftsbilder aus Schritt 308 und der Abfahrtsbilder aus Schritt 312 kann das Verfahren 300 Durchführen 314 einer Leckerkennung beinhalten. Das Durchführen 314 der Leckerkennung kann Ausführen des Verfahrens 400 aus 4 beinhalten.
  • Das Verfahren 400 nimmt die Ankunftsbilder 402 und die Abfahrtsbilder 404 als Eingaben und führt eine Bildstabilisierung 406, 408 in Bezug auf jedes Bild durch. In einigen Ausführungsformen wird die Bildstabilisierung durch die Kamera 108 durchgeführt. In anderen Ausführungsformen wird eine Reihe von Ankunftsbildern 402 und Abfahrtsbildern 404 durch die Steuerung 102 verarbeitet, um die Bildstabilisierung durchzuführen 406, 408. Die Schritte 406, 408 können jede beliebige auf dem Fachgebiet bekannte Bildstabilisierungstechnik beinhalten.
  • Das Verfahren 400 berechnet 410 dann ein Restbild. Dies kann Subtrahieren des stabilisierten Ankunftsbildes von dem stabilisierten Abfahrtsbild beinhalten. Das Abfahrtsbild und das Ankunftsbild werden nicht aus genau der gleichen Position aufgenommen. Dementsprechend können das stabilisierte Ankunftsbild und das stabilisierte Abfahrtsbild vor der Subtraktion relativ zueinander verschoben werden, um diese Bewegung auszugleichen. Die Art und Weise, auf die die Ankunftsbilder und die Abfahrtsbilder relativ zueinander verschoben werden, kann Durchführen einer Bildkorrelation oder einer beliebigen anderen Bildanalysetechnik zum Bestimmen einer Bewegung zwischen einem Bilderpaar beinhalten.
  • Das Verfahren 400 kann dann Durchführen 412 einer Anomalieerkennung in Bezug auf das Restbild beinhalten, zum Beispiel unter Bezugnahme auf 5A bis 5C. Eine Darstellung eines stabilisierten Ankunftsbildes ist in 5A gezeigt und eine Darstellung eines stabilisierten Abfahrtsbildes ist in 5B gezeigt. Das Restbild auf Grundlage dieser Bilder ist in 5C gezeigt. Wie in 5C ersichtlich, ist ein Fluidfleck vorhanden, der ein Fluidleck anzeigen kann. Die Art und Weise, auf die das Restbild analysiert wird, um Unterschiede zu identifizieren, kann jede beliebige auf dem Fachgebiet bekannte rechnergestützte Bildverarbeitungstechnik beinhalten. In einigen Ausführungsformen kann das Restbild durch einen maschinellen Lernalgorithmus, der zum Identifizieren von Fluidlecks trainiert ist, verarbeitet werden.
  • Wenn festgestellt 414 wird, dass eine Anomalie vorhanden ist, kann das Verfahren 400 Durchführen 416 einer Texturanalyse und Versuchen einer Klassifizierung 418 der Anomalie beinhalten. Die Texturanalyse kann Identifizieren von Attributen wie etwa Farbe, Reflexionsvermögen und Dichte der Anomalie beinhalten. Die Attribute können dann dazu verwendet werden, die Anomalie zu klassifizieren 418. Zum Beispiel kann durch die Steuerung auf ein Archiv von Automobilfluiden zugegriffen werden, das die Werte oder Bereiche von möglichen Werten für diese Attribute auflistet. Wenn die Werte für die durch die Texturanalyse identifizierten Attribute mit denen eines Automobilfluids übereinstimmen, kann bestimmt werden, dass dieses Fluid die Anomalie darstellt.
  • In einigen Ausführungsformen kann der maschinelle Lernalgorithmus so trainiert werden, dass er Fluidlecks identifiziert, indem er Trainingssätze von Ankunfts- und Abfahrtsbildern empfängt, und ein Indikator, ob ein Fluidleck vorhanden ist, eine gewünschte Ausgabe darstellt. In derartigen Ausführungsformen kann Schritt 410 ausgelassen werden und die stabilisierten Ankunfts- und Abfahrtsbilder können in den maschinellen Lernalgorithmus eingegeben werden, der dann eine Klassifizierung einer beliebigen erkannten Anomalie als ein bestimmtes Automobilfluid oder nicht ausgibt. In derartigen Ausführungsformen können die Schritte 414-418 durch den maschinellen Lernalgorithmus anstatt als separate Schritte durchgeführt werden.
  • Wenn bei der Klassifizierung 420 festgestellt wird, dass es sich um ein Automobilfluid handelt, kann ein Alarm erzeugt 422 werden. Der Alarm kann Beleuchten einer Motorwarnleuchte, Anzeigen einer Textnachricht auf einem Bildschirm eines fahrzeuginternen Infotainmentsystems, Übertragen einer Nachricht an ein Mobiltelefon eines Fahrers oder eine andere Art von Alarm beinhalten. Der Alarm kann die Klassifizierung der Art des Fluids aus Schritt 418 beinhalten. Der Alarm kann eine Menge des Fluids anzeigen, die etwa anhand einer Fläche der bei Schritt 414 erkannten Anomalie bestimmt wird. Unter Verwendung der Fläche der Anomalie und einer Viskosität des erkannten Fluids kann das Volumen des ausgelaufenen Fluids bestimmt werden. Unter Verwendung der verstrichenen Zeit zwischen Ankunft und Abfahrt und des Volumens kann eine Leckrate bestimmt werden. Aus der Leckrate kann unter Verwendung eines bekannten Volumens des Fluids in dem Fahrzeug, wie etwa des Volumens eines Behälters, der das Fluid enthält, oder der Empfehlung des Herstellers für das Volumen des Fluids eine Zeit, bis das Fluid verschwunden sein oder einen kritischen Pegel erreicht haben wird, bestimmt werden. Die Zeit, bis der Pegel des Fluids kritisch ist, kann in dem Alarm beinhaltet sein.
  • Unter Bezugnahme auf 6 kann das veranschaulichte Verfahren 600 dazu verwendet werden, ein maschinelles Lernmodell zu trainieren, das dazu in der Lage ist, Fluidlecks aus Ankunfts- und Abfahrtsbildern zu identifizieren. Das Verfahren 600 kann durch ein Computersystem ausgeführt werden, wie ein Computersystem, das einige oder alle der Attribute des Computersystems 200 aus 2 aufweist.
  • Das Verfahren 600 kann Definieren 602 eines Szenarios beinhalten, bei dem es sich um ein dreidimensionales Modell eines Parkszenarios handelt, das eine Parkfläche, eine Position und möglicherweise eine Geschwindigkeit des parkenden Fahrzeugs beinhaltet, und wobei ein Blickwinkel auf das Modell einem Standort einer an dem parkenden Auto montierten Kamera entspricht.
  • 7A veranschaulicht ein beispielhaftes Szenario. In diesem Beispiel ist ein Fahrzeugmodell 700 wie gezeigt in dem Modell positioniert. Das Fahrzeugmodell 700 kann Teil des Modells sein oder ausgelassen werden. Insbesondere definiert das Fahrzeug 700 einen Standort einer oder mehrerer Kameras 702a-702b und möglicherweise einer oder mehrerer Lichtquellen 704, z. B. Scheinwerfer oder Rückleuchten. Dementsprechend können die Standorte der Kameras 702a-702b und möglicherweise der Lichtquellen 704 gemäß ihrer Position an einem Fahrzeugmodell 700 definiert werden, aber der Rest des Fahrzeugmodells 700 wird als für die Wahrnehmung eines Parkplatzes irrelevant ignoriert.
  • Das Modell kann zusätzlich zu den Scheinwerfern 704 eine oder mehrere simulierte Lichtquellen beinhalten, wie etwa Sonnenlicht, Mondlicht, Straßenbeleuchtung 706 oder Leuchten 708, die an einer Struktur 710 montiert sind, die einen Parkplatz 712 enthält oder an diesen angrenzt.
  • Das Modell kann ferner ein oder mehrere Objekte 714, 716 beinhalten, wie etwa Gebüsch, Bäume, andere Fahrzeuge, Gebäude etc. Schatten 718 von derartigen Objekte auf den Parkplatz 712 können simuliert werden.
  • Das Modell ist in zwei Auslegungen definiert, einer ersten Auslegung mit einem simulierten Fluidfleck 720 auf dem Parkplatz 712 und einer zweiten Auslegung ohne den Fluidfleck 720. Der simulierte Fluidfleck 720 kann ein Modell beinhalten, das Eigenschaften wie etwa Farbe, Reflexionsvermögen, Textur, Viskosität oder andere Eigenschaften eines Fluids definiert. Simulierte Fluidflecken 720 können für verschiedene Fluide erzeugt werden, d. h. jeder simulierte Fluidfleck 700 kann Eigenschaften eines bestimmten Fluids beinhalten, z. B. Motoröl, Getriebefluid, Kühlmittel für den Kühler, Servolenkfluid etc. In einigen Ausführungsformen können die Fluidflecken 720 Modelle von Nicht-Fahrzeugfluiden beinhalten (Wasser, alkoholfreie Getränke etc.), um zu ermöglichen, dass ein maschinelles Lernmodell dahingehend trainiert wird, zwischen Fahrzeug- und Nicht-Fahrzeugfluiden zu unterscheiden.
  • Unter erneuter Bezugnahme auf 6 kann das Verfahren 600 Rendern 604 eines Bildes des Szenarios aus dem Blickwinkel der Kamera 702a (oder der Kamera 702b, wenn Rückwärtseinfahrt angenommen wird) beinhalten, um ein simuliertes Ankunftsbild zu erzeugen.
  • Das Verfahren 600 kann Hinzufügen 606 des simulierten Fluidflecks 720 zu dem Szenario und Rendern 608 des modifizierten Szenarios aus dem Blickwinkel der Kamera 702a beinhalten, um das Abfahrtsbild zu erlangen. 7B veranschaulicht ein beispielhaftes Rendering des Abfahrtsbildes für das Szenario aus 7A. Das Rendering des Ankunftsbildes würde auf ähnliche Art und Weise erzeugt werden, aber kein Rendering des Fluidflecks 720 aufweisen.
  • In einigen Ausführungsformen kann das zum Rendern aus Schritt 608 verwendete modifizierte Szenario eine oder mehrere Modifikationen zusätzlich zu dem Fluidfleck 720 beinhalten. Zum Beispiel kann die Beleuchtung verändert werden, um eine Veränderung der Beleuchtung zwischen dem Parken am Morgen und der Abfahrt am Abend oder umgekehrt zu simulieren. Gleichermaßen können Schmutz hinzugefügt, Fahrzeuge neben dem Parkplatz 712 hinzugefügt oder entfernt werden oder andere Änderungen an dem Szenario vorgenommen werden, um mögliche Veränderungen zu simulieren, die zwischen Ankunft und Abfahrt auftreten können.
  • Die Art und Weise, auf die das Szenario bei Schritt 604 und 608 gerendert wird, kann eine beliebige auf dem Fachgebiet der Computeranimation und computererzeugten Bilder bekannte computergestützte Renderingtechnik beinhalten. Gleichermaßen kann das Szenario unter Verwendung einer beliebigen auf dem Fachgebiet bekannten Computeranimationstechnik modelliert werden. Wie auf dem Fachgebiet bekannt, sind fotorealistische Renderings von Computermodellen möglich. Dementsprechend können die Auflösung der Renderings 604, 608 und die Detailliertheit des Szenarios derart sein, dass die simulierten Ankunfts- und Abfahrtsbilder fotorealistisch sind, wodurch ein genaues Training eines maschinellen Lemmodells ermöglicht wird.
  • Das Verfahren 600 kann ferner Speichern 610 des Ankunftsbildes aus Schritt 604, des Abfahrtsbildes aus Schritt 608 und einer Klassifizierung des Fluidflecks aus Schritt 606 in einer Datenbank beinhalten. Insbesondere kann die Klassifizierung einfach anzeigen, ob ein Fluidfleck in dem Abfahrtsbild vorhanden ist oder nicht. In einigen Ausführungsformen wird Schritt 606 bei einigen Iterationen des Verfahrens 600 ausgelassen, um das maschinelle Lernmodell dahingehend zu trainieren, zwischen Fällen, in denen ein Fluidfleck vorhanden ist, und solchen, in denen keiner vorhanden ist, zu unterscheiden.
  • In einigen Ausführungsformen kann die Klassifizierung anzeigen, ob ein Fluidfleck 720 ein Fahrzeugfluid oder ein Nicht-Fahrzeugfluid ist. In einigen Ausführungsformen kann die Klassifizierung anzeigen, welche Art des Fahrzeugfluids durch den Fluidfleck 720 modelliert wird.
  • Das Verfahren 600 kann ferner Modifizieren 612 des Szenarios und Wiederholen der Schritte 602-610 beinhalten. Das Modifizieren des Szenarios kann Modifizieren beliebiger der Merkmale 706-718 des Szenarios beinhalten. Zum Beispiel kann die Textur des Parkplatzes 712 modifiziert werden (Beton, Asphalt, Kies etc.), um das Training eines maschinellen Lemmodells dahingehend zu ermöglichen, dass es Fluidflecken 720 auf verschiedenen Oberflächen wiedererkennt. Gleichermaßen kann die Beleuchtung modifiziert werden, um das Training des maschinellen Lernmodells dahingehend zu ermöglichen, dass es Fluidflecken 720 für verschiedene Beleuchtungsbedingungen wiedererkennt. Die Modifikation 612 kann ferner Hinzufügen, Entfernen oder Modifizieren von umgebenden Strukturen des Szenarios beinhalten, wie etwa Modellen von benachbarten Fahrzeugen.
  • Das Verfahren 600 kann mehrmals durchgeführt werden, z. B. Hunderte oder sogar Tausende Male, um eine Datenbank von Ankunfts- und Abfahrtsbildern mit ihren entsprechenden Klassifizierungen zum Training eines maschinellen Lernmodells aufzubauen.
  • Unter Bezugnahme auf Fig. 8 können in einigen Ausführungsformen Ankunfts- und Abfahrtsbilder zu Trainingszwecken aus zweidimensionalen Bildern erzeugt werden, anstatt dass ein dreidimensionales Szenario definiert wird. Das Verfahren 800 kann ausgeführt werden, um Trainingsdaten zu erzeugen, und kann durch ein Computersystem durchgeführt werden, das einige oder alle der Attribute des Computersystems 200 aus 2 aufweist.
  • Das Verfahren 800 kann Abrufen 802 eines Ankunftsbildes beinhalten. Das Ankunftsbild kann ein Rendering eines simulierten Szenarios sein, wie vorstehend in Bezug auf 6 beschrieben. Das Ankunftsbild kann ein tatsächliches Ankunftsbild sein, das durch die Kamera eines Fahrzeugs bei Ankunft nahe einem Parkplatz aufgenommen wird. Zum Beispiel kann das Ankunftsbild ein gemäß dem Verfahren 300 aus 3 identifiziertes und gespeichertes Ankunftsbild sein.
  • Das Verfahren 800 kann ferner Überlagern 804 eines Renderings eines Fluidflecks auf ein Bild, das dem Ankunftsbild aus Schritt 802 entspricht, beinhalten. Dies kann Rendern des Fluidflecks auf einen Parkplatz beinhalten, der in dem Ankunftsbild aus Schritt 802 sichtbar ist. Alternativ kann das Abfahrtsbild, das dem Ankunftsbild entspricht, bei Schritt 804 so modifiziert werden, dass es ein Rendering eines Fluidflecks beinhaltet. Zum Beispiel kann das Abfahrtsbild aus Schritt 804 als Teil der gleichen Iteration des Verfahrens 300, die das Ankunftsbild aus Schritt 802 erzeugte, identifiziert und gespeichert werden.
  • Das Verfahren 800 kann dann Speichern 806 des Ankunftsbildes, Abfahrtsbildes und einer Klassifizierung in einer Datenbank beinhalten. Wie zuvor kann die Klassifizierung anzeigen, ob ein Fahrzeugfluidfleck in dem Abfahrtsbild vorhanden ist oder nicht. Wie bei dem Verfahren 600 kann der Schritt 804 bei einigen Iterationen des Verfahrens 800 ausgelassen werden. Die Klassifizierung kann anzeigen, ob der bei Schritt 804 überlagerte Fluidfleck ein Fahrzeugfluid ist, und kann ferner eine Art von Fahrzeugfluid anzeigen. Dementsprechend kann Überlagern 804 des Renderings eines Fluidflecks bei Schritt 804 Eigenschaften des Fahrzeug- oder Nicht-Fahrzeugfluids simulieren, und die Klassifizierung kann anzeigen, welches Fluid simuliert wurde. Die simulierten Eigenschaften können Farbe, Reflexionsvermögen, Textur oder eine beliebige andere sichtbare Eigenschaft eines Fluids beinhalten.
  • Das Verfahren 800 kann Verändern 808 des Szenarios beinhalten, wie etwa durch Auswählen eines anderen Fluids zum Rendern bei Schritt 804 oder durch Auswählen eines anderen Ankunfts- und/oder Abfahrtsbildes. Das Verfahren 800 kann mehrmals durchgeführt werden, z. B. Hunderte oder sogar Tausende Male, um eine Datenbank von Ankunfts- und Abfahrtsbildern mit ihren entsprechenden Klassifizierungen zum Training eines maschinellen Lemmodells aufzubauen.
  • Unter Bezugnahme auf 9 kann ein maschinelles Lernmodell unter Verwendung von Sätzen von Trainingsdaten trainiert werden, wobei jeder Satz ein Ankunftsbild, ein Abfahrtsbild und eine Klassifizierung (z. B. Fluidfleck ist vorhanden/nicht vorhanden, Fahrzeug-/Nicht-Fahrzeugfluid, Fahrzeugfluidart) beinhaltet. Die Trainingsdatensätze können gemäß einigen oder allen von dem Verfahren 600 aus 6, dem Verfahren 800 aus 8 oder durch Aufnehmen tatsächlicher Ankunfts- und Abfahrtsbilder eines Parkplatzes unter Verwendung einer Kamera eines Fahrzeugs und Bereitstellen einer Klassifizierung des Abfahrtsbildes, die durch einen Menschen etwa auf Grundlage von absichtlichem oder bekanntem Verschütten von Fahrzeugfluid vor der Aufnahme des Abfahrtsbildes oder einem bekannten Mangel an Verschütten von Fahrzeugfluid vor der Aufnahme des Abfahrtsbildes vorgegeben wird, erlangt 902 werden. In diesem Fall können die Ankunfts- und Abfahrtsbilder gemäß dem Verfahren 300 aus 3 identifiziert werden.
  • Das Verfahren 900 kann Eingeben 904 der Trainingsdatensätze in einen maschinellen Lernalgorithmus beinhalten, wie etwa ein tiefes neuronales Netz, wobei jedoch andere Arten von maschinellen Lernalgorithmen verwendet werden können, wie etwa ein Entscheidungsbaum, ein Cluster, ein Bayessches Netz, ein genetischer oder eine andere Art von maschinellem Lernalgorithmus. Die Eingaben in den maschinellen Lernalgorithmus sind die Ankunfts- und Abfahrtsbilder, und die gewünschte Ausgabe für jeden Trainingsdatensatz ist die Klassifizierung.
  • Das Verfahren 900 kann ferner Empfangen 906 eines Modells, das durch den maschinellen Lernalgorithmus aus Schritt 904 trainiert wurde, und Laden 908 des Modells in eine Steuerung eines Fahrzeugs beinhalten. Das Fahrzeug kann das Modell dann zum Klassifizieren von Abfahrts- und Ankunftsbildern verwenden, wie vorstehend in Bezug auf 3 und 4 beschrieben.
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen zur Veranschaulichung konkrete Umsetzungen gezeigt sind, in denen die Offenbarung ausgeführt sein kann. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ etc. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, doch es muss nicht notwendigerweise jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, es im Bereich des Fachwissens des Fachmanns liegt, ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der hier offenbarten Systeme, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie etwa zum Beispiel einen oder mehrere Prozessoren und einen oder mehrere Systemspeicher, wie hier erörtert. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der Offenbarung beispielsweise und nicht einschränkend mindestens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs“) (z. B auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der hier offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere (entweder festverdrahtete, drahtlose oder eine Kombination aus festverdrahteter oder drahtloser) Kommunikationsverbindung einem Computer bereitgestellt oder auf diesen übertragen werden, sieht der Computer die Verbindung korrekt als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die dazu verwendet werden können, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden sollten ebenfalls im Umfang computerlesbarer Medien enthalten sein.
  • Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung an einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen auszuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Patentansprüche offenbart.
  • Der Fachmann kann nachvollziehen, dass die Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, einschließlich eines Armaturenbrett-Fahrzeugcomputers, PCs, Desktop-Computern, Laptops, Nachrichtenprozessoren, Handvorrichtungen, Multiprozessorsystemen, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedenen Speichervorrichtungen und dergleichen. Die Offenbarung kann zudem in Umgebungen mit verteilten Systemen angewendet werden, in denen sowohl lokale Computersysteme als auch entfernte Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
  • Ferner können die hier beschriebenen Funktionen gegebenenfalls in einem oder mehreren von Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel so programmiert sein, dass sie eines bzw. einen oder mehrere der hier beschriebenen Systeme und Vorgänge ausführen. Bestimmte Ausdrücke werden in der gesamten Beschreibung und den Patentansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Der Fachmann wird zu schätzen wissen, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um mindestens einen Teil ihrer Funktionen auszuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hier zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem einschlägigen Fachmann bekannt ist.
  • Mindestens einige Ausführungsformen der Offenbarung wurden Computerprogrammprodukten zugeführt, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hier beschrieben zu arbeiten.
  • Während vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Für den einschlägigen Fachmann wird ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung durch keines der vorstehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich in Übereinstimmung mit den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die vorstehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die Offenbarung nicht auf die konkrete offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist anzumerken, dass beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridumsetzungen der Offenbarung zu bilden.
  • Die vorliegende Erfindung kann in anderen konkreten Formen ausgeführt sein, ohne von ihrem Geist oder ihren wesentlichen Eigenschaften abzuweichen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als veranschaulichend und nicht einschränkend zu betrachten. Der Geltungsbereich der Erfindung wird daher vielmehr von den beigefügten Patentansprüchen als von der vorangegangenen Beschreibung angegeben. Alle Änderungen, die in die Bedeutung und den Bereich der Äquivalenz der Patentansprüche fallen, sind als in deren Geltungsbereich eingeschlossen zu verstehen.

Claims (15)

  1. Verfahren, das Folgendes durch ein Computersystem umfasst: Erzeugen einer Vielzahl von Trainingsdatensätzen, die jeweils ein Ankunftsbild, das eine Parkposition in seinem Sichtfeld aufweist, ein Abfahrtsbild, das dem Ankunftsbild entspricht, und eine Klassifizierung des Abfahrtsbildes beinhalten, wobei ein Teil der Trainingsdatensätze Abfahrtsbilder beinhaltet, die simulierte Fluidflecken aufweisen; und Trainieren eines maschinellen Lemmodells gemäß den Trainingsdatensätzen zum Identifizieren von Fluidlecks; wobei Erzeugen der Vielzahl von Trainingsdatensätzen Folgendes für jeden Trainingsdatensatz umfasst: Definieren eines dreidimensionalen Modells eines Parkszenarios für den jeden Trainingsdatensatz; und Rendern des Ankunftsbildes des jeden Trainingsdatensatzes aus dem dreidimensionalen Modell aus einem Blickwinkel einer Kamera, die an einem Fahrzeug in dem Parkszenario montiert ist.
  2. Verfahren nach Anspruch 1, wobei Erzeugen der Trainingsdatensätze Folgendes für jeden Trainingsdatensatz des Teils der Trainingsdatensätze umfasst: Hinzufügen eines Fluidfleckmodells zu dem dreidimensionalen Modell des Parkszenarios für den jeden Trainingsdatensatz, um ein modifiziertes Modell zu erlangen; und Rendern des Abfahrtsbildes des jeden Trainingsdatensatzes aus dem modifizierten Modell aus dem Blickwinkel der Kamera, die an dem Fahrzeug in dem Parkszenario montiert ist, für die jeden Trainingsdaten.
  3. Verfahren nach Anspruch 2, wobei das Fluidfleckmodell eine Farbe und ein Reflexionsvermögen definiert; und wobei Rendern des Abfahrtsbildes des jeden Trainingsdatensatzes aus dem modifizierten Modell Rendern des Fluidfleckmodells in dem Abfahrtsbild gemäß der Farbe und dem Reflexionsvermögen umfasst.
  4. Verfahren nach Anspruch 3, wobei das Fluidfleckmodell eine Textur definiert; wobei Rendern des Abfahrtsbildes des jeden Trainingsdatensatzes aus dem modifizierten Modell Rendern des Fluidfleckmodells in dem Abfahrtsbild gemäß der Farbe, dem Reflexionsvermögen und der Textur umfasst.
  5. Verfahren nach Anspruch 1, wobei Erzeugen der Vielzahl von Trainingsdatensätzen ferner Folgendes für jeden Trainingsdatensatz des Teils der Trainingsdatensätze umfasst: Verwenden eines Originalbildes von einer Kamera eines Fahrzeugs, das die Parkposition in seinem Sichtfeld aufweist, als das Ankunftsbild des jeden Trainingsdatensatzes, wobei die Kamera eine nach vorn gerichtete Kamera ist, die an dem Fahrzeug montiert ist; und Hinzufügen des simulierten Fluidflecks zu einem von dem Originalbild und einem anderen Bild von der Kamera des Fahrzeugs, das die Parkposition in seinem Sichtfeld aufweist, um das Abfahrtsbild des jeden Trainingsdatensatzes zu erlangen.
  6. Verfahren nach Anspruch 1, wobei Trainieren des maschinellen Lemmodells gemäß den Trainingsdatensätzen zum Identifizieren von Fluidlecks Trainieren eines tiefen neuronalen Netzes (deep neural network - DNN) gemäß den Trainingsdatensätzen umfasst.
  7. Verfahren nach Anspruch 1, wobei die Klassifizierung des Abfahrtsbildes jedes Trainingsdatensatzes der Vielzahl von Trainingsdatensätzen mindestens eines davon angibt, ob ein Fluidleck in dem Abfahrtsbild vorhanden ist, und von einer Art von Fluidleck, die in dem Abfahrtsbild vorhanden ist.
  8. Verfahren nach Anspruch 1, ferner umfassend Laden des maschinellen Lernmodells in einen Speicher, der an die Steuerung eines Fahrzeugs gekoppelt ist, das eine Kamera aufweist, die an diesem montiert und an die Steuerung wirkgekoppelt ist.
  9. System, das eine oder mehrere Verarbeitungsvorrichtungen und eine oder mehrere Speichervorrichtungen, die an die eine oder mehreren Verarbeitungsvorrichtungen gekoppelt sind, umfasst, wobei die eine oder mehreren Speichervorrichtungen ausführbaren Code speichern, der dazu wirksam ist, den einen oder die mehreren Prozessoren zu Folgendem zu veranlassen: Erzeugen einer Vielzahl von Trainingsdatensätzen, die jeweils ein Ankunftsbild, das eine Parkposition in seinem Sichtfeld aufweist, ein Abfahrtsbild, das dem Ankunftsbild entspricht, und eine Klassifizierung des Abfahrtsbildes beinhalten, wobei ein Teil der Trainingsdatensätze Abfahrtsbilder beinhaltet, die simulierte Fluidflecken aufweisen; und Trainieren eines maschinellen Lemmodells gemäß den Trainingsdatensätzen zum Identifizieren von Fluidlecks; wobei der ausführbare Code ferner dazu wirksam ist, die eine oder mehreren Verarbeitungsvorrichtungen dazu zu veranlassen, die Vielzahl von Trainingsdatensätzen durch Folgendes für jeden Trainingsdatensatz zu erzeugen: Definieren eines dreidimensionalen Modells eines Parkszenarios für den jeden Trainingsdatensatz; und Rendern des Ankunftsbildes des jeden Trainingsdatensatzes aus dem dreidimensionalen Modell aus einem Blickwinkel einer Kamera, die an einem Fahrzeug in dem Parkszenario montiert ist.
  10. System nach Anspruch 9, wobei der ausführbare Code ferner dazu wirksam ist, die eine oder mehreren Verarbeitungsvorrichtungen dazu zu veranlassen, die Vielzahl von Trainingsdatensätzen durch Folgendes für jeden Trainingsdatensatz des Teils der Trainingsdatensätze zu erzeugen: Hinzufügen eines Fluidfleckmodells zu dem dreidimensionalen Modell des Parkszenarios für den jeden Trainingsdatensatz, um ein modifiziertes Modell zu erlangen; und Rendern des Abfahrtsbildes des jeden Trainingsdatensatzes aus dem modifizierten Modell aus dem Blickwinkel der Kamera, die an dem Fahrzeug in dem Parkszenario montiert ist, für die jeden Trainingsdaten.
  11. System nach Anspruch 10, wobei das Fluidfleckmodell eine Farbe und ein Reflexionsvermögen definiert; und wobei der ausführbare Code ferner dazu wirksam ist, die eine oder mehreren Verarbeitungsvorrichtungen dazu zu veranlassen, das Abfahrtsbild des jeden Trainingsdatensatzes aus dem modifizierten Modell durch Rendern des Fluidfleckmodells in dem Abfahrtsbild gemäß der Farbe und dem Reflexionsvermögen zu rendern.
  12. System nach Anspruch 11, wobei das Fluidfleckmodell eine Textur definiert; wobei der ausführbare Code ferner dazu wirksam ist, die eine oder mehreren Verarbeitungsvorrichtungen dazu zu veranlassen, das Abfahrtsbild des jeden Trainingsdatensatzes aus dem modifizierten Modell durch Rendern des Fluidfleckmodells in dem Abfahrtsbild gemäß der Farbe, dem Reflexionsvermögen und der Textur zu rendern.
  13. System nach Anspruch 9, wobei der ausführbare Code ferner dazu wirksam ist, die eine oder mehreren Verarbeitungsvorrichtungen dazu zu veranlassen, die Vielzahl von Trainingsdatensätzen durch Folgendes für jeden Trainingsdatensatz des Teils der Trainingsdatensätze zu erzeugen: Verwenden eines Originalbildes von einer Kamera eines Fahrzeugs, das die Parkposition in seinem Sichtfeld aufweist, als das Ankunftsbild des jeden Trainingsdatensatzes, wobei die Kamera eine nach vorn gerichtete Kamera ist, die an dem Fahrzeug montiert ist; und Hinzufügen des simulierten Fluidflecks zu einem von dem Originalbild und einem anderen Bild von der Kamera des Fahrzeugs, das die Parkposition in seinem Sichtfeld aufweist, um das Abfahrtsbild des jeden Trainingsdatensatzes zu erlangen.
  14. System nach Anspruch 9, wobei der ausführbare Code ferner dazu wirksam ist, die eine oder mehreren Verarbeitungsvorrichtungen dazu zu veranlassen, das maschinelle Lernmodell gemäß den Trainingsdatensätzen zum Identifizieren von Fluidlecks durch Trainieren eines tiefen neuronalen Netzes (DNN) gemäß den Trainingsdatensätzen zu trainieren.
  15. System nach Anspruch 9, wobei die Klassifizierung des Abfahrtsbildes jedes Trainingsdatensatzes der Vielzahl von Trainingsdatensätzen mindestens eines davon angibt, ob ein Fluidleck in dem Abfahrtsbild vorhanden ist, und von einer Art von Fluidleck, die in dem Abfahrtsbild vorhanden ist; und wobei der ausführbare Code ferner dazu wirksam ist, die eine oder mehreren Verarbeitungsvorrichtungen dazu zu veranlassen, das maschinelle Lernmodell in einen Speicher zu laden, der an die Steuerung eines Fahrzeugs gekoppelt ist, das eine Kamera aufweist, die an diesem montiert und an die Steuerung wirkgekoppelt ist.
DE102018100192.4A 2017-01-11 2018-01-05 Erzeugen von Trainingsdaten zur automatischen Leckerkennung bei Fahrzeugen Withdrawn DE102018100192A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/404,031 2017-01-11
US15/404,031 US10296816B2 (en) 2017-01-11 2017-01-11 Generating training data for automatic vehicle leak detection

Publications (1)

Publication Number Publication Date
DE102018100192A1 true DE102018100192A1 (de) 2018-07-12

Family

ID=61190382

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018100192.4A Withdrawn DE102018100192A1 (de) 2017-01-11 2018-01-05 Erzeugen von Trainingsdaten zur automatischen Leckerkennung bei Fahrzeugen

Country Status (6)

Country Link
US (1) US10296816B2 (de)
CN (1) CN108304861B (de)
DE (1) DE102018100192A1 (de)
GB (1) GB2560234B (de)
MX (1) MX2018000340A (de)
RU (1) RU2017140787A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021103367A1 (de) 2021-02-12 2022-08-18 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Erzeugung realistischer bildbasierter Daten zum Entwickeln und Testen von Fahrerassistenzsystemen

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435215B (zh) * 2017-04-11 2024-02-13 创新先进技术有限公司 一种基于图像的车辆定损方法、移动终端、服务器
US10900857B2 (en) * 2018-06-06 2021-01-26 Ford Global Technologies, Llc Methods and systems for fluid leak determination
US20190392656A1 (en) * 2018-06-22 2019-12-26 GM Global Technology Operations LLC Method and apparatus for leak detection
GB2576358B (en) * 2018-08-16 2022-12-28 Centrica Plc Sensing fluid flow for estimating fluid flow state
US12063423B1 (en) * 2018-09-24 2024-08-13 Nova Modum Inc Enhanced interactive web features for displaying and editing digital content
US10713542B2 (en) * 2018-10-24 2020-07-14 The Climate Corporation Detection of plant diseases with multi-stage, multi-scale deep learning
CN113039563B (zh) * 2018-11-16 2024-03-12 辉达公司 学习生成用于训练神经网络的合成数据集
GB2582904B (en) * 2019-03-26 2021-04-14 Atsr Ltd Method and apparatus for controlling access to a vehicle
US11424037B2 (en) * 2019-11-22 2022-08-23 International Business Machines Corporation Disease simulation in medical images
JPWO2021251062A1 (de) * 2020-06-10 2021-12-16
US11995925B2 (en) * 2020-12-10 2024-05-28 Ford Global Technologies, Llc Vision system for a vehicle coolant system
US11971953B2 (en) 2021-02-02 2024-04-30 Inait Sa Machine annotation of photographic images
EP4295310A1 (de) 2021-02-18 2023-12-27 Inait SA Annotation von 3d-modellen mit in 2d-bildern sichtbaren gebrauchszeichen
US11544914B2 (en) 2021-02-18 2023-01-03 Inait Sa Annotation of 3D models with signs of use visible in 2D images
US11756311B2 (en) * 2021-05-18 2023-09-12 Toyota Motor Engineering & Manufacturing North America, Inc. Parking spot and person detection

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1528877A (fr) * 1967-05-03 1968-06-14 Renault Dispositif hydraulique de commande d'une transmission automatique étagée à trois rapports de marche avant à passage sous couple et une marche arrière
JPH09304281A (ja) 1996-05-09 1997-11-28 Tokyo Electric Power Co Inc:The 油検知装置
KR100716361B1 (ko) * 2005-08-30 2007-05-11 현대자동차주식회사 엘피아이 차량의 인젝터 누기 감지방법
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US7891340B2 (en) 2008-04-30 2011-02-22 Ford Global Technologies, Llc Feed-forward control in a fuel delivery system and leak detection diagnostics
US8228381B2 (en) 2008-09-03 2012-07-24 Walter Accurso Video and data capturing system and method
JP2010060422A (ja) * 2008-09-03 2010-03-18 Toshiba Corp 液漏れ検出装置及び液漏れ検出方法
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
JP2013110571A (ja) 2011-11-21 2013-06-06 Sony Corp 撮像システムおよび撮像装置
DE102011088167A1 (de) 2011-12-09 2013-06-13 Robert Bosch Gmbh Detektion eines Ladungsverlusts bei einem Kraftfahrzeug
US8855849B1 (en) 2013-02-25 2014-10-07 Google Inc. Object detection based on known structures of an environment of an autonomous vehicle
US9174508B2 (en) * 2013-03-15 2015-11-03 Levant Power Corporation Active vehicle suspension
WO2014176693A1 (en) * 2013-04-29 2014-11-06 Intelliview Technologies Inc. Object detection
US10093247B2 (en) 2013-05-23 2018-10-09 GM Global Technology Operations LLC Enhanced front curb viewing system
EP3023769B1 (de) 2013-07-17 2023-01-04 Panasonic Intellectual Property Management Co., Ltd. Spektroskop
US9915545B2 (en) 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
EP2908202B1 (de) 2014-02-14 2019-03-27 Accenture Global Services Limited Steuerungssystem für unbemannte Fahrzeuge
WO2015143569A1 (en) * 2014-03-28 2015-10-01 Intelliview Technologies Inc. Leak detection
DE102014209197B4 (de) 2014-05-15 2024-09-19 Continental Autonomous Mobility Germany GmbH Vorrichtung und Verfahren zum Erkennen von Niederschlag für ein Kraftfahrzeug
KR101622622B1 (ko) * 2014-10-13 2016-05-31 엘지전자 주식회사 차량 하부 이미지 제공 장치 및 이를 구비한 차량
US9898830B2 (en) 2015-03-17 2018-02-20 Hitachi, Ltd. Oil leakage detector and oil leakage detection method
CN105182537B (zh) 2015-09-28 2017-10-27 大连楼兰科技股份有限公司 智能眼镜维保过程中的漏液识别方法
US9987752B2 (en) * 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
DE102016210632A1 (de) 2016-06-15 2017-12-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Überprüfen eines Medienverlustes eines Kraftfahrzeuges sowie Kraftfahrzeug und System zum Ausführen eines solchen Verfahrens
JP6346251B2 (ja) * 2016-11-25 2018-06-20 ファナック株式会社 油漏れ検出装置
US10372996B2 (en) * 2016-12-15 2019-08-06 Ford Global Technologies, Llc Automatic vehicle leak detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021103367A1 (de) 2021-02-12 2022-08-18 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Erzeugung realistischer bildbasierter Daten zum Entwickeln und Testen von Fahrerassistenzsystemen

Also Published As

Publication number Publication date
RU2017140787A (ru) 2019-05-23
MX2018000340A (es) 2018-11-09
US10296816B2 (en) 2019-05-21
GB2560234A (en) 2018-09-05
GB201800198D0 (en) 2018-02-21
CN108304861A (zh) 2018-07-20
GB2560234B (en) 2022-09-28
US20180197048A1 (en) 2018-07-12
CN108304861B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
DE102018100192A1 (de) Erzeugen von Trainingsdaten zur automatischen Leckerkennung bei Fahrzeugen
DE102017130041A1 (de) Automatische leckerkennung bei fahrzeugen
DE102017116192A1 (de) Verwenden von virtuellen Daten zum Testen und Trainieren von Parkplatzerfassungssystemen
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE102018101125A1 (de) Rekurrentes tiefes neuronales Faltungsnetzwerk zur Detektion von Objekten
EP2043045B1 (de) Verfahren zur Objektverfolgung
DE102018008161A1 (de) Detektieren von Objekten unter Nutzung eines schwach überwachten Modells
DE102018101318A1 (de) Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung
DE102017100198A1 (de) Fixierungserzeugung für maschinenlernen
DE102020214283A1 (de) Vorrichtung zur erkennung von hindernissen, fahrzeugsystem mit dieser und verfahren dafür
DE102014108858A1 (de) Verfahren und Vorrichtung zum Abschätzen und Verfolgen von Form und Pose eines dreidimensionalen Objekts
DE102013227222A1 (de) Gerät und Verfahren für das Extrahieren eines Merkmalpunktes zum Erkennen eines Hindernisses, wobei ein Laserscanner benutzt wird
DE102013217354A1 (de) Kantenmessungs-videowerkzeug und schnittstelle mit automatischen parametersatzalternativen
DE102020126806A1 (de) Ein system und verfahren zum frachtmanagement in einem kraftfahrzeug
DE102021101270A1 (de) Trainieren eines neuronalen netzwerks eines fahrzeugs
DE102021203020A1 (de) Generative-adversarial-network-modelle zur detektion kleiner strassenobjekte
US10404565B2 (en) Simulation latency indication
DE102022100545A1 (de) Verbesserte objekterkennung
DE102018220892A1 (de) Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs
DE112020002874T5 (de) Szenenattributkommentierung komplexer Straßentypographien
DE102020128978A1 (de) Trainieren von tiefen neuronalen netzwerken mit synthetischen bildern
DE102021201445A1 (de) Computerimplementiertes Verfahren zum Testen der Konformität zwischen realen und synthetischen Bildern für maschinelles Lernen
DE102021200568A1 (de) Computerimplementiertes verfahren zur analyse der relevanz visueller parameter zum trainieren eines computer-vision -modells
DE102017217063A1 (de) Erkennungssystem, Arbeitsverfahren und Trainingsverfahren zum Erzeugen eines 3D-Modells mit Referenzdaten
DE102020134530A1 (de) Rückaufprallwarnsystem mit temporärem cnn

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee